Historia Internetu: sieć rdzeniowa

Historia Internetu: sieć rdzeniowa

Inne artykuły z serii:

Wprowadzenie

Na początku lat 1970. do AT&T, wielkiego monopolisty telekomunikacyjnego Stanów Zjednoczonych, dołączył Larry'ego Robertsa z ciekawą ofertą. W tym czasie był dyrektorem Wydziału Informatyki Agencji Zaawansowanych Projektów Badawczych (ARPA), stosunkowo młodej organizacji w Departamencie Obrony zajmującej się długoterminowymi badaniami oderwanymi od rzeczywistości. W ciągu ostatnich pięciu lat Roberts nadzorował tworzenie ARPANET, pierwszej znaczącej sieci komputerowej łączącej komputery w 25 różnych lokalizacjach w całym kraju.

Sieć okazała się sukcesem, ale jej wieloletnie istnienie i cała biurokracja z nią związana nie podlegała władzy ARPA. Roberts szukał sposobu, aby zrzucić to zadanie na kogoś innego. Skontaktował się więc z dyrektorami AT&T, aby zaoferować im „klucze” do tego systemu. Po dokładnym rozważeniu oferty AT&T ostatecznie ją odrzuciło. Starsi inżynierowie i menedżerowie firmy uważali, że podstawowa technologia ARPANET jest niepraktyczna i niestabilna i nie ma dla niej miejsca w systemie zaprojektowanym w celu zapewnienia niezawodnej i wszechstronnej usługi.

ARPANET w naturalny sposób stał się zalążkiem, wokół którego wykrystalizował się internet; prototyp ogromnego systemu informacyjnego obejmującego cały świat, którego kalejdoskopowe możliwości są nierealne do obliczenia. Jak AT&T mogło nie dostrzegać takiego potencjału, tak bardzo tkwić w przeszłości? Bob Taylor, który zatrudnił Robertsa do nadzorowania projektu ARPANET w 1966 roku, stwierdził później bez ogródek: „Praca z AT&T byłaby jak praca z Cro-Magnons”. Zanim jednak skonfrontujemy taką nieuzasadnioną ignorancję nieznanych korporacyjnych biurokratów z wrogością, cofnijmy się o krok. Tematem naszej historii będzie historia Internetu, więc na początku dobrze byłoby uzyskać bardziej ogólne pojęcie o tym, o czym mówimy.

Spośród wszystkich systemów technologicznych stworzonych w drugiej połowie XX wieku Internet był prawdopodobnie najważniejszy dla społeczeństwa, kultury i gospodarki współczesnego świata. Najbliższym konkurentem w tej kwestii będą prawdopodobnie podróże odrzutowcem. Korzystając z Internetu, ludzie mogą natychmiast dzielić się zdjęciami, filmami i przemyśleniami, chcianymi i niechcianymi, z przyjaciółmi i rodziną na całym świecie. Młodzi ludzie mieszkający tysiące kilometrów od siebie nieustannie się zakochują, a nawet biorą ślub w wirtualnym świecie. Niekończące się centrum handlowe jest dostępne o każdej porze dnia i nocy bezpośrednio z milionów wygodnych domów.

W większości to wszystko jest znajome i dokładnie tak jest. Ale, jak może poświadczyć sam autor, Internet okazał się być może największym rozpraszaczem, stratą czasu i źródłem zepsucia umysłu w historii ludzkości, przewyższając pod tym względem telewizję – a nie było to łatwe. Pozwolił wszelakim niedostatkom, fanatykom i miłośnikom teorii spiskowych szerzyć swoje bzdury po całym świecie z prędkością światła - niektóre z tych informacji można uznać za nieszkodliwe, a inne nie. Umożliwiło to wielu organizacjom, zarówno prywatnym, jak i publicznym, powolne gromadzenie, aw niektórych przypadkach szybką i haniebną utratę ogromnych ilości danych. W ogóle stał się wzmacniaczem ludzkiej mądrości i głupoty, a ilość tej ostatniej jest przerażająca.

Ale czym jest obiekt, o którym mówimy, jego fizyczna struktura, cała ta maszyneria, która umożliwiła zajście tych zmian społecznych i kulturowych? Co to internet? Gdybyśmy mogli w jakiś sposób przefiltrować tę substancję, umieszczając ją w szklanym naczyniu, zobaczylibyśmy, jak rozdziela się na trzy warstwy. Globalna sieć komunikacyjna zostanie umieszczona na dole. Ta warstwa jest starsza od Internetu o około sto lat i początkowo składała się z miedzianych lub żelaznych drutów, ale od tego czasu została zastąpiona przez kable koncentryczne, wzmacniacze mikrofalowe, światłowód i radio komórkowe.

Następna warstwa składa się z komputerów komunikujących się ze sobą za pośrednictwem tego systemu przy użyciu wspólnych języków lub protokołów. Do najbardziej podstawowych z nich należą protokół internetowy (IP), protokół kontroli transmisji (TCP) i protokół Border Gateway (BGP). To jest rdzeń samego Internetu, a jego konkretnym wyrazem jest sieć specjalnych komputerów zwanych routerami, odpowiedzialnych za znajdowanie ścieżki dla wiadomości, która ma dotrzeć z komputera źródłowego do komputera docelowego.

Wreszcie, w górnej warstwie znajdą się różne aplikacje, których ludzie i maszyny używają do pracy i zabawy w Internecie, z których wiele używa wyspecjalizowanych języków: przeglądarka internetowa, aplikacje komunikacyjne, gry wideo, aplikacje zakupowe i tak dalej. Aby korzystać z Internetu, aplikacja musi jedynie załączyć wiadomość w formacie zrozumiałym dla routerów. Wiadomość może być posunięciem szachowym, małym fragmentem filmu lub prośbą o przelanie pieniędzy z jednego konta bankowego na drugie - routery nie dbają o to i potraktują to tak samo.

Nasza historia połączy te trzy wątki, aby opowiedzieć historię internetu. Po pierwsze, globalna sieć komunikacyjna. W końcu cały splendor różnych programów, które pozwalają użytkownikom komputerów na zabawę lub zrobienie czegoś pożytecznego przez sieć. Razem są one połączone technologiami i protokołami, które pozwalają różnym komputerom komunikować się ze sobą. Twórcy tych technologii i protokołów opierali się na osiągnięciach przeszłości (sieć) i mieli mgliste wyobrażenie o przyszłości, w kierunku której zmierzali po omacku ​​(przyszłe programy).

Oprócz tych twórców, jednym ze stałych aktorów naszej opowieści będzie państwo. Będzie to szczególnie widoczne na poziomie sieci telekomunikacyjnych, które albo są zarządzane przez rząd, albo podlegają ścisłemu nadzorowi z jego strony. Co prowadzi nas z powrotem do AT&T. Choć niechętnie się do tego przyznają, los Taylora, Robertsa i ich kolegów z ARPA był beznadziejnie związany z operatorami telekomunikacyjnymi, kręgosłupem przyszłości Internetu. Działanie ich sieci było całkowicie uzależnione od takich usług. Jak wytłumaczyć ich wrogość, ich przekonanie, że ARPANET reprezentuje nowy świat, który jest z natury przeciwny wstecznym urzędnikom, którzy kierują telekomunikacją?

W rzeczywistości te dwie grupy dzielił nie czas, ale różnice filozoficzne. Dyrektorzy i inżynierowie AT&T postrzegali siebie jako nadzorców ogromnej i złożonej maszyny, która zapewniała niezawodne i wszechstronne usługi łączące jedną osobę z drugą. Za całość sprzętu odpowiadała firma Bell System. Z drugiej strony architekci ARPANET-u uważali system za przewodnika dowolnych fragmentów danych i uważali, że jego operatorzy nie powinni ingerować w sposób tworzenia i wykorzystywania tych danych z obu końców przewodu.

Dlatego musimy zacząć od opowiedzenia, jak dzięki sile rządu USA udało się rozwiązać ten impas dotyczący natury amerykańskiej telekomunikacji.

Historia Internetu: sieć rdzeniowa

Jeden system, kompleksowa obsługa?

Internet narodził się w specyficznym środowisku amerykańskiej telekomunikacji — operatorzy telefoniczni i telegraficzni byli traktowani zupełnie inaczej w Stanach Zjednoczonych niż w pozostałych częściach świata — i istnieją wszelkie powody, by sądzić, że środowisko to odegrało kształtującą rolę w projektowaniu i kształtowanie ducha przyszłego Internetu. Przyjrzyjmy się więc bliżej, jak to wszystko się stało. W tym celu cofniemy się do czasów narodzin amerykańskiego telegrafu.

Amerykańska anomalia

W 1843 roku Samuela Morse'a i jego sojusznicy przekonali Kongres do wydania 30 000 dolarów na budowę linii telegraficznej między Waszyngtonem a Waszyngtonem. i Baltimore. Wierzyli, że będzie to pierwsze ogniwo w sieci linii telegraficznych tworzonej za rządowe pieniądze, która rozciągałaby się na cały kontynent. W liście do Izby Reprezentantów Morse zasugerował, aby rząd wykupił wszystkie prawa do jego patentów telegraficznych, a następnie zlecił prywatnym firmom zbudowanie części sieci, pozostawiając osobne linie do oficjalnej komunikacji. W takim razie Morse napisał: „Niedługo cała powierzchnia tego kraju zostanie pobrużdżona tymi nerwami, które z szybkością myśli rozpowszechnią wiedzę o wszystkim, co dzieje się na ziemi, zamieniając cały kraj w jedna wielka osada”.

Wydawało mu się, że tak żywotny system komunikacji w naturalny sposób służył interesowi publicznemu i dlatego wpadł w krąg rządowych obaw. Zapewnienie komunikacji między kilkoma stanami za pośrednictwem usług pocztowych było jednym z kilku zadań rządu federalnego, które zostały wyraźnie zapisane w konstytucji Stanów Zjednoczonych. Jednak jego motywy nie były całkowicie zdeterminowane służbą społeczeństwu. Kontrola rządu dała Morse'owi i jego zwolennikom możliwość pomyślnego ukończenia przedsięwzięcia - otrzymania jednej, ale znaczącej płatności z publicznych pieniędzy. W 1845 roku Cave Johnson, generalny naczelnik poczty Stanów Zjednoczonych pod rządami 11. prezydenta USA, Jamesa Polka, ogłosił swoje poparcie dla publicznego systemu telegraficznego zaproponowanego przez Morse'a: osoba" - napisał. Jednak na tym wszystko się skończyło. Inni członkowie demokratycznej administracji Polka nie chcieli mieć nic wspólnego z telegrafem publicznym, podobnie jak Kongres Demokratów. Partii nie podobały się plany wigowiektóre zmusiły rząd do wydawania pieniędzy na „wewnętrzne ulepszenia” - uważali te plany za zachęcanie do faworyzowania, sprzedajności i korupcji.

W związku z niechęcią rządu do działania, jeden z członków zespołu Morse'a, Amos Kendal, przy wsparciu prywatnych sponsorów zaczął opracowywać schemat sieci telegraficznej. Jednak patent Morse'a nie wystarczył, aby zapewnić sobie monopol na komunikację telegraficzną. W ciągu dekady pojawiły się dziesiątki konkurentów, albo posiadających licencje na alternatywne technologie telegraficzne (głównie telegraf drukarski Royal House), albo po prostu prowadzących półlegalny biznes na niepewnych podstawach prawnych. Pozwy składano partiami, papierowe fortuny rosły i znikały, upadające firmy upadały lub były sprzedawane konkurentom po sztucznym zawyżeniu wartości akcji. Z całego tego zamieszania pod koniec lat 1860. XIX wieku wyłonił się jeden główny gracz: Western Union.

Zaczęły się rozprzestrzeniać przerażone pogłoski o „monopolu”. Telegraf stał się już niezbędny dla kilku aspektów życia w Ameryce: finansów, kolei i gazet. Nigdy wcześniej prywatna organizacja nie rozrosła się do takich rozmiarów. Projekt rządowej kontroli nad telegrafem nabrał nowego życia. W dekadzie po wojnie secesyjnej kongresowe komitety pocztowe przedstawiły różne plany wprowadzenia telegrafu na orbitę usług pocztowych. Istnieją trzy podstawowe opcje: 1) Poczta sponsoruje innego rywala Western Union, dając mu specjalny dostęp do urzędów pocztowych i autostrad, w zamian wyznaczając limity taryfowe. 2) Poczta uruchamia własny telegraf, aby konkurować z WU i innymi korsarzami. 3) Rząd znacjonalizuje cały telegraf, przekazując go pod kontrolę poczty.

Plany telegrafu pocztowego zyskały kilku lojalnych zwolenników w Kongresie, w tym Alexandra Ramsaya, przewodniczącego Senackiej Komisji Pocztowej. Jednak większość energii kampanii została zapewniona przez zewnętrznych lobbystów, zwłaszcza Gardinera Hubbarda, który miał doświadczenie w usługach publicznych jako organizator miejskich systemów oświetlenia wodnego i gazowego w Cambridge (później stał się głównym wczesnym współpracownikiem Alexandra Bella i założyciel Towarzystwa National Geographic). Hubbard i jego zwolennicy argumentowali, że system publiczny zapewniłby takie samo korzystne rozpowszechnianie informacji, jak poczta papierowa, przy jednoczesnym utrzymaniu niskich stawek. Powiedzieli, że takie podejście z pewnością lepiej przysłuży się społeczeństwu niż system WU, który był skierowany do elity biznesu. WU oczywiście sprzeciwił się temu, że koszt telegramów był określany przez jego koszt, a publiczny system, który sztucznie obniżał stawki, napotkałby problemy i nikomu nie przyniósłby korzyści.

W każdym razie telegraf pocztowy nigdy nie otrzymał wystarczającego poparcia, aby stać się tematem bitew kongresowych. Wszystkie proponowane ustawy po cichu się dusiły. Wielkość monopolu nie osiągnęła takiego poziomu, który przezwyciężyłby strach przed nadużyciami rządu. Demokraci odzyskali kontrolę nad Kongresem w 1874 r., Duch Odbudowy Narodowej w okresie bezpośrednio po wojnie secesyjnej został stłumiony, a początkowo słaby nacisk na telegraf pocztowy wypalił. Pomysł oddania telegrafu (a później telefonu) pod kontrolę rządu pojawiał się sporadycznie w kolejnych latach, ale poza krótkimi okresami (nominalnej) rządowej kontroli nad telefonem w czasie wojny w 1918 r., tak naprawdę nic z tego nie wyrosło. .

To zaniedbanie przez rząd telegrafu i telefonu było anomalią na skalę światową. We Francji telegraf został znacjonalizowany jeszcze przed zelektryfikowaniem. W 1837 roku, kiedy prywatna firma próbowała założyć telegraf optyczny (przy użyciu wież sygnalizacyjnych) obok istniejącego systemu kontrolowanego przez rząd, francuski parlament uchwalił ustawę zakazującą rozwoju telegrafu bez zezwolenia rządu. W Wielkiej Brytanii prywatny telegraf mógł się rozwijać przez kilka dziesięcioleci. Jednak niezadowolenie społeczne z powstałego duopolu doprowadziło do kontroli sytuacji przez rząd w 1868 r. W całej Europie rządy przekazały telegrafię i telefonię pod kontrolę poczty państwowej, jak sugerował Hubbard i jego zwolennicy. [w Rosji przedsiębiorstwo państwowe „Central Telegraph” zostało założone 1 października 1852 r. /ok. tłumacz].

Poza Europą i Ameryką Północną większość świata była kontrolowana przez władze kolonialne i dlatego nie miała głosu w rozwoju i regulacji telegrafii. Tam, gdzie istniały niezależne rządy, zwykle tworzyły one publiczne systemy telegraficzne na wzór modelu europejskiego. Systemom tym generalnie brakowało funduszy na rozbudowę w tempie obserwowanym w Stanach Zjednoczonych i krajach europejskich. Na przykład brazylijska państwowa firma telegraficzna, działająca pod skrzydłami Ministerstwa Rolnictwa, Handlu i Pracy, do 1869 roku miała tylko 2100 km linii telegraficznych, podczas gdy w Stanach Zjednoczonych na podobnym obszarze, gdzie 4 razy więcej ludzi żyło, do 1866 roku rozciągało się już 130 000 km.

Nowa umowa

Dlaczego Stany Zjednoczone wybrały tak wyjątkową drogę? Można do tego odnieść istniejący do ostatnich lat XIX wieku lokalny system podziału stanowisk państwowych wśród zwolenników partii, która zwyciężyła w wyborach. Biurokracja rządowa, aż do poczmistrzów, składała się z nominacji politycznych, dzięki którym lojalni sojusznicy mogli być nagradzani. Obie strony nie chciały tworzyć dużych nowych źródeł mecenatu dla swoich przeciwników - a to z pewnością stałoby się, gdyby telegraf przeszedł pod kontrolę rządu federalnego. Jednak najprostszym wyjaśnieniem byłaby tradycyjna amerykańska nieufność wobec potężnego rządu centralnego – z tego samego powodu struktury amerykańskiej służby zdrowia, edukacji i innych instytucji publicznych są tak samo różne od struktur w innych krajach.

Ze względu na rosnące znaczenie telekomunikacji dla życia publicznego i bezpieczeństwa, Stany Zjednoczone nie były w stanie całkowicie oddzielić się od rozwoju łączności. W pierwszych dekadach XX wieku pojawił się system hybrydowy, w którym prywatne systemy łączności testowały dwie siły: z jednej strony biurokracja stale monitorowała stawki firm telekomunikacyjnych, pilnując, aby nie zajmowały one pozycji monopolistycznej i nie wydobywały nadmierne zyski; z drugiej strony groźba podziału na mocy przepisów antymonopolowych w przypadku niewłaściwego zachowania. Jak zobaczymy, te dwie siły mogą kolidować ze sobą: teoria regulacji taryfowych uważała monopol za zjawisko naturalne w pewnych okolicznościach, a powielanie usług byłoby niepotrzebnym marnotrawstwem zasobów. Regulatorzy zwykle starali się zminimalizować negatywne strony monopolu poprzez kontrolowanie cen. Jednocześnie ustawodawstwo antymonopolowe dążyło do zniszczenia monopolu w zarodku poprzez przymusowe zorganizowanie konkurencyjnego rynku.

Koncepcja regulacji stawek narodziła się na kolei i została wdrożona na szczeblu federalnym przez Międzystanową Komisję Handlu (ICC), utworzoną przez Kongres w 1887 r. Główną siłą napędową prawa były małe firmy i niezależni rolnicy. Często nie mieli innego wyjścia, jak korzystać z kolei, którymi dostarczali swoje produkty na rynek, i twierdzili, że firmy kolejowe to wykorzystywały, wyciskając z nich ostatnie pieniądze, jednocześnie zapewniając luksusowe warunki dużym korporacjom. Pięcioosobowa komisja otrzymała uprawnienia do nadzorowania usług kolejowych i stawek oraz zniechęcania do nadużywania władzy monopolistycznej, w szczególności poprzez zakazanie kolejom przyznawania specjalnych stawek wybranym firmom (prekursor tego, co dziś nazywamy „neutralnością sieci”). Ustawa Manna-Elkina z 1910 r. rozszerzyła prawa ICC na telegraf i telefon. Jednak MTK, koncentrując się na transporcie, nigdy nie był szczególnie zainteresowany tymi nowymi obszarami odpowiedzialności, praktycznie je ignorując.

Jednocześnie rząd federalny opracował zupełnie nowe narzędzie do walki z monopolami. Ustawa Shermana Rok 1890 dał Prokuratorom Generalnym uprawnienia do kwestionowania w sądzie wszelkich handlowych „kombinacji” podejrzanych o „ograniczenie handlu” - to znaczy tłumienie konkurencji kosztem władzy monopolistycznej. Prawo to było wykorzystywane przez następne dwie dekady do likwidacji kilku największych korporacji, w tym decyzji Sądu Najwyższego z 1911 r. O podziale Standard Oil Company na 34 części.

Historia Internetu: sieć rdzeniowa
Ośmiornica Standard Oil z kreskówki z 1904 roku, przed separacją

Do tego czasu telefonii i jej głównemu dostawcy AT&T udało się przyćmić znaczenie i możliwości telegrafii i WU, tak bardzo, że w 1909 roku AT&T była w stanie kupić pakiet kontrolny WU. Theodore Vail został prezesem połączonych firm i rozpoczął proces ich łączenia. Vail mocno wierzył, że dobroczynny monopol telekomunikacyjny lepiej służyłby interesowi publicznemu, i promował nowe hasło firmy: „Jedna polityka, jeden system, kompleksowa usługa”. W rezultacie Vale dojrzało, by zwrócić na siebie uwagę pogromców monopoli.

Historia Internetu: sieć rdzeniowa
Theodore Vail, ok. 1918

Dojście do władzy w 1913 roku administracji Woodrowa Wilsona zapewniło jej członków Partia Postępowa dobry moment na grożenie swoim klubem antymonopolowym. Dyrektor pocztowy Sidney Burlson skłaniał się ku pełnej wysyłce telefonu na wzór europejski, ale pomysł ten jak zwykle nie spotkał się z poparciem. Zamiast tego prokurator generalny George Wickersham wyraził opinię, że ciągłe przejmowanie przez AT&T niezależnych firm telefonicznych narusza ustawę Shermana. Zamiast iść do sądu, Vail i jego zastępca, Nathan Kingsbury, zawarli z firmą umowę, która przeszła do historii jako „Kingsbury Agreement”, w ramach której AT&T zobowiązało się do:

  1. Przestań kupować niezależne firmy.
  2. Sprzedaj swoje udziały w WU.
  3. Zezwól niezależnym firmom telefonicznym na łączenie się z siecią dalekobieżną.

Ale po tym niebezpiecznym dla monopoli momencie nastąpiły dziesięciolecia spokoju. Spokojna gwiazda regulacji taryfowych wzeszła, zakładając istnienie naturalnych monopoli w komunikacji. Na początku lat dwudziestych XX wieku dokonano złagodzenia i AT&T wznowiło przejmowanie małych, niezależnych firm telefonicznych. Podejście to zostało zapisane w ustawie z 1920 r., która powołała Federalną Komisję Łączności (FCC) w miejsce ICC, która stała się regulatorem taryf za łączność przewodową. Do tego czasu Bell System kontrolował pod każdym względem co najmniej 1934% amerykańskiego biznesu telefonicznego: 90 ze 135 milionów kilometrów przewodów, 140 z 2,1 miliarda miesięcznych połączeń, 2,3 milionów z miliarda dolarów rocznych zysków. Jednak głównym celem FCC nie było ponowne konkurowanie, ale „udostępnienie, w miarę możliwości, wszystkim mieszkańcom Stanów Zjednoczonych szybkiej, wydajnej, publicznej i ogólnoświatowej komunikacji przewodowej i radiowej z odpowiednią wygoda i rozsądne koszty”. Jeśli jedna organizacja może zapewnić taką usługę, niech tak będzie.

W połowie XX wieku lokalne i stanowe regulatory telekomunikacyjne w Stanach Zjednoczonych opracowały wieloetapowy system subsydiowania skrośnego, aby przyspieszyć rozwój usługi łączności powszechnej. Prowizje regulacyjne ustalają stawki na podstawie postrzeganej wartości sieci dla każdego klienta, a nie kosztu świadczenia usługi temu klientowi. Dlatego użytkownicy biznesowi, którzy polegali na telefonii w prowadzeniu działalności, płacili więcej niż osoby fizyczne (dla których usługa zapewniała udogodnienia socjalne). Klienci na dużych rynkach miejskich, z łatwym dostępem do wielu innych użytkowników, płacili więcej niż w mniejszych miejscowościach, pomimo większej wydajności dużych central telefonicznych. Użytkownicy międzystrefowi płacili za dużo, mimo że technologia bezlitośnie obniżała koszty połączeń międzystrefowych, a zyski z lokalnych centrali rosły. Ten złożony system redystrybucji kapitału działał całkiem dobrze, dopóki istniał jeden monolityczny dostawca, w ramach którego wszystko mogło działać.

Nowa technologia

Jesteśmy przyzwyczajeni do myślenia o monopolu jako hamującej sile, która rodzi bezczynność i letarg. Oczekujemy, że monopol będzie zazdrośnie strzegł swojej pozycji i status quo, zamiast służyć jako motor transformacji technologicznej, ekonomicznej i kulturowej. Trudno jednak odnieść ten pogląd do firmy AT&T w jej szczytowym okresie, ponieważ produkowała ona kolejne innowacje, przewidując i przyspieszając każdy nowy przełom w komunikacji.

Na przykład w 1922 roku AT&T zainstalowało komercyjną stację radiową w swoim budynku na Manhattanie, zaledwie półtora roku po otwarciu pierwszej takiej dużej stacji, Westinghouse's KDKA. W następnym roku wykorzystała swoją sieć międzymiastową, aby przekazać przemówienie Prezydenta Warrena Hardinga do wielu lokalnych stacji radiowych w całym kraju. Kilka lat później AT&T zdobyło również przyczółek w przemyśle filmowym, po tym jak inżynierowie z Bell Labs opracowali maszynę łączącą wideo i nagrywanie dźwięku. Bracia Warner wykorzystali to”biały telefon» za publikację pierwszego hollywoodzkiego filmu z synchronizacją muzyki "Don Juan", a następnie pierwszy w historii pełnometrażowy film wykorzystujący synchronizację ruchu warg ”wokalistka jazzowa".

Historia Internetu: sieć rdzeniowa
biały telefon

Walter Gifford, który został prezesem AT&T w 1925 r., postanowił uwolnić firmę od spin-offów, takich jak nadawanie i filmy, częściowo po to, by uniknąć dochodzeń antymonopolowych. Chociaż od czasu porozumienia z Kingsbury firmie nie groził Departament Sprawiedliwości Stanów Zjednoczonych, nie warto było zwracać na siebie uwagi działaniami, które można by zinterpretować jako próbę nadużycia monopolistycznej pozycji w telefonii do nieuczciwej ekspansji na inne rynki. Tak więc, zamiast organizować własne nadawanie radiowe, AT&T stała się głównym dostawcą sygnału dla amerykańskiej korporacji radiowej RCA i innych sieci radiowych, nadając programy z ich nowojorskich studiów i innych dużych miast do stowarzyszonych stacji radiowych w całym kraju.

Tymczasem w 1927 r. za Atlantykiem rozprzestrzeniła się usługa radiotelefoniczna, zapoczątkowana banalnym pytaniem zadanym przez Gifforda swojemu rozmówcy z brytyjskiej poczty: „Jaka jest pogoda w Londynie?”. Z pewnością nie jest to: „Tak postępuje Bóg!” [pierwsza fraza oficjalnie przekazana telegraficznie alfabetem Morse'a / ok. tłum.], ale mimo to zaznaczyła ważny kamień milowy, pojawienie się możliwości połączeń międzykontynentalnych na kilkadziesiąt lat przed ułożeniem podwodnego kabla telefonicznego, choć ogromnym kosztem i niską jakością.

Jednak najważniejsze wydarzenia w naszej historii dotyczyły przesyłania dużych ilości danych na duże odległości. AT&T zawsze chciała zwiększyć ruch w swoich sieciach dalekobieżnych, co stanowiło główną przewagę konkurencyjną nad kilkoma pozostałymi niezależnymi sieciami, a także wysokie zyski. Najłatwiejszym sposobem na przyciągnięcie klientów było opracowanie nowej technologii, która obniżyłaby koszty transmisji — zwykle oznaczało to możliwość upchnięcia większej liczby rozmów w tych samych przewodach lub kablach. Ale, jak widzieliśmy, prośby na odległość wykraczały poza tradycyjne wiadomości telegraficzne i telefoniczne od jednej osoby do drugiej. Sieci radiowe potrzebowały własnych kanałów, a telewizja była już na horyzoncie, ze znacznie większymi żądaniami przepustowości.

Najbardziej obiecującym sposobem sprostania nowym wymaganiom było ułożenie kabla koncentrycznego złożonego z koncentrycznych metalowych cylindrów [koncentryczny, koncentryczny - o wspólnej osi / ok. tłumacz. ]. Właściwości takiego przewodnika badali jeszcze w XIX wieku giganci fizyki klasycznej: Maxwell, Heaviside, Rayleigh, Kelvin i Thomson. Miała ogromne teoretyczne zalety jako linia transmisyjna, ponieważ mogła przenosić sygnał szerokopasmowy, a jej własna konstrukcja całkowicie chroniła ją przed przesłuchami i zakłóceniami pochodzącymi z sygnałów zewnętrznych. Od czasu rozwoju telewizji w latach dwudziestych XX wieku żadna z istniejących technologii nie była w stanie zapewnić przepustowości megahercowej (lub większej) wymaganej do transmisji wysokiej jakości. Dlatego inżynierowie Bell Labs postanowili przekształcić teoretyczne zalety kabla w działającą długodystansową i szerokopasmową linię transmisyjną, w tym stworzyć cały niezbędny sprzęt pomocniczy do generowania, wzmacniania, odbioru i innego przetwarzania sygnału. W 1920 roku AT&T przetestowało w terenie, za zgodą FCC, ponad 1936 mil kabla z Manhattanu do Filadelfii. Po pierwszych testach systemu z 160 obwodami głosowymi inżynierowie pomyślnie nauczyli się transmitować wideo do końca 27 roku.

W tym czasie zaczęło pojawiać się inne zapotrzebowanie na komunikację dalekobieżną o dużej przepustowości, przekaźnik radiowy. Radiotelefonia używana w komunikacji transatlantyckiej w 1927 roku wykorzystywała parę nadawanych sygnałów radiowych i tworzyła dwukierunkowy kanał głosowy na falach krótkich. Połączenie dwóch nadajników i odbiornika radiowego, wykorzystujące całe pasmo częstotliwości do jednej rozmowy telefonicznej, nie było ekonomicznie opłacalne z punktu widzenia łączności naziemnej. Gdybyś mógł zmieścić wiele rozmów w jednej wiązce radiowej, byłaby to inna rozmowa. Chociaż każda pojedyncza stacja radiowa byłaby dość droga, setki takich stacji powinny wystarczyć do transmisji sygnałów w całych Stanach Zjednoczonych.

O prawo do wykorzystania w takim systemie walczyły dwa pasma częstotliwości: ultrawysokie częstotliwości (fale decymetrowe) UHF i mikrofale (fale centymetrowe). Wyższa częstotliwość mikrofal obiecywała większą przepustowość, ale stanowiła również większe wyzwanie technologiczne. W latach trzydziestych odpowiedzialna opinia w AT&T skłaniała się ku bezpieczniejszej opcji z UHF.

Jednak technologia mikrofalowa zrobiła duży krok naprzód podczas II wojny światowej dzięki aktywnemu wykorzystaniu w radarach. Firma Bell Labs zademonstrowała przydatność radia mikrofalowego za pomocą AN/TRC-69, mobilnego systemu zdolnego do transmisji ośmiu linii telefonicznych do innej anteny linii wzroku. Pozwoliło to dowództwu wojskowemu na szybkie przywrócenie łączności głosowej po przeniesieniu, bez czekania na położenie kabla (i bez ryzyka pozostawienia go bez łączności po przecięciu kabla, zarówno przypadkowo, jak i w ramach działań wroga).

Historia Internetu: sieć rdzeniowa
Wdrożona mikrofalowa radiowa stacja przekaźnikowa AN / TRC-6

Po wojnie Harold T. Friis, urodzony w Danii oficer w Bell Labs, kierował rozwojem mikrofalowego przekaźnika radiowego. Pod koniec 350 roku otwarto 1945-kilometrową linię próbną z Nowego Jorku do Bostonu. Fale przeskakiwały ponad 50-kilometrowe odcinki między wieżami naziemnymi - na zasadzie zasadniczo podobnej do telegrafu optycznego, a nawet łańcucha świateł sygnalizacyjnych. W górę rzeki do Hudson Highlands, przez wzgórza Connecticut, do Mount Ashnebamskit w zachodnim Massachusetts, a następnie w dół do Boston Harbor.

AT&T nie była jedyną firmą zainteresowaną komunikacją mikrofalową i wojskowym doświadczeniem w zarządzaniu sygnałami mikrofalowymi. Philco, General Electric, Raytheon i nadawcy telewizyjni budowali lub planowali własne systemy eksperymentalne w latach powojennych. Philco pokonał AT&T, budując połączenie między Waszyngtonem a Filadelfią wiosną 1945 roku.

Historia Internetu: sieć rdzeniowa
Mikrofalowa stacja przekaźnikowa AT&T w Creston, Wyoming, część pierwszej linii transkontynentalnej, 1951.

Przez ponad 30 lat AT&T unikała kłopotów z organami antymonopolowymi i innymi rządowymi organami regulacyjnymi. W przeważającej części broniło go pojęcie naturalnego monopolu - że stworzenie wielu konkurencyjnych i niepowiązanych ze sobą systemów, które układałyby swoje przewody w całym kraju, byłoby strasznie nieefektywne. Komunikacja mikrofalowa była pierwszym poważnym uszczerbkiem w tej zbroi, umożliwiając wielu firmom zapewnianie komunikacji na duże odległości bez dodatkowych kosztów.

Transmisje mikrofalowe poważnie obniżyły barierę wejścia dla potencjalnych konkurentów. Ponieważ technologia wymagała tylko sieci stacji oddalonych od siebie o 50 kilometrów, nie wymagała zakupu tysięcy kilometrów ziemi i utrzymywania tysięcy kilometrów kabli, aby stworzyć użyteczny system. Ponadto zdolność transmisyjna mikrofal była znacznie większa niż tradycyjnych kabli parowanych, ponieważ każda stacja przekaźnikowa mogła transmitować tysiące rozmów telefonicznych lub kilka audycji telewizyjnych. Przewaga konkurencyjna istniejącego przewodowego systemu dalekobieżnego AT&T zanikała.

Jednak FCC chroniła AT&T przed konsekwencjami takiej konkurencji przez wiele lat, wydając dwie decyzje w latach czterdziestych i pięćdziesiątych XX wieku. Początkowo komisja odmówiła wydawania licencji, z wyjątkiem tymczasowych i eksperymentalnych, nowym dostawcom usług komunikacyjnych, którzy nie świadczyli swoich usług dla całej populacji (ale na przykład prowadzili komunikację w ramach jednego przedsiębiorstwa). Dlatego wejście na ten rynek groziło utratą licencji. Komisarze martwili się tym samym problemem, który zagrażał nadawcom dwadzieścia lat temu i doprowadził do powstania samej FCC: kakofonią zakłóceń z wielu różnych nadajników zanieczyszczających ograniczone pasmo radiowe.

Druga decyzja dotyczyła połączenia międzysieciowego. Przypomnijmy, że umowa z Kingsbury wymagała od AT&T umożliwienia lokalnym firmom telefonicznym łączenia się z jej siecią dalekobieżną. Czy te wymagania dotyczyły mikrofalowej komunikacji radiowej? FCC orzekła, że ​​mają one zastosowanie tylko w miejscach, w których nie istnieje odpowiedni zasięg komunikacji publicznej. Dlatego każdy konkurent ustanawiający sieć regionalną lub lokalną ryzykował nagłe odłączenie od reszty kraju, gdy AT&T zdecydowało się wejść na jego obszar. Jedyną alternatywą, aby pozostać w kontakcie, było stworzenie własnej, nowej ogólnokrajowej sieci, co było przerażające w ramach eksperymentalnej licencji.

Pod koniec lat pięćdziesiątych na rynku telekomunikacji międzymiastowej był więc tylko jeden główny gracz, AT&T. Jego sieć mikrofalowa obejmowała 1950 linii telefonicznych wzdłuż każdej trasy, docierając do każdego stanu na kontynencie.

Historia Internetu: sieć rdzeniowa
Mikrofalowa sieć przekaźników radiowych AT&T w 1960 roku

Jednak pierwsza znacząca przeszkoda na drodze do pełnej i kompleksowej kontroli sieci telekomunikacyjnej przez AT&T nadeszła z zupełnie innego kierunku.

Co jeszcze przeczytać

  • Gerald W. Brock, Przemysł telekomunikacyjny (1981) Przemysł telekomunikacyjny: dynamika struktury rynku / Gerald W. Brock
  • John Brooks, Telefon: pierwsze sto lat (1976)
  • MD Fagen, red., History of Engineering and Science in the Bell System: Transmission Technology (1985)
  • Joshua D. Wolff, Western Union i tworzenie amerykańskiego porządku korporacyjnego (2013)

Źródło: www.habr.com

Dodaj komentarz