Historia Internetu: ARPANET - podsieć

Historia Internetu: ARPANET - podsieć

Inne artykuły z serii:

Korzystanie z ARPANET Robert Taylor i Larry Roberts zamierzali się zjednoczyć wiele różnych instytutów badawczych, z których każdy miał swój własny komputer, za oprogramowanie i sprzęt, za które ponosił pełną odpowiedzialność. Jednak oprogramowanie i sprzęt samej sieci znajdowały się w mglistym środkowym obszarze i nie należały do ​​żadnego z tych miejsc. W latach 1967–1968 Roberts, szef projektu sieciowego Biura Technologii Przetwarzania Informacji (IPTO), musiał określić, kto powinien zbudować i utrzymywać sieć oraz gdzie powinny przebiegać granice między siecią a instytucjami.

Sceptycy

Problem struktury sieci był co najmniej w równym stopniu polityczny, co techniczny. Dyrektorzy ds. badań ARPA generalnie nie zgadzali się z ideą ARPANET. Niektórzy wyraźnie nie wykazywali chęci przyłączenia się do sieci w żadnym momencie; niewielu z nich było entuzjastycznie nastawionych. Każde centrum musiałoby podjąć poważny wysiłek, aby umożliwić innym korzystanie z ich bardzo drogiego i bardzo rzadkiego komputera. To zapewnienie dostępu miało wyraźne wady (utrata cennego zasobu), podczas gdy potencjalne korzyści z niego wynikające pozostały niejasne i niejasne.

Ten sam sceptycyzm co do współdzielonego dostępu do zasobów pogrążył projekt sieciowy UCLA kilka lat temu. Jednak w tym przypadku ARPA miała znacznie większy wpływ, ponieważ płaciła bezpośrednio za wszystkie te cenne zasoby komputerowe i nadal miała swój udział we wszystkich przepływach pieniężnych związanych z powiązanymi programami badawczymi. I choć nie padły żadne bezpośrednie groźby, nie padło żadne „albo inaczej”, sytuacja była wyjątkowo jasna – tak czy inaczej ARPA zamierzała zbudować swoją sieć, aby zjednoczyć maszyny, które w praktyce nadal do niej należały.

Moment ten nadszedł na spotkaniu dyrektorów naukowych w Att Arbor w stanie Michigan wiosną 1967 roku. Roberts przedstawił swój plan stworzenia sieci łączącej różne komputery w każdym z ośrodków. Ogłosił, że każdy dyrektor zapewni swojemu lokalnemu komputerowi specjalne oprogramowanie sieciowe, za pomocą którego będzie mógł łączyć się z innymi komputerami za pośrednictwem sieci telefonicznej (było to zanim Roberts dowiedział się o pomyśle przełączanie pakietów). Odpowiedzią były kontrowersje i strach. Najmniej skłonne do realizacji tego pomysłu były największe ośrodki, które pracowały już nad dużymi projektami sponsorowanymi przez IPTO, z których głównym był MIT. Badacze z MIT, skąpieni pieniędzmi z systemu podziału czasu projektu MAC i laboratorium sztucznej inteligencji, nie widzieli żadnych korzyści w dzieleniu się ciężko zarobionymi zasobami z zachodnią motłochą.

I niezależnie od statusu, każdy ośrodek pielęgnował swoje własne idee. Każdy miał swoje własne, unikalne oprogramowanie i sprzęt i trudno było zrozumieć, w jaki sposób mogliby w ogóle nawiązać ze sobą podstawową komunikację, nie mówiąc już o faktycznej współpracy. Samo pisanie i uruchamianie programów sieciowych na ich komputerze zajmie znaczną ilość czasu i zasobów obliczeniowych.

Ironią losu było to, że rozwiązanie Robertsa na te problemy społeczne i techniczne zaproponował Wes Clark, człowiek, który nie lubił zarówno podziału czasu, jak i sieci. Clark, zwolennik donkiszotowskiej idei zapewnienia każdemu komputera osobistego, nie miał zamiaru dzielić się z nikim zasobami komputerowymi i przez wiele lat trzymał swój własny kampus, Washington University w St. Louis, z dala od ARPANET. Nic więc dziwnego, że to on opracował projekt sieci, który nie obciąża znacząco zasobów obliczeniowych każdego z ośrodków i nie wymaga od każdego z nich wkładania wysiłku w tworzenie specjalnego oprogramowania.

Clark zaproponował umieszczenie w każdym z centrów minikomputera, który obsługiwałby wszystkie funkcje bezpośrednio związane z siecią. Każde centrum musiało tylko wymyślić, jak połączyć się ze swoim lokalnym asystentem (którym później nazwano interfejsowymi procesorami komunikatów lub IMP), który następnie wysłał wiadomość właściwą trasą, tak aby dotarła do odpowiedniego IMP w miejscu odbioru. Zasadniczo zaproponował, aby ARPA rozdysponowała do każdego centrum dodatkowe, bezpłatne komputery, co przejęłoby większość zasobów sieci. W czasach, gdy komputery były jeszcze rzadkie i bardzo drogie, propozycja ta była odważna. Jednak właśnie wtedy zaczęły pojawiać się minikomputery, które kosztowały zaledwie kilkadziesiąt tysięcy dolarów, a nie kilkaset, i ostatecznie propozycja okazała się w zasadzie wykonalna (każdy IMP kosztował 45 000 dolarów, czyli około 314 000 dolarów w dzisiejsze pieniądze).

Podejście IMP, rozwiewając obawy liderów naukowych dotyczące obciążenia ich mocy obliczeniowej sieci, rozwiązało także inny problem polityczny ARPA. W odróżnieniu od pozostałych ówczesnych projektów agencji, sieć nie ograniczała się do jednego ośrodka badawczego, gdzie kierowała nią jeden szef. Sama ARPA nie miała możliwości samodzielnego, bezpośredniego tworzenia i zarządzania projektem technicznym na dużą skalę. Musiałaby zatrudnić do tego firmy zewnętrzne. Obecność IMP stworzyła jasny podział odpowiedzialności pomiędzy siecią zarządzaną przez agenta zewnętrznego a komputerem sterowanym lokalnie. Wykonawca miałby kontrolować IMP i wszystko pomiędzy, a centra pozostałyby odpowiedzialne za sprzęt i oprogramowanie na swoich własnych komputerach.

IMP

Następnie Roberts musiał wybrać tego wykonawcę. Staromodne podejście Licklidera polegające na bezpośrednim namawianiu propozycji do swojego ulubionego badacza nie miało zastosowania w tym przypadku. Projekt musiał zostać wystawiony na aukcję publiczną, jak każdy inny kontrakt rządowy.

Dopiero w lipcu 1968 roku Robertsowi udało się ustalić ostateczne szczegóły oferty. Minęło około sześć miesięcy, odkąd ostatni techniczny element układanki wskoczył na swoje miejsce, kiedy na konferencji w Gatlinburgu ogłoszono system przełączania pakietów. Dwóch największych producentów komputerów, Control Data Corporation (CDC) i International Business Machines (IBM), natychmiast odmówiło udziału, ponieważ nie posiadali niedrogich minikomputerów odpowiednich do roli IMP.

Historia Internetu: ARPANET - podsieć
Honeywell DDP-516

Spośród pozostałych uczestników większość wybrała nowy komputer DDP-516 od Honeywell, chociaż niektórzy byli skłonni go poprzeć Cyfrowy PDP-8. Opcja firmy Honeywell była szczególnie atrakcyjna, ponieważ posiadała interfejs we/wy zaprojektowany specjalnie dla systemów czasu rzeczywistego w zastosowaniach takich jak sterowanie przemysłowe. Komunikacja oczywiście wymagała także odpowiedniej precyzji – jeśli komputer w czasie wykonywania innych zajęć przeoczył przychodzącą wiadomość, nie było drugiej szansy na jej złapanie.

Pod koniec roku, po poważnym rozważeniu Raytheona, Roberts zlecił to zadanie rozwijającej się firmie z Cambridge, założonej przez Bolta, Beranka i Newmana. Drzewo genealogiczne informatyki interaktywnej było już w tym czasie niezwykle mocno zakorzenione, a Robertsa z łatwością można było oskarżyć o nepotyzm ze względu na wybór BBN. Licklider wprowadził informatykę interaktywną do BBN, zanim został pierwszym dyrektorem IPTO, zasiewając nasiona swojej sieci międzygalaktycznej i będąc mentorem dla ludzi takich jak Roberts. Bez wpływu Leake’a ARPA i BBN nie byłyby ani zainteresowane, ani zdolne do obsługi projektu ARPANET. Co więcej, kluczowa część zespołu powołanego przez BBN do budowy sieci opartej na IMP pochodziła bezpośrednio lub pośrednio z Lincoln Labs: Frank Hart (lider zespołu), Dave Walden, Willa Crowthera i Północny Ornstein. To właśnie w laboratoriach sam Roberts uczęszczał na studia podyplomowe i tam przypadkowe spotkanie Leake'a z Wesem Clarkiem rozbudziło w nim zainteresowanie komputerami interaktywnymi.

Ale choć sytuacja mogła wyglądać na zmowę, w rzeczywistości zespół BBN nadawał się do pracy w czasie rzeczywistym równie dobrze jak Honeywell 516. W firmie Lincoln pracowali na komputerach podłączonych do systemów radarowych – to kolejny przykład aplikacji, w której dane nie będą czekać, aż komputer będzie gotowy. Na przykład Hart jako student w latach pięćdziesiątych pracował na komputerze Whirlwind, dołączył do projektu SAGE i spędził w sumie 1950 lat w Lincoln Laboratories. Ornstein pracował nad protokołem krzyżowym SAGE, który przesyłał dane śledzenia radarowego z jednego komputera do drugiego, a później nad LINC Wesa Clarka, komputerem zaprojektowanym, aby pomóc naukowcom pracować bezpośrednio w laboratorium z danymi online. Crowther, obecnie najbardziej znany jako autor gry tekstowej Kolosalna przygoda w jaskini, spędził dziesięć lat na budowaniu systemów czasu rzeczywistego, w tym Lincoln Terminal Experiment, mobilnej stacji łączności satelitarnej z małym komputerem sterującym anteną i przetwarzającym przychodzące sygnały.

Historia Internetu: ARPANET - podsieć
Zespół IMP w BBN. Frank Hart jest człowiekiem w ośrodku dla seniorów. Ornstein stoi na prawym brzegu, obok Crowthera.

IMP był odpowiedzialny za zrozumienie i zarządzanie routingiem i dostarczaniem wiadomości z jednego komputera na drugi. Komputer mógł wysłać jednocześnie do lokalnego IMP do 8000 bajtów wraz z adresem docelowym. Następnie IMP podzielił wiadomość na mniejsze pakiety, które były przesyłane niezależnie do docelowego IMP liniami 50 kb/s dzierżawionymi od AT&T. Odbierający IMP poskładał wiadomość w całość i dostarczył ją do swojego komputera. Każdy IMP prowadził tabelę, w której śledził, który z sąsiadów ma najszybszą trasę do osiągnięcia dowolnego możliwego celu. Był on dynamicznie aktualizowany w oparciu o informacje otrzymane od tych sąsiadów, w tym informację o tym, że sąsiad jest nieosiągalny (w takim przypadku opóźnienie wysłania w tym kierunku uznano za nieskończone). Aby spełnić wymagania Robertsa dotyczące szybkości i przepustowości dla całego przetwarzania, zespół Harta stworzył kod na poziomie graficznym. Cały program przetwarzający dla IMP zajmował tylko 12 000 bajtów; część dotycząca tablic routingu zajmowała tylko 300.

Zespół podjął również kilka środków ostrożności, biorąc pod uwagę, że przydzielanie zespołu wsparcia każdemu IMP w terenie było niepraktyczne.

Najpierw wyposażyli każdy komputer w urządzenia do zdalnego monitorowania i sterowania. Oprócz automatycznego restartu, który rozpoczynał się po każdej przerwie w dostawie prądu, IMP zostały zaprogramowane tak, aby móc ponownie uruchamiać sąsiadów, wysyłając im nowe wersje oprogramowania operacyjnego. Aby pomóc w debugowaniu i analizie, IMP może na polecenie rozpocząć wykonywanie migawek bieżącego stanu w regularnych odstępach czasu. Ponadto do każdego pakietu IMP dołączona była część umożliwiająca jego śledzenie, co umożliwiło pisanie bardziej szczegółowych logów pracy. Dzięki tym wszystkim możliwościom wiele problemów można było rozwiązać bezpośrednio z biura BBN, które pełniło funkcję centrum kontroli, z którego można było sprawdzić stan całej sieci.

Po drugie, zażądali od firmy Honeywell wojskowej wersji modelu 516, wyposażonej w grubą obudowę chroniącą go przed wibracjami i innymi zagrożeniami. BBN zasadniczo chciał, żeby był to znak ostrzegający ciekawskich studentów, aby trzymali się z daleka, ale nic nie wyznaczało granicy między lokalnymi komputerami a podsiecią zarządzaną przez BBN tak jak ta opancerzona powłoka.

Pierwsze wzmocnione szafki, wielkości mniej więcej lodówki, przybyły na miejsce na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) 30 sierpnia 1969 r., zaledwie 8 miesięcy po otrzymaniu przez BBN kontraktu.

Hosts

Roberts zdecydował się uruchomić sieć z czterema hostami — oprócz UCLA, IMP zostanie zainstalowany tuż na wybrzeżu na Uniwersytecie Kalifornijskim w Santa Barbara (UCSB), kolejny w Instytucie Badawczym Stanforda (SRI) w północnej Kalifornii oraz ostatni na Uniwersytecie Utah. To wszystko były drugorzędne instytucje z Zachodniego Wybrzeża, próbujące jakoś sprawdzić się w dziedzinie informatyki naukowej. Więzy rodzinne nadal działały jako dwóch opiekunów naukowych, Lena Kleinrocka z UCLA i Ivana Sutherlanda z Uniwersytetu Utah, byli także starymi kolegami Robertsa z Lincoln Laboratories.

Roberts zapewnił obu hostom dodatkowe funkcje związane z siecią. W 1967 roku Doug Englebart z SRI zgłosił się na ochotnika do założenia sieciowego centrum informacyjnego podczas spotkania kierownictwa. Korzystając z zaawansowanego systemu wyszukiwania informacji SRI, postanowił stworzyć katalog ARPANET: zorganizowany zbiór informacji o wszystkich zasobach dostępnych w różnych węzłach i udostępnić go każdemu w sieci. Biorąc pod uwagę wiedzę Kleinrocka w zakresie analizy ruchu sieciowego, Roberts wyznaczył UCLA na centrum pomiarów sieci (NMC). Dla Kleinrocka i UCLA ARPANET miał być nie tylko praktycznym narzędziem, ale także eksperymentem, z którego można było wydobywać i kompilować dane, aby zdobytą wiedzę można było zastosować do ulepszenia projektów sieci i ich następców.

Jednak dla rozwoju ARPANET ważniejsze od tych dwóch nominacji była bardziej nieformalna i luźna społeczność absolwentów zwana Sieciową Grupą Roboczą (NWG). Podsieć IMP umożliwiała dowolnemu hostowi w sieci niezawodne dostarczanie wiadomości do dowolnego innego hosta; Celem NWG było opracowanie wspólnego języka lub zestawu języków, których gospodarze mogliby używać do komunikacji. Nazwali je „protokołami hosta”. Nazwa „protokół” zapożyczona od dyplomatów została po raz pierwszy zastosowana do sieci w 1965 roku przez Robertsa i Toma Marillów do opisania zarówno formatu danych, jak i kroków algorytmicznych określających sposób, w jaki dwa komputery komunikują się ze sobą.

NWG, pod nieformalnym, ale skutecznym przywództwem Steve'a Crockera z UCLA, rozpoczęła regularne spotkania wiosną 1969 roku, około sześć miesięcy przed pierwszym IMP. Urodzony i wychowany w okolicach Los Angeles, Crocker uczęszczał do Van Nuys High School i był w tym samym wieku, co jego dwóch przyszłych kolegów z zespołu NWG, Vint Cerf i Jon Postel. Aby zarejestrować wyniki niektórych spotkań grupy, Crocker opracował jeden z kamieni węgielnych kultury ARPANET (i przyszłego Internetu), prośbę o uwagi [propozycja robocza] (RFC). Jego dokument RFC 1, opublikowany 7 kwietnia 1969 r. i rozesłany do wszystkich przyszłych węzłów ARPANET za pośrednictwem poczty klasycznej, zawierał wczesne dyskusje grupy na temat projektowania oprogramowania protokołu hosta. W dokumencie RFC 3 Crocker kontynuował opis, bardzo niejasno definiując proces projektowania wszystkich przyszłych dokumentów RFC:

Lepiej przesłać uwagi na czas, niż doprowadzać je do perfekcji. Przyjmowane są opinie filozoficzne bez przykładów i innych konkretów, konkretne propozycje lub technologie realizacji bez wstępnego opisu i wyjaśnień kontekstowych, konkretne pytania bez próby odpowiedzi na nie. Minimalna długość notatki od NWG to jedno zdanie. Mamy nadzieję ułatwić wymianę i dyskusję na temat nieformalnych pomysłów.

Podobnie jak zapytanie ofertowe (RFQ), standardowy sposób proszenia o oferty na kontrakty rządowe, RFC chętnie przyjmuje opinie, ale w przeciwieństwie do RFQ zaprasza także do dialogu. Każdy członek rozproszonej społeczności NWG może złożyć RFC i skorzystać z okazji do debaty, kwestionowania lub krytykowania poprzedniej propozycji. Oczywiście, jak w każdej społeczności, niektóre opinie były cenione ponad inne, a na początku opinie Crockera i jego głównej grupy współpracowników cieszyły się dużym autorytetem. W lipcu 1971 roku Crocker opuścił UCLA, będąc jeszcze studentem, aby objąć stanowisko kierownika programu w IPTO. Mając do dyspozycji kluczowe granty badawcze ARPA, świadomie lub nieświadomie, miał niezaprzeczalny wpływ.

Historia Internetu: ARPANET - podsieć
Jon Postel, Steve Crocker i Vint Cerf to koledzy z klasy i współpracownicy w NWG; późniejsze lata

Pierwotny plan NWG przewidywał dwa protokoły. Zdalne logowanie (telnet) umożliwiało jednemu komputerowi działanie jako terminal podłączony do systemu operacyjnego innego, rozszerzając interaktywne środowisko dowolnego systemu podłączonego do sieci ARPANET, udostępniając czas na tysiące kilometrów dowolnemu użytkownikowi w sieci. Protokół przesyłania plików FTP umożliwiał jednemu komputerowi przesyłanie pliku, takiego jak użyteczny program lub zestaw danych, do lub z pamięci innego systemu. Jednakże, pod naciskiem Robertsa, NWG dodała trzeci podstawowy protokół, aby wesprzeć te dwa, ustanawiając podstawowe połączenie między dwoma hostami. Nazywał się Program kontroli sieci (NCP). Sieć miała teraz trzy warstwy abstrakcji - podsieć pakietów zarządzana przez IMP na samym dole, komunikację między hostami zapewnianą przez NCP na środku i protokoły aplikacji (FTP i telnet) na górze.

Awaria?

Dopiero w sierpniu 1971 r. w pełni zdefiniowano i wdrożono NCP w całej sieci, która wówczas składała się z piętnastu węzłów. Wkrótce nastąpiły wdrożenia protokołu telnet, a pierwsza stabilna definicja FTP pojawiła się rok później, latem 1972 roku. Jeśli ocenimy stan sieci ARPANET w tamtym czasie, kilka lat po jej pierwszym uruchomieniu, można uważany za porażkę w porównaniu z marzeniem o separacji zasobów, które Licklider wymyślił i wdrożył w życie jego protegowany, Robert Taylor.

Na początek po prostu trudno było ustalić, jakie zasoby dostępne w Internecie można wykorzystać. Centrum informacyjne sieci stosowało model dobrowolnego uczestnictwa – każdy węzeł musiał dostarczać aktualne informacje o dostępności danych i programów. Choć każdy odniósłby korzyść z takiego działania, motywacja pojedynczego węzła do reklamowania swoich zasobów lub zapewniania dostępu do nich, nie mówiąc już o zapewnianiu aktualnej dokumentacji lub porad, była niewielka. Dlatego karta sieciowa nie stała się katalogiem online. Być może jego najważniejszą funkcją we wczesnych latach było zapewnienie elektronicznego hostingu rosnącego zestawu dokumentów RFC.

Nawet jeśli, powiedzmy, Alicja z UCLA wiedziała o istnieniu przydatnego zasobu na MIT, pojawiała się poważniejsza przeszkoda. Telnet pozwolił Alicji uzyskać dostęp do ekranu logowania MIT, ale nie dalej. Aby Alice mogła rzeczywiście uzyskać dostęp do programu na MIT, musiałaby najpierw negocjować w trybie offline z MIT w celu założenia dla niej konta na ich komputerze, co zazwyczaj wymagało wypełnienia papierowych formularzy w obu instytucjach i podpisania umowy o finansowaniu na pokrycie kosztów korzystanie z zasobów komputerowych MIT. Ze względu na niezgodność sprzętu i oprogramowania systemowego między węzłami przesyłanie plików często nie miało większego sensu, ponieważ nie można było uruchamiać na swoim komputerze programów z komputerów zdalnych.

Jak na ironię, największy sukces współdzielenia zasobów nie nastąpił w obszarze interaktywnego podziału czasu, dla którego stworzono ARPANET, ale w obszarze staromodnego, nieinteraktywnego przetwarzania danych. Uniwersytet UCLA dodał do sieci nieużywaną maszynę do przetwarzania wsadowego IBM 360/91 i zapewnił konsultacje telefoniczne w celu wsparcia użytkowników zdalnych, generując znaczne przychody dla centrum komputerowego. Sponsorowany przez ARPA superkomputer ILLIAC IV na Uniwersytecie Illinois i Datacomputer w Computer Corporation of America w Cambridge również znalazły zdalnych klientów za pośrednictwem sieci ARPANET.

Jednak wszystkie te projekty nie zbliżyły się do pełnego wykorzystania sieci. Jesienią 1971 roku, gdy 15 hostów było podłączonych do sieci, cała sieć transmitowała średnio 45 milionów bitów na węzeł, czyli 520 bitów na sekundę w sieci dzierżawionej od AT&T łączy o przepustowości 50 000 bitów na sekundę. Co więcej, większość tego ruchu stanowiła ruch testowy, generowany przez centrum pomiarów sieci na Uniwersytecie Kalifornijskim w Los Angeles. Oprócz entuzjazmu niektórych pierwszych użytkowników (takich jak Steve Cara, na co dzień użytkownik PDP-10 na Uniwersytecie Utah w Palo Alto), w sieci ARPANET niewiele się działo. Z współczesnej perspektywy być może najciekawszym wydarzeniem było uruchomienie w grudniu 1971 roku biblioteki cyfrowej Projektu Guttenberg, zorganizowanej przez Michaela Harta, studenta Uniwersytetu Illinois.

Ale wkrótce ARPANET został uratowany przed oskarżeniami o upadek dzięki trzeciemu protokołowi aplikacji – małemu urządzeniu zwanemu pocztą elektroniczną.

Co jeszcze przeczytać

• Janet Abbate, Wynalezienie Internetu (1999)
• Katie Hafner i Matthew Lyon, Gdzie czarodzieje nie śpią do późna: początki Internetu (1996)

Źródło: www.habr.com

Dodaj komentarz