Powstanie Internetu, część 1: Wzrost wykładniczy

Powstanie Internetu, część 1: Wzrost wykładniczy

<< Przed tym: Wiek fragmentacji, część 4: Anarchiści

W 1990 Johna Quartermana, konsultant sieciowy i ekspert UNIX, opublikował obszerny przegląd stanu sieci komputerowych w tamtym czasie. W krótkiej części poświęconej przyszłości informatyki przepowiedział pojawienie się jednej globalnej sieci obsługującej „pocztę e-mail, konferencje, przesyłanie plików, zdalne logowanie – tak jak istnieje obecnie ogólnoświatowa sieć telefoniczna i poczta światowa”. Nie przywiązywał jednak do Internetu szczególnej roli. Zasugerował, że ta ogólnoświatowa sieć „będzie prawdopodobnie obsługiwana przez rządowe agencje komunikacyjne”, z wyjątkiem Stanów Zjednoczonych, „gdzie będzie obsługiwana przez regionalne oddziały Bell Operating Companies i przewoźników dalekobieżnych”.

Celem tego artykułu jest wyjaśnienie, w jaki sposób Internet, wraz ze swoim nagłym, wykładniczym wzrostem, tak rażąco obalił całkowicie naturalne założenia.

Przekazanie pałeczki

Pierwsze krytyczne wydarzenie, które doprowadziło do powstania nowoczesnego Internetu, miało miejsce na początku lat 1980. XX wieku, kiedy Agencja Komunikacji Obronnej (DCA) [obecnie DISA] zdecydowała się podzielić ARPANET na dwie części. DCA przejęło kontrolę nad siecią w 1975 roku. Było już wtedy jasne, że Biuro Technologii Przetwarzania Informacji (IPTO) ARPA, organizacja zajmująca się badaniem idei teoretycznych, nie miało sensu uczestniczyć w rozwoju sieci wykorzystywanej nie do badań nad komunikacją, ale do codziennej komunikacji. ARPA bezskutecznie próbowała odebrać kontrolę nad siecią prywatnej firmie AT&T. DCA, odpowiedzialne za wojskowe systemy łączności, wydawało się najlepszą drugą opcją.

Przez pierwsze kilka lat nowej sytuacji ARPANET prosperował w stanie błogiego zaniedbania. Jednak na początku lat 1980. starzejąca się infrastruktura komunikacyjna Departamentu Obrony rozpaczliwie potrzebowała modernizacji. Wydaje się, że proponowany projekt zastępczy AUTODIN II, dla którego DCA wybrało firmę Western Union na swojego wykonawcę, nie powiódł się. Następnie szefowie DCA wyznaczyli pułkownika Heidi Haydena na osobę odpowiedzialną za wybór alternatywy. Jako podstawę nowej obronnej sieci danych zaproponował wykorzystanie technologii komutacji pakietów, którą DCA już dysponowało w postaci ARPANET.

Pojawił się jednak oczywisty problem z przesyłaniem danych wojskowych przez ARPANET – w sieci było pełno długowłosych naukowców, z których część aktywnie sprzeciwiała się bezpieczeństwu i tajemnicy komputerów – np. Richarda Stallmana wraz z innymi hakerami z laboratorium sztucznej inteligencji MIT. Hayden zaproponował podzielenie sieci na dwie części. Postanowił zatrzymać naukowców finansowanych przez ARPA w sieci ARPANET i oddzielić komputery obronne w nową sieć zwaną MILNET. Ta mitoza miała dwie ważne konsekwencje. Po pierwsze, podział sieci na część wojskową i pozamilitarną był pierwszym krokiem w kierunku przekazania Internetu pod kontrolę cywilną, a następnie prywatną. Po drugie, był to dowód na żywotność przełomowej technologii Internetu – protokołów TCP/IP, wynalezionych po raz pierwszy około pięć lat wcześniej. DCA potrzebowało, aby wszystkie węzły ARPANET przełączyły się ze starszych protokołów na obsługę protokołu TCP/IP na początku 1983 roku. W tamtym czasie niewiele sieci korzystało z protokołu TCP/IP, ale później proces ten połączył dwie sieci proto-Internetu, umożliwiając w razie potrzeby ruch komunikatów łączenie przedsiębiorstw badawczych i wojskowych. Aby zapewnić trwałość protokołu TCP/IP w sieciach wojskowych, Hayden założył fundusz o wartości 20 milionów dolarów, aby wspierać producentów komputerów, którzy piszą oprogramowanie wdrażające protokół TCP/IP w swoich systemach.

Pierwszy krok w stopniowym przechodzeniu Internetu spod kontroli wojskowej pod kontrolę prywatną daje nam także dobrą okazję do pożegnania się z ARPA i IPTO. Jej finansowanie i wpływy, kierowane przez Josepha Carla Robnetta Licklidera, Ivana Sutherlanda i Roberta Taylora, doprowadziły bezpośrednio i pośrednio do wszystkich wczesnych osiągnięć w dziedzinie informatyki interaktywnej i sieci komputerowych. Jednak wraz z powstaniem standardu TCP/IP w połowie lat 1970. XX wieku po raz ostatni odegrał on kluczową rolę w historii komputerów.

Kolejnym dużym projektem komputerowym sponsorowanym przez DARPA będzie Konkurs Pojazdów Autonomicznych 2004-2005. Najsłynniejszym wcześniejszym projektem byłaby warta miliardy dolarów inicjatywa w zakresie obliczeń strategicznych oparta na sztucznej inteligencji z lat 1980. XX wieku, która umożliwiłaby powstanie kilku przydatnych zastosowań wojskowych, ale nie miałaby praktycznie żadnego wpływu na społeczeństwo obywatelskie.

Decydującym katalizatorem utraty wpływów organizacji był wojna wietnamska. Większość badaczy akademickich wierzyła, że ​​toczą dobrą walkę i bronią demokracji, gdy badania z czasów zimnej wojny były finansowane przez wojsko. Jednak ci, którzy dorastali w latach pięćdziesiątych i sześćdziesiątych XX wieku, stracili wiarę w wojsko i jego cele, gdy ugrzęzło ono w wojnie w Wietnamie. Jednym z pierwszych był sam Taylor, który opuścił IPTO w 1950 roku, przenosząc swoje pomysły i kontakty do Xerox PARC. Kontrolowany przez Demokratów Kongres, zaniepokojony destrukcyjnym wpływem pieniędzy wojskowych na podstawowe badania naukowe, przyjął poprawki wymagające wydawania pieniędzy na obronę wyłącznie na badania wojskowe. ARPA odzwierciedlała tę zmianę w kulturze finansowania w 1960 r., zmieniając nazwę na DARPA — Agencja Zaawansowanych Projektów Badawczych Stanów Zjednoczonych w dziedzinie obronności.

Tym samym pałeczka przeszła w ręce cywila Narodowa Fundacja Naukowa (NSF). Do roku 1980, dysponując budżetem w wysokości 20 milionów dolarów, NSF było odpowiedzialne za finansowanie około połowy federalnych programów badań komputerowych w Stanach Zjednoczonych. A większość tych środków wkrótce zostanie przeznaczona na nową ogólnokrajową sieć komputerową NSFNET.

NSFNET

Na początku lat 1980. Instytut odwiedził Larry Smarr, fizyk z Uniwersytetu Illinois. Maxa Plancka w Monachium, gdzie działał superkomputer „Cray”, do którego umożliwiono dostęp europejskim badaczom. Sfrustrowany brakiem podobnych zasobów dla amerykańskich naukowców, zaproponował, aby NSF sfinansowało utworzenie kilku ośrodków superkomputerowych w całym kraju. Organizacja odpowiedziała Smarrowi i innym badaczom podobnymi skargami, tworząc w 1984 r. Dział Zaawansowanych Obliczeń Naukowych, co doprowadziło do sfinansowania pięciu takich ośrodków z pięcioletnim budżetem w wysokości 42 mln dolarów, rozciągających się od Uniwersytetu Cornell na północnym wschodzie po San Diego na południowym zachodzie. Znajdujący się pomiędzy nimi Uniwersytet Illinois, w którym pracował Smarr, otrzymał własne centrum, Narodowe Centrum Zastosowań Superkomputerowych, NCSA.

Możliwości ośrodków w zakresie poprawy dostępu do mocy obliczeniowej były jednak ograniczone. Korzystanie z ich komputerów przez użytkowników, którzy nie mieszkają w pobliżu żadnego z pięciu ośrodków, byłoby trudne i wymagałoby finansowania semestralnych lub letnich wyjazdów badawczych. Dlatego też NSF zdecydowało się również na budowę sieci komputerowej. Historia się powtórzyła — Taylor promował utworzenie sieci ARPANET pod koniec lat 1960. XX wieku właśnie po to, aby zapewnić społeczności badawczej dostęp do potężnych zasobów obliczeniowych. NSF zapewni szkielet, który połączy kluczowe centra superkomputerowe na całym kontynencie, a następnie połączy się z sieciami regionalnymi, które umożliwią innym uniwersytetom i laboratoriom badawczym dostęp do tych ośrodków. NSF wykorzysta protokoły internetowe promowane przez Haydena, przekazując odpowiedzialność za budowę sieci lokalnych lokalnym społecznościom naukowym.

NSF początkowo przekazało zadania utworzenia i utrzymania sieci NCSA Uniwersytetowi Illinois jako źródło pierwotnej propozycji stworzenia krajowego programu superkomputerowego. NCSA z kolei wydzierżawiła te same łącza o przepustowości 56 kb/s, z których ARPANET korzystała od 1969 r., i uruchomiła sieć w 1986 r. Linie te jednak szybko uległy zatkaniu ruchem (szczegóły tego procesu można znaleźć w pracy Davida Millsa „Sieć rdzeniowa NSFNET"). I znowu historia ARPANET się powtórzyła - szybko stało się oczywiste, że głównym zadaniem sieci nie powinno być udostępnianie naukowcom mocy obliczeniowej, ale wymiana wiadomości pomiędzy osobami, które miały do ​​niej dostęp. Autorzy książki Można wybaczyć ARPANETowi, że nie wiedział, że coś takiego może się zdarzyć – ale jak ten sam błąd mógłby powtórzyć się prawie dwadzieścia lat później?Jednym z możliwych wyjaśnień jest to, że znacznie łatwiej jest uzasadnić siedmiocyfrową dotację na wykorzystanie mocy obliczeniowej, która kosztuje osiem cyfr, niż uzasadniałoby wydawanie takich sum na pozornie błahe cele, takie jak możliwość wymiany e-maili. Nie oznacza to, że NSF celowo wprowadziła kogokolwiek w błąd. Jednak zgodnie z zasadą antropiczną stwierdza, że ​​stałe fizyczne Wszechświata są tym, co są, bo inaczej po prostu by nas nie było, a my. Gdyby nie mogli ich obserwować, nie musiałbym pisać o sieci komputerowej finansowanej przez rząd, gdyby nie istniały podobne, nieco fikcyjne uzasadnienia jej istnienia.

Przekonana, że ​​sama sieć jest co najmniej tak samo wartościowa, jak superkomputery uzasadniające jej istnienie, NSF zwróciła się do pomocy zewnętrznej w celu modernizacji szkieletu sieci za pomocą łączy o przepustowości T1 (1,5 Mb/s)./With). Standard T1 został stworzony przez firmę AT&T w latach 1960. XX wieku i miał obsługiwać do 24 połączeń telefonicznych, z których każda była kodowana w postaci strumienia cyfrowego 64 kbit/s.

Merit Network, Inc. wygrała kontrakt. we współpracy z MCI i IBM i otrzymał od NSF dotację w wysokości 58 milionów dolarów w ciągu pierwszych pięciu lat działalności na budowę i utrzymanie sieci. MCI dostarczyło infrastrukturę komunikacyjną, IBM zapewnił moc obliczeniową i oprogramowanie dla routerów. Organizacja non-profit Merit, która zarządzała siecią komputerową łączącą kampusy Uniwersytetu Michigan, wniosła ze sobą doświadczenie w utrzymaniu naukowej sieci komputerowej i nadała całemu partnerstwu uniwersytecki charakter, co ułatwiło akceptację przez NSF i naukowców korzystających z NSFNET. Jednakże przeniesienie usług z NCSA do Merit było oczywistym pierwszym krokiem w kierunku prywatyzacji.

MERIT pierwotnie oznaczał Triadę Informacji o Badaniach Edukacyjnych stanu Michigan. Stan Michigan dodał 5 milionów dolarów na rozwój swojej domowej sieci T1.

Powstanie Internetu, część 1: Wzrost wykładniczy

Szkielet Merit przenosi ruch z kilkunastu sieci regionalnych, od nowojorskiej NYSERNet, sieci badawczo-edukacyjnej połączonej z Uniwersytetem Cornell w Itace, po CERFNet, kalifornijską federacyjną sieć badawczo-edukacyjną połączoną z San Diego. Każda z tych sieci regionalnych była połączona z niezliczonymi sieciami lokalnych kampusów, ponieważ laboratoria uniwersyteckie i biura wydziałów obsługiwały setki maszyn z systemem Unix. Ta federalna sieć sieci stała się zalążkiem współczesnego Internetu. ARPANET połączył jedynie dobrze finansowanych badaczy informatyki pracujących w elitarnych instytucjach naukowych. A do 1990 roku prawie każdy student i nauczyciel mógł już korzystać z Internetu. Przesyłając pakiety z węzła do węzła — przez lokalną sieć Ethernet, następnie do sieci regionalnej, a następnie na duże odległości z prędkością światła w szkielecie NSFNET — mogli wymieniać e-maile lub prowadzić godne rozmowy w Usenecie z kolegami z innych części kraju .

Po tym, jak o wiele więcej organizacji naukowych stało się dostępnych za pośrednictwem NSFNET niż poprzez ARPANET, DCA wycofało z eksploatacji dotychczasową sieć w 1990 r. i całkowicie wykluczyło Departament Obrony z rozwijania sieci cywilnych.

Odlecieć

Przez cały ten okres liczba komputerów podłączonych do sieci NSFNET i powiązanych sieci – a wszystko to możemy teraz nazwać Internetem – co roku w przybliżeniu się podwajała. 28 000 w grudniu 1987 r., 56,000 1988 w październiku 159 r., 000 1989 w październiku 1990 r. i tak dalej. Tendencja ta utrzymywała się do połowy lat XNUMX-tych, potem nastąpił wzrost trochę zwolnił. Zastanawiam się, jak, biorąc pod uwagę tę tendencję, Quarterman mógł nie zauważyć, że przeznaczeniem Internetu jest rządzić światem? Jeśli niedawna epidemia czegoś nas nauczyła, to tego, że ludziom bardzo trudno jest wyobrazić sobie wykładniczy wzrost, ponieważ nie odpowiada on niczemu, co spotykamy w życiu codziennym.

Oczywiście nazwa i koncepcja Internetu są starsze niż NSFNET. Protokół internetowy został wynaleziony w 1974 roku i jeszcze przed NSFNET istniały sieci komunikujące się poprzez IP. Wspominaliśmy już o ARPANET i MILNET. Nie udało mi się jednak znaleźć żadnej wzmianki o „internecie” – pojedynczej, ogólnoświatowej sieci sieci – przed pojawieniem się trójwarstwowej sieci NSFNET.

W podobnym tempie rosła liczba sieci w Internecie, ze 170 w lipcu 1988 r. do 3500 jesienią 1991 r. Ponieważ środowisko naukowe nie zna granic, wiele z nich znajdowało się za granicą, począwszy od połączeń z Francją i Kanadą nawiązanych w 1988. Do 1995 r. dostęp do Internetu miało prawie 100 krajów, od Algierii po Wietnam. I choć liczbę maszyn i sieci znacznie łatwiej jest policzyć niż liczbę realnych użytkowników, to według rozsądnych szacunków pod koniec 1994 roku było ich 10-20 milionów, przy braku szczegółowych danych o tym, kto, dlaczego i w jakim czasie korzystano z Internetu, dość trudno jest uzasadnić to lub inne historyczne wyjaśnienie tak niesamowitego wzrostu. Niewielki zbiór historii i anegdot nie jest w stanie wyjaśnić, jak od stycznia 1991 r. do stycznia 1992 r. 350 000 komputerów podłączyło się do Internetu, a następnie 600 000 w następnym roku i kolejne 1,1 miliona w następnym.

Zapuszczę się jednak na to epistemicznie chwiejne terytorium i argumentuję, że trzema nakładającymi się falami użytkowników odpowiedzialnych za gwałtowny rozwój Internetu, z których każda ma własne powody, dla których łączą się, kierowała nieubłagana logika: Prawo Metcalfe’a, które mówi, że wartość (a tym samym siła przyciągania) sieci rośnie wraz z kwadratem liczby jej uczestników.

Naukowcy byli pierwsi. NSF celowo rozpowszechniło obliczenia na jak największej liczbie uniwersytetów. Potem każdy naukowiec chciał dołączyć do projektu, ponieważ wszyscy inni już tam byli. Jeśli e-maile nie dotrą do Ciebie, jeśli nie będziesz widzieć najnowszych dyskusji w Usenecie lub nie będziesz w nich uczestniczyć, ryzykujesz, że przegapisz ogłoszenie o ważnej konferencji, szansę na znalezienie mentora, przeoczysz najnowocześniejsze badania przed ich publikacją itd. . Czując presję włączania się do rozmów naukowych w Internecie, uniwersytety szybko nawiązały połączenie z sieciami regionalnymi, które mogłyby połączyć je ze szkieletem NSFNET. Na przykład sieć NEARNET, obejmująca sześć stanów w regionie Nowej Anglii, na początku lat 1990. zgromadziła ponad 200 członków.

W tym samym czasie dostęp do znacznie większej społeczności studentów zaczął spływać od wykładowców i studentów. Do 1993 roku około 70% studentów pierwszego roku Harvardu miało adres e-mail. Do tego czasu Internet na Harvardzie dotarł fizycznie do wszystkich zakątków i powiązanych instytucji. Uczelnia poniosła znaczne wydatki w celu zapewnienia Ethernetu nie tylko do każdego budynku placówki edukacyjnej, ale także do wszystkich domów studenckich. Z pewnością nie minęło wiele czasu, zanim jeden z uczniów jako pierwszy wpadnie do swojego pokoju po burzliwej nocy, opadnie na krzesło i będzie próbował napisać e-mail, którego wysłania następnego ranka żałował – czy to wyznanie miłości, czy wściekła nagana wobec wroga.

W kolejnej fali, około 1990 roku, zaczęli pojawiać się użytkownicy komercyjni. W tym roku zarejestrowano 1151 domen .com. Pierwszymi komercyjnymi uczestnikami były działy badawcze firm technologicznych (Bell Labs, Xerox, IBM itp.). Zasadniczo korzystali z sieci do celów naukowych. Komunikacja biznesowa między ich liderami odbywała się za pośrednictwem innych sieci. Jednak już w 1994 r istniał W domenie .com jest już ponad 60 000 nazw i zarabianie w Internecie rozpoczęło się na dobre.

Pod koniec lat 1980. komputery zaczęły stać się częścią codziennej pracy i życia domowego obywateli USA, a znaczenie obecności cyfrowej w każdym poważnym przedsiębiorstwie stało się oczywiste. Poczta elektroniczna umożliwiała łatwą i niezwykle szybką wymianę wiadomości ze współpracownikami, klientami i dostawcami. Listy mailingowe i Usenet oferowały szerokiemu gronu użytkowników zarówno nowe sposoby nadążania za rozwojem społeczności zawodowej, jak i nowe formy bardzo taniej reklamy. Za pośrednictwem Internetu można było uzyskać dostęp do ogromnej liczby bezpłatnych baz danych - prawnych, medycznych, finansowych i politycznych. Wczorajsi studenci, którzy dostali pracę i mieszkali w połączonych z siecią akademikach, pokochali Internet tak samo jak ich pracodawcy. Oferowała dostęp do znacznie większej liczby użytkowników niż jakakolwiek inna usługa komercyjna (znowu prawo Metcalfe’a). Po opłaceniu miesięcznego dostępu do Internetu prawie wszystko inne było bezpłatne, w przeciwieństwie do wysokich opłat za godzinę lub wiadomość, których wymagał CompuServe i inne podobne usługi. Do pierwszych uczestników rynku internetowego zaliczały się firmy zajmujące się sprzedażą wysyłkową, takie jak The Corner Store of Litchfield w stanie Connecticut, który reklamował się w grupach Usenet, oraz The Online Bookstore, sklep z e-bookami założony przez byłego redaktora Little, Brown and Company, i więcej dziesięć lat przed Kindle.

Potem nadeszła trzecia fala wzrostu, która przyciągnęła codziennych konsumentów, którzy zaczęli masowo korzystać z Internetu w połowie lat 1990. W tym czasie prawo Metcalfe’a działało już na pełnych obrotach. Coraz częściej „bycie online” oznaczało „bycie w Internecie”. Konsumentów nie było stać na rozciągnięcie do swoich domów dedykowanych łączy klasy T1, dlatego prawie zawsze korzystali z Internetu za pośrednictwem modem telefoniczny. Widzieliśmy już część tej historii, kiedy komercyjne BBSy stopniowo przekształcały się w dostawców Internetu. Na tej zmianie skorzystali zarówno użytkownicy (których pula cyfrowa nagle rozrosła się do oceanu), jak i same BBSy, które przeszły na znacznie prostszy biznes polegający na pośredniczeniu pomiędzy systemem telefonicznym a przepustowością „szkieletu” Internetu w T1, bez konieczności utrzymywania własne usługi.

Większe usługi internetowe rozwinęły się w ten sam sposób. Do 1993 roku wszystkie usługi krajowe w Stanach Zjednoczonych — Prodigy, CompuServe, GEnie i raczkująca firma America Online (AOL) — oferowały łącznie 3,5 milionom użytkowników możliwość wysyłania wiadomości e-mail na adresy internetowe. I dopiero pozostające w tyle Delphi (ze 100 000 abonentów) oferowało pełny dostęp do Internetu. Jednak w ciągu następnych kilku lat wartość dostępu do Internetu, która nadal rosła w wykładniczym tempie, szybko przewyższyła dostęp do własnych forów, gier, sklepów i innych treści samych usług komercyjnych. Punktem zwrotnym był rok 1996 – w październiku 73% użytkowników korzystających z Internetu korzystało z WWW, w porównaniu do 21% rok wcześniej. Ukuto nowy termin „portal” na określenie szczątkowych pozostałości usług świadczonych przez AOL, Prodigy i inne firmy, którym ludzie płacili pieniądze tylko za dostęp do Internetu.

Tajny składnik

Mamy więc ogólne pojęcie o tym, jak Internet rozwijał się w tak gwałtownym tempie, ale nie do końca zrozumieliśmy, dlaczego tak się stało. Dlaczego stał się tak dominujący, skoro było tak wiele innych usług, które próbowały wyrosnąć na jego poprzedniczkę? era fragmentacji?

Oczywiście dotacje rządowe odegrały pewną rolę. Oprócz finansowania szkieletu, gdy NSF zdecydowało się poważnie zainwestować w rozwój sieci niezależnej od swojego programu superkomputerowego, nie traciło czasu na drobiazgi. Liderzy koncepcyjni programu NSFNET, Steve Wolfe i Jane Cavines, postanowili zbudować nie tylko sieć superkomputerów, ale nową infrastrukturę informatyczną dla amerykańskich szkół wyższych i uniwersytetów. Stworzyli więc program Connections, który przejął część kosztów podłączenia uczelni do sieci w zamian za zapewnienie jak największej liczbie osób dostępu do sieci na ich kampusach. Przyspieszyło to rozprzestrzenianie się Internetu zarówno bezpośrednio, jak i pośrednio. Pośrednio, ponieważ w wielu sieciach regionalnych powstały przedsiębiorstwa komercyjne, które wykorzystywały tę samą dotowaną infrastrukturę do sprzedaży dostępu do Internetu organizacjom komercyjnym.

Ale Minitel miał też dotacje. Jednak tym, co najbardziej wyróżniało Internet, była jego wielowarstwowa zdecentralizowana struktura i wrodzona elastyczność. IP umożliwiał sieciom o zupełnie innych właściwościach fizycznych współpracę z tym samym systemem adresowym, a protokół TCP zapewniał dostarczanie pakietów do odbiorcy. To wszystko. Prostota podstawowego schematu działania sieci umożliwiła dodanie do niej niemal dowolnej aplikacji. Co ważne, każdy użytkownik mógłby wnieść nową funkcjonalność, gdyby udało mu się przekonać innych do korzystania z jego programu. Na przykład przesyłanie plików za pomocą protokołu FTP było w pierwszych latach jednym z najpopularniejszych sposobów korzystania z Internetu, ale znalezienie serwerów oferujących interesujące Cię pliki było możliwe inaczej niż pocztą pantoflową. Dlatego przedsiębiorczy użytkownicy stworzyli różne protokoły do ​​katalogowania i utrzymywania list serwerów FTP - na przykład Gopher, Archie i Veronica.

Teoretycznie Model sieci OSI istniała ta sama elastyczność, a także oficjalne błogosławieństwo organizacji międzynarodowych i gigantów telekomunikacyjnych, aby służyły jako standard sieciowy. Jednak w praktyce pole do popisu pozostał przy protokole TCP/IP, którego zdecydowaną zaletą był kod działający najpierw na tysiącach, a potem na milionach maszyn.

Przeniesienie kontroli warstwy aplikacji na same brzegi sieci ma jeszcze jedną ważną konsekwencję. Dzięki temu duże organizacje, przyzwyczajone do zarządzania własną sferą działalności, mogły czuć się komfortowo. Organizacje mogą skonfigurować własne serwery poczty e-mail oraz wysyłać i odbierać wiadomości e-mail bez przechowywania całej zawartości na czyimś komputerze. Mogli rejestrować własne nazwy domen, zakładać własne strony internetowe dostępne dla wszystkich w Internecie, ale mieć je pod całkowitą kontrolą.

Naturalnie najbardziej uderzającym przykładem wielowarstwowej struktury i decentralizacji jest sieć WWW. Przez dwie dekady systemy, od komputerów z współdzieleniem czasu z lat 1960. XX wieku po usługi takie jak CompuServe i Minitel, obracały się wokół niewielkiego zestawu podstawowych usług wymiany informacji – poczty elektronicznej, forów i czatów. Sieć stała się czymś zupełnie nowym. Początki sieci, kiedy składała się wyłącznie z unikalnych, ręcznie tworzonych stron, w niczym nie przypominają tego, czym jest dzisiaj. Jednak przeskakiwanie z linku na link już miało dziwny urok i dawało firmom możliwość zapewnienia wyjątkowo taniej reklamy i obsługi klienta. Żaden z architektów Internetu nie planował sieci. Był owocem twórczości Tima Bernersa-Lee, brytyjskiego inżyniera z Europejskiego Centrum Badań Jądrowych (CERN), który stworzył go w 1990 roku z myślą o wygodnym rozpowszechnianiu informacji wśród badaczy laboratoryjnych. Jednak z łatwością działał w oparciu o protokół TCP/IP i korzystał z systemu nazw domen stworzonego do innych celów dla wszechobecnych adresów URL. Stronę internetową mógł stworzyć każdy, kto miał dostęp do Internetu, a w połowie lat 90. wydawało się, że wszyscy to robią – ratusze, lokalne gazety, małe firmy i hobbyści wszelkiej maści.

Prywatyzacja

W tej historii o rozwoju Internetu pominąłem kilka ważnych wydarzeń, w związku z czym może pozostać kilka pytań. Na przykład, w jaki sposób firmy i konsumenci uzyskali dostęp do Internetu, który pierwotnie skupiał się wokół NSFNET, sieci finansowanej przez rząd Stanów Zjednoczonych, która rzekomo miała służyć społeczności badawczej? Aby odpowiedzieć na to pytanie, w kolejnym artykule powrócimy do kilku ważnych wydarzeń, o których na razie nie wspomniałem; wydarzenia, które stopniowo, ale nieuchronnie przekształciły państwowy Internet naukowy w prywatny i komercyjny.

Co jeszcze przeczytać

  • Janet Abatte, Wymyślanie Internetu (1999)
  • Karen D. Fraser „NSFNET: Partnerstwo na rzecz szybkich sieci, raport końcowy” (1996)
  • John S. Quarterman, Matrix (1990)
  • Peter H. Salus, Zarzucanie sieci (1995)

Źródło: www.habr.com

Dodaj komentarz