The Rise of the Internet Del 1: Exponentiell tillväxt

The Rise of the Internet Del 1: Exponentiell tillväxt

<< Innan detta: Fragmenteringens tidsålder, del 4: Anarkister

1990 John Quarterman, en nätverkskonsult och UNIX-expert, publicerade en omfattande översikt över tillståndet för datornätverk vid den tiden. I ett kort avsnitt om datorns framtid förutspådde han uppkomsten av ett enda globalt nätverk för "e-post, konferenser, filöverföringar, fjärrinloggningar - precis som det finns ett världsomspännande telefonnätverk och global post idag." Han fäste dock ingen speciell roll till Internet. Han föreslog att detta världsomspännande nätverk "sannolikt kommer att drivas av statliga kommunikationsbyråer", förutom i USA, "där det kommer att drivas av regionala divisioner av Bell Operating Companies och långdistansoperatörer."

Syftet med den här artikeln är att förklara hur, med sin plötsliga explosiva exponentiella tillväxt, internet så flagrant kullkastade helt naturliga antaganden.

Passerar stafettpinnen

Den första kritiska händelsen som ledde till uppkomsten av det moderna Internet inträffade i början av 1980-talet, när Defense Communications Agency (DCA) [nu DISA] beslutade att dela ARPANET i två delar. DCA övertog kontrollen över nätverket 1975. Då stod det klart att ARPA:s Information Processing Technology Office (IPTO), en organisation som ägnar sig åt att studera teoretiska idéer, inte hade någon mening i att delta i utvecklingen av ett nätverk som inte användes för kommunikationsforskning utan för daglig kommunikation. ARPA försökte utan framgång ta kontrollen över nätverket från det privata företaget AT&T. DCA, ansvarig för militära kommunikationssystem, verkade vara det bästa andra alternativet.

Under de första åren av den nya situationen blomstrade ARPANET i ett tillstånd av lycklig försummelse. Men i början av 1980-talet var försvarsdepartementets åldrande kommunikationsinfrastruktur i ett desperat behov av en uppgradering. Det föreslagna ersättningsprojektet, AUTODIN II, för vilket DCA valde Western Union som sin entreprenör, verkar ha misslyckats. DCA-cheferna utsåg sedan överste Heidi Hayden till att vara ansvarig för att välja ett alternativ. Han föreslog att man skulle använda paketförmedlingsteknik, som DCA redan hade till sitt förfogande i form av ARPANET, som grund för det nya försvarsdatanätet.

Det fanns dock ett uppenbart problem med att överföra militär data över ARPANET - nätverket var fullt av långhåriga forskare, av vilka några aktivt motsatte sig datasäkerhet eller sekretess - till exempel, Richard Stallman med sina andra hackare från MIT Artificial Intelligence Lab. Hayden föreslog att dela upp nätverket i två delar. Han bestämde sig för att behålla de ARPA-finansierade forskarna på ARPANET och separera försvarsdatorerna i ett nytt nätverk kallat MILNET. Denna mitos hade två viktiga konsekvenser. För det första var uppdelningen av de militära och icke-militära delarna av nätverket det första steget mot att överföra Internet under civil, och därefter under privat kontroll. För det andra var det ett bevis på lönsamheten hos Internets avgörande teknologi - TCP/IP-protokollen, som först uppfanns ungefär fem år tidigare. DCA behövde alla ARPANET-noder för att byta från äldre protokoll till TCP/IP-stöd i början av 1983. Vid den tiden använde få nätverk TCP/IP, men processen kopplade sedan ihop de två nätverken i proto-Internet, vilket gjorde att meddelandetrafik kunde länka samman forskning och militära företag efter behov. För att säkerställa livslängden för TCP/IP i militära nätverk, etablerade Hayden en fond på 20 miljoner dollar för att stödja datortillverkare som skulle skriva mjukvara för att implementera TCP/IP på sina system.

Det första steget i den gradvisa överföringen av Internet från militär till privat kontroll ger oss också ett bra tillfälle att säga adjö till ARPA och IPTO. Dess finansiering och inflytande, ledd av Joseph Carl Robnett Licklider, Ivan Sutherland och Robert Taylor, ledde direkt och indirekt till alla tidiga utvecklingar inom interaktiva datorer och datornätverk. Men med skapandet av TCP/IP-standarden i mitten av 1970-talet spelade den en nyckelroll i datorernas historia för sista gången.

Nästa stora datorprojekt som sponsras av DARPA kommer att vara 2004-2005 Autonomous Vehicles Competition. Det mest kända projektet innan detta skulle vara 1980-talets miljarddollar AI-baserade strategiska datorinitiativ, som skulle skapa flera användbara militära tillämpningar men praktiskt taget ingen inverkan på det civila samhället.

Den avgörande katalysatorn i förlusten av inflytande för organisationen var Vietnamkriget. De flesta akademiska forskare trodde att de kämpade den goda kampen och försvarade demokratin när forskningen från kalla kriget finansierades av militären. Men de som växte upp på 1950- och 1960-talen förlorade tron ​​på militären och dess mål efter att den fastnade i Vietnamkriget. Bland de första var Taylor själv, som lämnade IPTO 1969 och tog sina idéer och kopplingar till Xerox PARC. Den demokratiskt kontrollerade kongressen, oroad över militärpengars destruktiva inverkan på grundläggande vetenskaplig forskning, antog ändringar som kräver att försvarspengar uteslutande ska användas till militär forskning. ARPA återspeglade denna förändring i finansieringskulturen 1972 genom att döpa om sig själv till DARPA— US Defense Advanced Research Projects Agency.

Därför gick stafettpinnen över till den civila Nationella vetenskapsfonden (NSF). År 1980, med en budget på 20 miljoner dollar, var NSF ansvarig för att finansiera ungefär hälften av de federala datorforskningsprogrammen i USA. Och de flesta av dessa medel kommer snart att allokeras till ett nytt nationellt datornätverk NSFNET.

NSFNET

I början av 1980-talet besökte Larry Smarr, en fysiker vid University of Illinois, institutet. Max Planck i München, där superdatorn "Cray" verkade, som europeiska forskare fick tillgång till. Frustrerad över bristen på liknande resurser för amerikanska forskare föreslog han att NSF skulle finansiera skapandet av flera superdatorcenter över hela landet. Organisationen svarade Smarr och andra forskare med liknande klagomål genom att skapa Advanced Scientific Computing Division 1984, vilket ledde till finansieringen av fem sådana centra med en femårsbudget på 42 miljoner dollar, som sträcker sig från Cornell University i nordost till San Diego i sydväst. Beläget däremellan fick University of Illinois, där Smarr arbetade, ett eget center, National Center for Supercomputing Applications, NCSA.

Centerns möjlighet att förbättra tillgången till datorkraft var dock begränsad. Att använda sina datorer för användare som inte bor nära något av de fem centrumen skulle vara svårt och skulle kräva finansiering för terminslånga eller sommarlånga forskningsresor. Därför bestämde sig NSF för att bygga ett datanät också. Historien upprepade sig – Taylor främjade skapandet av ARPANET i slutet av 1960-talet just för att ge forskarvärlden tillgång till kraftfulla datorresurser. NSF kommer att tillhandahålla en ryggrad som kommer att ansluta viktiga superdatorcentra, sträcka sig över kontinenten och sedan ansluta till regionala nätverk som ger andra universitet och forskningslaboratorier tillgång till dessa centra. NSF kommer att dra nytta av de internetprotokoll som Hayden främjade genom att delegera ansvaret för att bygga lokala nätverk till lokala forskarsamhällen.

NSF överförde initialt uppgifter för att skapa och underhålla NCSA-nätverket från University of Illinois som källan till det ursprungliga förslaget att skapa ett nationellt superdatorprogram. NCSA leasade i sin tur samma 56 kbps-länkar som ARPANET hade använt sedan 1969 och lanserade nätverket 1986. Men dessa linjer blev snabbt igensatta av trafik (detaljer om denna process finns i David Mills arbete "NSFNET Core Network"). Och ARPANETs historia upprepade sig igen - det blev snabbt uppenbart att nätverkets huvuduppgift inte borde vara vetenskapsmäns tillgång till datorkraft, utan utbyte av meddelanden mellan människor som hade tillgång till det. ARPANET kan förlåtas för att man inte vet att något sådant kan hända – men hur kunde samma misstag hända igen nästan tjugo år senare?En möjlig förklaring är att det är mycket lättare att motivera ett sjusiffrigt anslag för användning av datorkraft som kostar åtta siffror än att motivera att spendera sådana summor på till synes oseriösa mål, som möjligheten att utbyta mejl. Därmed inte sagt att NSF medvetet vilseledde någon. Men som en antropisk princip säger den att universums fysiska konstanter är det som de är för annars skulle vi helt enkelt inte existera, och vi Om de inte kunde observera dem skulle jag inte behöva skriva om ett statligt finansierat datornätverk om det inte fanns liknande, lite fiktiva motiveringar för dess existens.

Övertygad om att själva nätverket var minst lika värdefullt som superdatorerna som motiverar dess existens, vände sig NSF till extern hjälp för att uppgradera ryggraden i nätverket med T1-kapacitetslänkar (1,5 Mbps)./Med). T1-standarden grundades av AT&T på 1960-talet och var tänkt att hantera upp till 24 telefonsamtal, som var och en kodades till en 64 kbit/s digital ström.

Merit Network, Inc. vann kontraktet. i partnerskap med MCI och IBM, och fick ett anslag på 58 miljoner dollar från NSF under sina första fem år för att bygga och underhålla nätverket. MCI tillhandahöll kommunikationsinfrastrukturen, IBM tillhandahöll datorkraft och programvara för routrarna. Det ideella företaget Merit, som drev datornätverket som länkade University of Michigans campus, tog med sig erfarenhet av att underhålla ett vetenskapligt datornätverk och gav hela partnerskapet en universitetskänsla som gjorde det lättare att acceptera av NSF och forskarna som använde NSFNET. Överföringen av tjänster från NCSA till Merit var dock det självklara första steget mot privatisering.

MERIT stod ursprungligen för Michigan Educational Research Information Triad. Michigan State lade till 5 miljoner dollar för att hjälpa sitt T1-hemnätverk att växa.

The Rise of the Internet Del 1: Exponentiell tillväxt

Merit-ryggraden förde trafik från mer än ett dussin regionala nätverk, från New Yorks NYSERNet, ett forsknings- och utbildningsnätverk kopplat till Cornell University i Ithaca, till CERFNet, ett federerat forsknings- och utbildningsnätverk i Kalifornien kopplat till San Diego. Vart och ett av dessa regionala nätverk kopplade till otaliga lokala campusnätverk, eftersom collegelabb och fakultetskontor körde hundratals Unix-maskiner. Detta federala nätverk av nätverk blev frökristallen till det moderna Internet. ARPANET kopplade endast välfinansierade datavetenskapsforskare som arbetar vid elitvetenskapliga institutioner. Och 1990 kunde nästan alla universitetsstudenter eller lärare redan gå online. Genom att kasta paket från nod till nod – via lokalt Ethernet, sedan vidare till ett regionalt nätverk, sedan över långa avstånd med ljusets hastighet på NSFNET-stamnätet – kunde de utbyta e-postmeddelanden eller ha värdiga Usenet-konversationer med kollegor från andra delar av landet .

Efter att många fler vetenskapliga organisationer blev tillgängliga via NSFNET än genom ARPANET, avvecklade DCA det gamla nätverket 1990 och uteslöt helt försvarsdepartementet från att utveckla civila nätverk.

Ta av

Under hela denna period har antalet datorer anslutna till NSFNET och relaterade nätverk – och allt detta kan vi nu kalla Internet – ungefär fördubblats varje år. 28 000 i december 1987, 56,000 1988 i oktober 159, 000 1989 i oktober 1990 och så vidare. Denna trend fortsatte fram till mitten av XNUMX-talet och därefter tillväxten saktade ner lite. Hur, med tanke på denna trend, undrar jag, kunde Quarterman ha misslyckats med att märka att Internet var avsett att styra världen? Om den senaste epidemin har lärt oss något så är det att det är väldigt svårt för människor att föreställa sig exponentiell tillväxt eftersom den inte motsvarar något vi möter i vardagen.

Naturligtvis är namnet och konceptet för Internet före NSFNET. Internetprotokollet uppfanns 1974, och redan innan NSFNET fanns det nätverk som kommunicerade över IP. Vi har redan nämnt ARPANET och MILNET. Jag kunde dock inte hitta något omnämnande av "internet" - ett enda, världsomspännande nätverk av nätverk - innan tillkomsten av det tredelade NSFNET.

Antalet nätverk inom Internet växte i samma takt, från 170 i juli 1988 till 3500 1991 hösten 1988. Eftersom forskarvärlden inte känner några gränser var många av dem belägna utomlands, med början i förbindelser med Frankrike och Kanada etablerade i 1995. År 100 hade nästan 1994 länder tillgång till Internet, från Algeriet till Vietnam. Och även om antalet maskiner och nätverk är mycket lättare att beräkna än antalet verkliga användare, var det enligt rimliga uppskattningar 10-20 miljoner av dem i slutet av 1991. I avsaknad av detaljerade uppgifter om vem, varför och vid vilken tidpunkt använde Internet, är det ganska svårt att underbygga denna eller någon annan historisk förklaring till en sådan otrolig tillväxt. En liten samling berättelser och anekdoter kan knappast förklara hur 1992 350 datorer anslutit till Internet från januari 000 till januari 600, och sedan 000 1,1 året därpå och ytterligare XNUMX miljoner året därpå.

Jag kommer dock att ge mig in i detta epistemiskt skakiga territorium och hävda att de tre överlappande vågorna av användare som är ansvariga för Internets explosiva tillväxt, var och en med sina egna anledningar till att ansluta, drevs av en obönhörlig logik Metcalfes lag, som säger att värdet (och därför attraktionskraften) hos ett nätverk ökar med kvadraten på antalet deltagare.

Forskarna kom först. NSF spred avsiktligt beräkningen till så många universitet som möjligt. Efter det ville alla forskare gå med i projektet eftersom alla andra redan var där. Om e-postmeddelanden kanske inte når dig, om du kanske inte ser eller deltar i de senaste diskussionerna på Usenet, riskerar du att missa tillkännagivandet av en viktig konferens, chansen att hitta en mentor, missa spetsforskning innan den publiceras, och så vidare . Universiteten kände sig pressade att gå med i vetenskapliga konversationer online och anslöt sig snabbt till regionala nätverk som kunde koppla dem till NSFNET-stommen. Till exempel hade NEARNET, som omfattade sex delstater i New England-regionen, förvärvat mer än 1990 medlemmar i början av 200-talet.

Samtidigt började tillgången sippra ner från fakultets- och doktorander till den mycket större gruppen av studenter. År 1993 hade ungefär 70 % av förstaårsstudenterna i Harvard en e-postadress. Vid den tiden hade Internet på Harvard fysiskt nått alla hörn och tillhörande institutioner. Universitetet fick betydande utgifter för att tillhandahålla Ethernet inte bara till varje byggnad på utbildningsinstitutionen, utan också till alla studenthem. Det skulle säkert inte dröja länge innan en av eleverna var den första att snubbla in på sitt rum efter en stormig natt, ramla ner i en stol och kämpa för att skriva ut ett mejl som han ångrade att han skickade nästa morgon - vare sig det var en kärleksförklaring eller en rasande tillrättavisning till fienden.

I nästa våg, runt 1990, började kommersiella användare anlända. Det året registrerades 1151 1994 .com-domäner. De första kommersiella deltagarna var teknikföretagens forskningsavdelningar (Bell Labs, Xerox, IBM, etc.). De använde i huvudsak nätverket för vetenskapliga ändamål. Affärskommunikation mellan deras ledare gick via andra nätverk. Men XNUMX existerade Det finns redan mer än 60 000 namn på .com-domänen och att tjäna pengar på Internet har börjat på allvar.

I slutet av 1980-talet började datorer bli en del av det dagliga arbetet och hemmet för amerikanska medborgare, och vikten av en digital närvaro för alla seriösa företag blev uppenbar. E-post erbjöd ett sätt att enkelt och extremt snabbt utbyta meddelanden med kollegor, kunder och leverantörer. E-postlistor och Usenet erbjöd både nya sätt att hänga med i utvecklingen inom det professionella samhället och nya former av mycket billig reklam för ett brett spektrum av användare. Via Internet var det möjligt att få tillgång till ett stort utbud av gratis databaser - juridiska, medicinska, ekonomiska och politiska. Gårdagens studenter som fick jobb och bodde i uppkopplade sovsalar blev lika förälskade i internet som sina arbetsgivare. Det erbjöd tillgång till en mycket större uppsättning användare än någon av de enskilda kommersiella tjänsterna (Metcalfes lag igen). Efter att ha betalat för en månads internetåtkomst var nästan allt annat gratis, till skillnad från de höga avgifterna per timme eller per meddelande som CompuServe och andra liknande tjänster krävde. Tidiga aktörer på internetmarknaden inkluderade postorderföretag, såsom The Corner Store of Litchfield, Connecticut, som annonserade i Usenet-grupper, och The Online Bookstore, en e-bokbutik som grundades av en tidigare redaktör för Little, Brown and Company, och mer tio år före Kindle.

Och sedan kom den tredje vågen av tillväxt, som tog in vardagskonsumenter som började gå online i stort antal i mitten av 1990-talet. Vid det här laget fungerade Metcalfes lag redan på högsta växeln. "att vara online" betydde i allt högre grad "att vara på internet." Konsumenter hade inte råd att utöka dedikerade T1-klasslinjer till sina hem, så de hade nästan alltid tillgång till Internet via uppringt modem. Vi har redan sett en del av den här historien när kommersiella BBS gradvis förvandlades till internetleverantörer. Denna förändring gynnade både användarna (vars digitala pool plötsligt hade växt till havet) och BBS:erna själva, som gick över till den mycket enklare verksamheten som mellanhand mellan telefonsystemet och Internets "ryggrads"-genomströmning i T1, utan att behöva underhålla sina egna tjänster.

Större onlinetjänster utvecklades i samma linje. År 1993 erbjöd alla nationella tjänster i USA – Prodigy, CompuServe, GEnie och det nya företaget America Online (AOL) – sammanlagt 3,5 miljoner användare möjligheten att skicka e-post till internetadresser. Och bara det eftersläpande Delphi (med 100 000 prenumeranter) erbjöd full tillgång till Internet. Men under de närmaste åren uppvägde värdet av tillgången till Internet, som fortsatte att växa i en exponentiell takt, snabbt åtkomsten till de proprietära forumen, spelen, butikerna och annat innehåll i de kommersiella tjänsterna själva. 1996 var en vändpunkt - i oktober använde 73 % av de användare som gick online WWW, jämfört med 21 % året innan. En ny term myntades, "portal", för att beskriva resterna av de tjänster som tillhandahålls av AOL, Prodigy och andra företag som folk betalade pengar till bara för att få tillgång till Internet.

Hemlig ingrediens

Så vi har en grov uppfattning om hur internet växte i en så explosiv hastighet, men vi har inte riktigt fattat varför det hände. Varför blev det så dominerande när det fanns så många andra tjänster som försökte växa till sin föregångare? era av fragmentering?

Naturligtvis spelade statsbidrag en roll. Förutom att finansiera ryggraden, när NSF bestämde sig för att på allvar investera i nätverksutveckling oberoende av dess superdatorprogram, slösade man inte bort tid på bagateller. De konceptuella ledarna för NSFNET-programmet, Steve Wolfe och Jane Cavines, bestämde sig för att bygga inte bara ett nätverk av superdatorer, utan en ny informationsinfrastruktur för amerikanska högskolor och universitet. Så de skapade Connections-programmet, som tog på sig en del av kostnaden för att ansluta universitet till nätverket i utbyte mot att de gav så många människor som möjligt tillgång till nätverket på sina campus. Detta påskyndade spridningen av Internet både direkt och indirekt. Indirekt, eftersom många av de regionala nätverken skapade kommersiella företag som använde samma subventionerade infrastruktur för att sälja internetåtkomst till kommersiella organisationer.

Men Minitel hade också subventioner. Det som dock utmärkte internet mest av allt var dess decentraliserade struktur i flera lager och dess inneboende flexibilitet. IP tillät nätverk med helt andra fysiska egenskaper att arbeta med samma adresssystem och TCP säkerställde leveransen av paket till mottagaren. Det är allt. Enkelheten i det grundläggande nätverksdriftschemat gjorde det möjligt att lägga till nästan vilken applikation som helst. Viktigt är att alla användare kan bidra med ny funktionalitet om han kunde övertyga andra att använda hans program. Till exempel var överföring av filer med FTP ett av de mest populära sätten att använda Internet under de första åren, men det var omöjligt att hitta servrar som erbjöd de filer du var intresserad av förutom genom mun till mun. Därför skapade företagsamma användare olika protokoll för att katalogisera och underhålla listor över FTP-servrar - till exempel Gopher, Archie och Veronica.

Teoretiskt sett, OSI nätverksmodell det fanns samma flexibilitet, såväl som den officiella välsignelsen från internationella organisationer och telekommunikationsjättar att fungera som en standard för internetarbete. Men i praktiken förblev fältet med TCP/IP, och dess avgörande fördel var koden som kördes först på tusentals och sedan på miljontals maskiner.

Att överföra applikationslagerkontroll till själva kanterna av nätverket har lett till en annan viktig konsekvens. Detta innebar att stora organisationer, vana vid att hantera sin egen verksamhetssfär, kunde känna sig bekväma. Organisationer kan sätta upp sina egna e-postservrar och skicka och ta emot e-post utan att allt innehåll lagras på någon annans dator. De kunde registrera sina egna domännamn, skapa egna webbplatser tillgängliga för alla på Internet, men hålla dem helt under sin kontroll.

Naturligtvis är det mest slående exemplet på flerskiktsstruktur och decentralisering World Wide Web. Under två decennier kretsade system från 1960-talets tidsdelningsdatorer till tjänster som CompuServe och Minitel kring en liten uppsättning grundläggande informationsutbytetjänster - e-post, forum och chattrum. Webben har blivit något helt nytt. Webbens tidiga dagar, när den helt bestod av unika, handgjorda sidor, liknar inte vad det är idag. Men att hoppa från länk till länk hade redan en märklig dragningskraft och gav företag möjligheten att tillhandahålla extremt billig reklam och kundsupport. Ingen av internetarkitekterna planerade för webben. Det var frukten av kreativiteten hos Tim Berners-Lee, en brittisk ingenjör vid European Centre for Nuclear Research (CERN), som skapade den 1990 med målet att enkelt distribuera information bland laboratorieforskare. Det levde dock lätt på TCP/IP och använde ett domännamnssystem skapat för andra ändamål för allestädes närvarande URL:er. Alla med tillgång till internet kunde skapa en webbplats, och i mitten av 90-talet verkade det som att alla gjorde det – stadshus, lokala tidningar, småföretag och alla hobbyister.

privatisering

Jag har utelämnat några viktiga händelser i den här berättelsen om internets framväxt, och du kan bli kvar med några frågor. Till exempel, exakt hur fick företag och konsumenter tillgång till Internet, som ursprungligen var centrerat kring NSFNET, ett amerikanskt statligt finansierat nätverk som skenbart var avsett att tjäna forskarvärlden? För att svara på denna fråga kommer vi i nästa artikel att återkomma till några viktiga händelser som jag inte har nämnt för nu; händelser som gradvis men oundvikligt förvandlade det statliga vetenskapliga Internet till ett privat och kommersiellt.

Vad mer att läsa

  • Janet Abatte, Inventing the Internet (1999)
  • Karen D. Fraser "NSFNET: A Partnership for High-Speed ​​Networking, Final Report" (1996)
  • John S. Quarterman, The Matrix (1990)
  • Peter H. Salus, Casting the Net (1995)

Källa: will.com

Lägg en kommentar