De opkomst van het internet Deel 1: Exponentiële groei

De opkomst van het internet Deel 1: Exponentiële groei

<< Vóór dit: Het tijdperk van fragmentatie, deel 4: anarchisten

In 1990 Jan Kwartierman, een netwerkconsulent en UNIX-expert, publiceerde een uitgebreid overzicht van de toenmalige stand van zaken op het gebied van computernetwerken. In een kort hoofdstuk over de toekomst van computers voorspelde hij de opkomst van één mondiaal netwerk voor "e-mail, conferenties, bestandsoverdrachten, inloggen op afstand - net zoals er vandaag de dag een wereldwijd telefoonnetwerk en wereldwijde post bestaat." Hij hechtte echter geen speciale rol aan internet. Hij suggereerde dat dit wereldwijde netwerk "waarschijnlijk zal worden beheerd door communicatiebureaus van de overheid", behalve in de Verenigde Staten, "waar het zal worden beheerd door regionale afdelingen van Bell Operating Companies en langeafstandsmaatschappijen."

Het doel van dit artikel is uit te leggen hoe het internet, met zijn plotselinge explosieve exponentiële groei, op zo flagrante wijze volkomen natuurlijke aannames omverwierp.

Het stokje doorgeven

De eerste kritieke gebeurtenis die leidde tot de opkomst van het moderne internet vond plaats in het begin van de jaren tachtig, toen het Defense Communications Agency (DCA) [nu DISA] besloot het ARPANET in twee delen te splitsen. DCA nam in 1980 de controle over het netwerk over. Tegen die tijd was het duidelijk dat ARPA's Information Processing Technology Office (IPTO), een organisatie die zich toelegt op de studie van theoretische ideeën, geen zin had om deel te nemen aan de ontwikkeling van een netwerk dat niet werd gebruikt voor communicatieonderzoek maar voor alledaagse communicatie. ARPA probeerde tevergeefs de controle over het netwerk af te pakken van het particuliere bedrijf AT&T. DCA, verantwoordelijk voor militaire communicatiesystemen, leek de beste tweede optie.

Gedurende de eerste jaren van de nieuwe situatie floreerde ARPANET in een staat van gelukzalige verwaarlozing. Begin jaren tachtig was de verouderde communicatie-infrastructuur van het ministerie van Defensie echter dringend toe aan een upgrade. Het voorgestelde vervangingsproject, AUTODIN II, waarvoor DCA Western Union als opdrachtnemer selecteerde, lijkt te zijn mislukt. De DCA-hoofden benoemden vervolgens kolonel Heidi Hayden als verantwoordelijke voor het kiezen van een alternatief. Hij stelde voor om packet-switchingtechnologie, waarover DCA al beschikte in de vorm van ARPANET, te gebruiken als basis voor het nieuwe defensiedatanetwerk.

Er was echter een duidelijk probleem met het verzenden van militaire gegevens via het ARPANET - het netwerk zat vol met langharige wetenschappers, van wie sommigen actief gekant waren tegen computerbeveiliging of geheimhouding - bijvoorbeeld: Richard Stalman met zijn collega-hackers van het MIT Artificial Intelligence Lab. Hayden stelde voor het netwerk in twee delen te verdelen. Hij besloot de door ARPA gefinancierde onderzoekswetenschappers op het ARPANET te houden en de defensiecomputers op te splitsen in een nieuw netwerk genaamd MILNET. Deze mitose had twee belangrijke gevolgen. Ten eerste was de verdeling van de militaire en niet-militaire delen van het netwerk de eerste stap op weg naar de overdracht van het internet onder civiele en vervolgens onder particuliere controle. Ten tweede was het een bewijs van de levensvatbaarheid van de baanbrekende technologie van het internet: de TCP/IP-protocollen, die ongeveer vijf jaar eerder voor het eerst werden uitgevonden. De DCA had begin 1983 alle ARPANET-knooppunten nodig om over te schakelen van oudere protocollen naar TCP/IP-ondersteuning. Destijds maakten maar weinig netwerken gebruik van TCP/IP, maar het proces verbond vervolgens de twee netwerken van het proto-internet, waardoor berichtenverkeer indien nodig onderzoeks- en militaire ondernemingen met elkaar kon verbinden. Om de levensduur van TCP/IP in militaire netwerken te garanderen, richtte Hayden een fonds van $20 miljoen op ter ondersteuning van computerfabrikanten die software zouden schrijven om TCP/IP op hun systemen te implementeren.

De eerste stap in de geleidelijke overdracht van het internet van militaire naar particuliere controle biedt ons ook een goede gelegenheid om afscheid te nemen van ARPA en IPTO. De financiering en invloed ervan, geleid door Joseph Carl Robnett Licklider, Ivan Sutherland en Robert Taylor, leidden direct en indirect tot alle vroege ontwikkelingen op het gebied van interactief computergebruik en computernetwerken. Met de creatie van de TCP/IP-standaard halverwege de jaren zeventig speelde deze echter voor het laatst een sleutelrol in de geschiedenis van computers.

Het volgende grote computerproject dat door DARPA wordt gesponsord, zal de Autonomous Vehicles Competition 2004-2005 zijn. Het bekendste project hiervoor zou het miljarden kostende, op AI gebaseerde strategische computerinitiatief uit de jaren tachtig zijn, dat verschillende nuttige militaire toepassingen zou voortbrengen, maar vrijwel geen impact zou hebben op het maatschappelijk middenveld.

De beslissende katalysator in het verlies aan invloed van de organisatie was Vietnamese oorlog. De meeste academische onderzoekers geloofden dat ze de goede strijd voerden en de democratie verdedigden toen onderzoek uit het Koude Oorlog-tijdperk door het leger werd gefinancierd. Degenen die in de jaren vijftig en zestig opgroeiden, verloren echter het vertrouwen in het leger en zijn doelstellingen nadat het verwikkeld raakte in de oorlog in Vietnam. Een van de eersten was Taylor zelf, die IPTO in 1950 verliet en zijn ideeën en connecties naar Xerox PARC bracht. Het door de Democraten gecontroleerde Congres, bezorgd over de destructieve impact van militair geld op fundamenteel wetenschappelijk onderzoek, heeft amendementen aangenomen die eisen dat defensiegeld uitsluitend aan militair onderzoek wordt besteed. ARPA weerspiegelde deze verandering in de financieringscultuur in 1960 door zichzelf DARPA te noemen: Amerikaanse Defense Advanced Research Projects Agency.

Daarom ging het stokje over op de burger National Science Foundation (NSF). In 1980 was NSF, met een budget van $ 20 miljoen, verantwoordelijk voor de financiering van ongeveer de helft van de federale computeronderzoeksprogramma's in de Verenigde Staten. En het grootste deel van deze fondsen zal binnenkort worden toegewezen aan een nieuw nationaal computernetwerk NSFNET.

NSFNET

Begin jaren tachtig bezocht Larry Smarr, een natuurkundige aan de Universiteit van Illinois, het instituut. Max Planck in München, waar de supercomputer ‘Cray’ draaide, waartoe Europese onderzoekers toegang kregen. Gefrustreerd door het gebrek aan soortgelijke middelen voor Amerikaanse wetenschappers, stelde hij voor dat de NSF de oprichting van verschillende supercomputercentra in het hele land zou financieren. De organisatie reageerde op Smarr en andere onderzoekers met soortgelijke klachten door in 1980 de Advanced Scientific Computing Division op te richten, wat leidde tot de financiering van vijf van dergelijke centra met een vijfjarig budget van $ 1984 miljoen, dat zich uitstrekte van Cornell University in het noordoosten tot San Diego. in het Zuid-Westen. Daartussenin kreeg de Universiteit van Illinois, waar Smarr werkte, een eigen centrum, het National Center for Supercomputing Applications, NCSA.

Het vermogen van de centra om de toegang tot rekenkracht te verbeteren was echter beperkt. Het gebruik van hun computers voor gebruikers die niet in de buurt van een van de vijf centra wonen, zou moeilijk zijn en zou financiering vereisen voor onderzoeksreizen van een semester of een zomer. Daarom besloot NSF ook een computernetwerk aan te leggen. De geschiedenis herhaalde zich: Taylor promootte eind jaren zestig de oprichting van het ARPANET, juist om de onderzoeksgemeenschap toegang te geven tot krachtige computerbronnen. NSF zal een ruggengraat bieden die de belangrijkste supercomputercentra zal verbinden, zich over het hele continent uitstrekken, en vervolgens verbinding zal maken met regionale netwerken die andere universiteiten en onderzoekslaboratoria toegang geven tot deze centra. NSF zal profiteren van de internetprotocollen die Hayden promootte door de verantwoordelijkheid voor het opbouwen van lokale netwerken over te dragen aan lokale wetenschappelijke gemeenschappen.

NSF droeg aanvankelijk de taken voor het opzetten en onderhouden van het NCSA-netwerk over van de Universiteit van Illinois als bron van het oorspronkelijke voorstel om een ​​nationaal supercomputerprogramma te creëren. NCSA huurde op haar beurt dezelfde 56 kbps-verbindingen die ARPANET sinds 1969 gebruikte en lanceerde het netwerk in 1986. Deze lijnen raakten echter al snel verstopt door verkeer (details van dit proces zijn te vinden in het werk van David Mills "NSFNET-kernnetwerk"). En opnieuw herhaalde de geschiedenis van ARPANET zich - het werd al snel duidelijk dat de hoofdtaak van het netwerk niet de toegang van wetenschappers tot computerkracht zou moeten zijn, maar de uitwisseling van berichten tussen mensen die er toegang toe hadden. Het kan ARPANET vergeven worden dat het niet wist dat zoiets kan gebeuren - maar hoe kan dezelfde fout bijna twintig jaar later opnieuw gebeuren? Een mogelijke verklaring is dat het veel gemakkelijker is om een ​​subsidie ​​van zeven cijfers te rechtvaardigen voor het gebruik van rekenkracht die kost acht cijfers dan het rechtvaardigen van het uitgeven van dergelijke bedragen aan ogenschijnlijk lichtzinnige doelen, zoals de mogelijkheid om e-mails uit te wisselen. Dit wil niet zeggen dat NSF opzettelijk iemand heeft misleid. Maar als antropisch principe stelt het dat de fysieke constanten van het heelal bepalen Dat is zo omdat we anders eenvoudigweg niet zouden bestaan, en als ze ze niet konden observeren, zou ik niet over een door de overheid gefinancierd computernetwerk hoeven te schrijven als er niet soortgelijke, enigszins fictieve rechtvaardigingen voor het bestaan ​​ervan waren.

Ervan overtuigd dat het netwerk zelf minstens zo waardevol was als de supercomputers die het bestaan ​​ervan rechtvaardigen, wendde NSF zich tot hulp van buitenaf om de backbone van het netwerk te upgraden met verbindingen met T1-capaciteit (1,5 Mbps). De T1-standaard werd in de jaren zestig door AT&T opgericht en zou maximaal 1960 telefoongesprekken kunnen verwerken, die elk gecodeerd waren in een digitale stroom van 24 kbit/s.

Merit Network, Inc. won het contract. in samenwerking met MCI en IBM, en ontving in de eerste vijf jaar een subsidie ​​van $ 58 miljoen van NSF om het netwerk te bouwen en te onderhouden. MCI zorgde voor de communicatie-infrastructuur, IBM zorgde voor de rekenkracht en software voor de routers. Het non-profitbedrijf Merit, dat het computernetwerk beheerde dat de campussen van de Universiteit van Michigan met elkaar verbond, bracht ervaring met het onderhouden van een wetenschappelijk computernetwerk met zich mee, en gaf het hele partnerschap een universitair gevoel dat het gemakkelijker maakte om geaccepteerd te worden door NSF en de wetenschappers die NSFNET gebruikten. De overdracht van diensten van NCSA naar Merit was echter de voor de hand liggende eerste stap op weg naar privatisering.

MERIT stond oorspronkelijk voor Michigan Educational Research Information Triad. Michigan State heeft $ 5 miljoen toegevoegd om zijn T1-thuisnetwerk te helpen groeien.

De opkomst van het internet Deel 1: Exponentiële groei

De Merit-backbone vervoerde verkeer van meer dan een dozijn regionale netwerken, van het New Yorkse NYSERNet, een onderzoeks- en onderwijsnetwerk verbonden met de Cornell University in Ithaca, tot CERFNet, een Californisch federaal onderzoeks- en onderwijsnetwerk verbonden met San Diego. Elk van deze regionale netwerken was verbonden met talloze lokale campusnetwerken, aangezien universiteitslaboratoria en faculteitskantoren honderden Unix-machines draaiden. Dit federale netwerk van netwerken werd het kiemkristal van het moderne internet. ARPANET verbond alleen goed gefinancierde computerwetenschappers die bij elite wetenschappelijke instellingen werkten. En in 1990 kon bijna elke universiteitsstudent of docent al online gaan. Door pakketten van knooppunt naar knooppunt te sturen – via lokaal Ethernet, vervolgens naar een regionaal netwerk en vervolgens over lange afstanden met de snelheid van het licht op de NSFNET-backbone – konden ze e-mails uitwisselen of waardige Usenet-gesprekken voeren met collega's uit andere delen van het land .

Nadat veel meer wetenschappelijke organisaties toegankelijk waren geworden via NSFNET dan via ARPANET, heeft DCA in 1990 het oude netwerk buiten gebruik gesteld en het ministerie van Defensie volledig uitgesloten van de ontwikkeling van civiele netwerken.

Opstijgen

Gedurende deze hele periode is het aantal computers dat is aangesloten op NSFNET en aanverwante netwerken – en dit alles kunnen we nu internet noemen – elk jaar ongeveer verdubbeld. 28 in december 000, 1987 in oktober 56,000, 1988 in oktober 159, enzovoort. Deze trend zette zich voort tot het midden van de jaren negentig, en daarna de groei een beetje vertraagd. Hoe kan Quarterman, gegeven deze trend, niet hebben opgemerkt dat het internet voorbestemd was om de wereld te regeren? Als de recente epidemie ons iets heeft geleerd, is het dat het voor mensen heel moeilijk is om zich exponentiële groei voor te stellen, omdat deze niet overeenkomt met wat we in het dagelijks leven tegenkomen.

Natuurlijk dateren de naam en het concept van internet van vóór NSFNET. Het internetprotocol werd uitgevonden in 1974, en zelfs vóór NSFNET waren er netwerken die via IP communiceerden. We hebben ARPANET en MILNET al genoemd. Ik kon echter geen enkele vermelding vinden van het ‘internet’ – een enkel, wereldwijd netwerk van netwerken – vóór de komst van het drieledige NSFNET.

Het aantal netwerken binnen het internet groeide in een vergelijkbaar tempo, van 170 in juli 1988 tot 3500 in de herfst van 1991. Omdat de wetenschappelijke gemeenschap geen grenzen kent, bevonden veel ervan zich in het buitenland, te beginnen met verbindingen met Frankrijk en Canada die in 1988 tot stand kwamen. 1995. In 100 hadden bijna 1994 landen toegang tot internet, van Algerije tot Vietnam. En hoewel het aantal machines en netwerken veel gemakkelijker te berekenen is dan het aantal echte gebruikers, waren dat er volgens redelijke schattingen eind 10 20 tot 1991 miljoen. Bij gebrek aan gedetailleerde gegevens over wie, waarom en in welke tijd het internet werd gebruikt, is het vrij moeilijk om deze of een andere historische verklaring voor zo'n ongelooflijke groei te onderbouwen. Een kleine verzameling verhalen en anekdotes kan nauwelijks verklaren hoe 1992 computers van januari 350 tot januari 000 verbinding met het internet maakten, en vervolgens 600 het jaar daarop, en nog eens 000 miljoen het jaar daarop.

Ik zal mij echter op dit epistemisch wankele terrein wagen en betogen dat de drie overlappende golven van gebruikers die verantwoordelijk zijn voor de explosieve groei van het internet, elk met hun eigen redenen om verbinding te maken, werden aangedreven door een onverbiddelijke logica. De wet van Metcalfe, die zegt dat de waarde (en dus de aantrekkingskracht) van een netwerk toeneemt als het kwadraat van het aantal deelnemers.

De wetenschappers kwamen op de eerste plaats. NSF heeft de berekening opzettelijk naar zoveel mogelijk universiteiten verspreid. Daarna wilde elke wetenschapper zich bij het project aansluiten omdat alle anderen er al waren. Als e-mails u misschien niet bereiken, als u de laatste discussies op Usenet misschien niet ziet of eraan deelneemt, loopt u het risico de aankondiging van een belangrijke conferentie te missen, de kans om een ​​mentor te vinden, baanbrekend onderzoek te missen voordat het wordt gepubliceerd, enzovoort. . Omdat ze zich onder druk gezet voelden om online deel te nemen aan wetenschappelijke gesprekken, maakten universiteiten snel verbinding met regionale netwerken die hen konden verbinden met de NSFNET-backbone. NEARNET, dat zes staten in de regio New England besloeg, had begin jaren negentig bijvoorbeeld meer dan 1990 leden verworven.

Tegelijkertijd begon de toegang van docenten en afgestudeerden naar de veel grotere gemeenschap van studenten te sijpelen. In 1993 had ongeveer 70% van de eerstejaarsstudenten van Harvard een e-mailadres. Tegen die tijd had het internet op Harvard fysiek alle uithoeken en bijbehorende instellingen bereikt. De universiteit heeft aanzienlijke kosten gemaakt om Ethernet niet alleen te bieden aan elk gebouw van de onderwijsinstelling, maar ook aan alle studentenslaapzalen. Het zou toch niet lang duren voordat een van de studenten na een stormachtige nacht als eerste zijn kamer binnenstrompelde, in een stoel viel en moeite had om een ​​e-mail uit te typen waarvan hij de volgende ochtend spijt had dat hij hem had verzonden - of het nu een liefdesverklaring was of een woedende berisping voor de vijand.

In de volgende golf, rond 1990, begonnen commerciële gebruikers te arriveren. Dat jaar werden 1151 .com-domeinen geregistreerd. De eerste commerciële deelnemers waren de onderzoeksafdelingen van technologiebedrijven (Bell Labs, Xerox, IBM, enz.). Ze gebruikten het netwerk hoofdzakelijk voor wetenschappelijke doeleinden. De zakelijke communicatie tussen hun leiders verliep via andere netwerken. Echter, in 1994 bestond Er zijn al meer dan 60 namen in het .com-domein en het verdienen van geld op internet is nu echt begonnen.

Tegen het einde van de jaren tachtig begonnen computers een onderdeel te worden van het dagelijkse werk- en privéleven van Amerikaanse burgers, en werd het belang van een digitale aanwezigheid voor elk serieus bedrijf duidelijk. E-mail bood een manier om eenvoudig en razendsnel berichten uit te wisselen met collega's, klanten en leveranciers. Mailinglijsten en Usenet boden zowel nieuwe manieren om op de hoogte te blijven van de ontwikkelingen in de professionele gemeenschap als nieuwe vormen van zeer goedkope reclame voor een breed scala aan gebruikers. Via internet was het mogelijk toegang te krijgen tot een grote verscheidenheid aan gratis databases: juridische, medische, financiële en politieke. De studenten van gisteren die een baan kregen en in onderling verbonden slaapzalen woonden, werden net zo verliefd op internet als hun werkgevers. Het bood toegang tot een veel groter aantal gebruikers dan alle individuele commerciële diensten (opnieuw de wet van Metcalfe). Nadat je voor een maand internettoegang had betaald, was bijna al het andere gratis, in tegenstelling tot de hoge kosten per uur of per bericht die CompuServe en andere soortgelijke diensten vereisten. Vroege nieuwkomers op de internetmarkt waren onder meer postorderbedrijven, zoals The Corner Store uit Litchfield, Connecticut, die adverteerde in Usenet-groepen, en The Online Bookstore, een e-bookwinkel opgericht door een voormalig redacteur van Little, Brown and Company, en meer tien jaar vóór de Kindle.

En toen kwam de derde groeigolf, met de opkomst van gewone consumenten die halverwege de jaren negentig in groten getale online gingen. Tegen die tijd werkte de wet van Metcalfe al in de hoogste versnelling. Steeds vaker betekende ‘online zijn’ ‘op internet zijn’. Consumenten konden het zich niet veroorloven om speciale T1990-lijnen naar hun huis uit te breiden, dus hadden ze bijna altijd toegang tot internet via inbelmodem. We hebben een deel van dit verhaal al gezien toen commerciële BBS'en geleidelijk veranderden in internetproviders. Deze verandering kwam ten goede aan zowel de gebruikers (wier digitale pool plotseling tot in de oceaan was uitgegroeid) als de BBS'en zelf, die overgingen op de veel eenvoudigere taak van intermediair tussen het telefoonsysteem en de internet-"backbone"-doorvoer in T1, zonder de noodzaak om de hun eigen diensten.

Grotere onlinediensten ontwikkelden zich op dezelfde manier. In 1993 boden alle nationale diensten in de Verenigde Staten – Prodigy, CompuServe, GEnie en het jonge bedrijf America Online (AOL) – in totaal 3,5 miljoen gebruikers de mogelijkheid om e-mail naar internetadressen te verzenden. En alleen het achterblijvende Delphi (met 100 abonnees) bood volledige toegang tot internet. In de daaropvolgende jaren werd de waarde van de toegang tot internet, die exponentieel bleef groeien, echter al snel groter dan de toegang tot de eigen forums, games, winkels en andere inhoud van de commerciële diensten zelf. 000 was een keerpunt: in oktober gebruikte 1996% van de gebruikers die online gingen het WWW, vergeleken met 73% het jaar daarvoor. Er werd een nieuwe term bedacht, ‘portaal’, om de rudimentaire overblijfselen te beschrijven van de diensten die werden geleverd door AOL, Prodigy en andere bedrijven waar mensen geld aan betaalden alleen maar om toegang te krijgen tot internet.

Geheim ingrediënt

We hebben dus een globaal idee van hoe het internet zo explosief groeide, maar we zijn er nog niet helemaal achter waarom dit gebeurde. Waarom werd het zo dominant terwijl er zoveel andere diensten probeerden uit te groeien tot zijn voorganger? tijdperk van fragmentatie?

Uiteraard speelden overheidssubsidies een rol. Toen NSF besloot om serieus te investeren in netwerkontwikkeling, onafhankelijk van zijn supercomputerprogramma, verspilde het geen tijd aan kleinigheden. De conceptuele leiders van het NSFNET-programma, Steve Wolfe en Jane Cavines, besloten niet alleen een netwerk van supercomputers te bouwen, maar een nieuwe informatie-infrastructuur voor Amerikaanse hogescholen en universiteiten. Daarom creëerden ze het Connections-programma, dat een deel van de kosten voor het aansluiten van universiteiten op het netwerk op zich nam, in ruil voor het verstrekken van toegang tot het netwerk op hun campussen aan zoveel mogelijk mensen. Dit versnelde de verspreiding van internet zowel direct als indirect. Indirect, omdat uit veel van de regionale netwerken commerciële ondernemingen voortkwamen die dezelfde gesubsidieerde infrastructuur gebruikten om internettoegang aan commerciële organisaties te verkopen.

Maar Minitel kende ook subsidies. Wat het internet echter vooral onderscheidde, was de meerlaagse, gedecentraliseerde structuur en de inherente flexibiliteit ervan. IP zorgde ervoor dat netwerken met totaal verschillende fysieke eigenschappen met hetzelfde adressysteem konden werken, en TCP zorgde voor de bezorging van pakketten bij de ontvanger. Dat is alles. De eenvoud van het basisnetwerkbeheerschema maakte het mogelijk om er bijna elke toepassing aan toe te voegen. Belangrijk is dat elke gebruiker nieuwe functionaliteit kan bijdragen als hij anderen kan overtuigen zijn programma te gebruiken. Het overbrengen van bestanden via FTP was bijvoorbeeld in de beginjaren een van de meest populaire manieren om internet te gebruiken, maar het was onmogelijk om servers te vinden die de bestanden aanboden waarin u geïnteresseerd was, behalve via mond-tot-mondreclame. Daarom hebben ondernemende gebruikers verschillende protocollen gemaakt voor het catalogiseren en onderhouden van lijsten met FTP-servers - bijvoorbeeld Gopher, Archie en Veronica.

Theoretisch, OSI-netwerkmodel er was dezelfde flexibiliteit, evenals de officiële zegen van internationale organisaties en telecommunicatiegiganten om als internetwerkstandaard te dienen. In de praktijk bleef TCP/IP echter het domein, en het doorslaggevende voordeel ervan was de code die eerst op duizenden en daarna op miljoenen machines draaide.

Het overbrengen van de controle over de applicatielaag naar de uiterste randen van het netwerk heeft tot een ander belangrijk gevolg geleid. Dit betekende dat grote organisaties, die gewend waren hun eigen werkterrein te beheren, zich op hun gemak konden voelen. Organisaties zouden hun eigen e-mailservers kunnen opzetten en e-mails kunnen verzenden en ontvangen zonder dat de volledige inhoud op de computer van iemand anders wordt opgeslagen. Ze konden hun eigen domeinnamen registreren, hun eigen websites opzetten die voor iedereen op internet toegankelijk waren, maar deze volledig onder hun controle houden.

Het meest opvallende voorbeeld van een meerlaagse structuur en decentralisatie is uiteraard het World Wide Web. Twintig jaar lang draaiden systemen, van de timesharing-computers uit de jaren zestig tot diensten als CompuServe en Minitel, rond een klein aantal basisdiensten voor informatie-uitwisseling: e-mail, forums en chatrooms. Het web is iets compleet nieuws geworden. De begindagen van het internet, toen het volledig uit unieke, handgemaakte pagina's bestond, lijken in niets op wat het nu is. Het springen van link naar link had echter al een vreemde aantrekkingskracht en gaf bedrijven de mogelijkheid om extreem goedkope reclame en klantenondersteuning te bieden. Geen van de internetarchitecten had plannen voor het web. Het was de vrucht van de creativiteit van Tim Berners-Lee, een Britse ingenieur bij het European Centre for Nuclear Research (CERN), die het in 1960 creëerde met als doel informatie gemakkelijk te verspreiden onder laboratoriumonderzoekers. Het leefde echter gemakkelijk op TCP/IP en gebruikte een domeinnaamsysteem dat voor andere doeleinden was gemaakt voor alomtegenwoordige URL's. Iedereen met internettoegang kon een website maken, en halverwege de jaren negentig leek het alsof iedereen het deed: gemeentehuizen, lokale kranten, kleine bedrijven en allerlei soorten hobbyisten.

privatisering

Ik heb een paar belangrijke gebeurtenissen in dit verhaal over de opkomst van internet weggelaten, en misschien blijf je met een paar vragen zitten. Hoe kregen bedrijven en consumenten bijvoorbeeld precies toegang tot het internet, dat oorspronkelijk gecentreerd was rond NSFNET, een door de Amerikaanse overheid gefinancierd netwerk dat ogenschijnlijk bedoeld was om de onderzoeksgemeenschap te dienen? Om deze vraag te beantwoorden, zullen we in het volgende artikel terugkeren naar enkele belangrijke gebeurtenissen die ik voorlopig niet heb genoemd; gebeurtenissen die het wetenschappelijke staatsinternet geleidelijk maar onvermijdelijk veranderden in een privé- en commercieel internet.

Wat nog te lezen?

  • Janet Abatte, Het internet uitvinden (1999)
  • Karen D. Fraser “NSFNET: een partnerschap voor snelle netwerken, eindrapport” (1996)
  • John S. Quarterman, De Matrix (1990)
  • Peter H. Salus, Het net werpen (1995)

Bron: www.habr.com

Voeg een reactie