L'ascesa di Internet Parte 1: Crescita esponenziale

L'ascesa di Internet Parte 1: Crescita esponenziale

<<Prima di questo: L'era della frammentazione, parte 4: Anarchici

Nel 1990 Giovanni Quartierman, consulente di rete ed esperto UNIX, pubblicò una panoramica completa dello stato delle reti di computer in quel momento. In una breve sezione sul futuro dell'informatica, predisse l'emergere di un'unica rete globale per "e-mail, conferenze, trasferimenti di file, accessi remoti - proprio come oggi esistono una rete telefonica mondiale e una posta mondiale". Tuttavia, non ha attribuito un ruolo speciale a Internet. Ha suggerito che questa rete mondiale "sarà probabilmente gestita da agenzie di comunicazione governative", tranne che negli Stati Uniti, "dove sarà gestita da divisioni regionali delle Bell Operating Companies e da vettori a lunga distanza".

Lo scopo di questo articolo è spiegare come, con la sua improvvisa ed esplosiva crescita esponenziale, Internet abbia ribaltato in modo così palese presupposti perfettamente naturali.

Passaggio del testimone

Il primo evento critico che portò alla nascita della moderna Internet si verificò all’inizio degli anni ’1980, quando la Defense Communications Agency (DCA) [ora DISA] decise di dividere ARPANET in due parti. La DCA assunse il controllo della rete nel 1975. A quel punto era chiaro che l'IPTO (Information Processing Technology Office) dell'ARPA, un'organizzazione dedicata allo studio di idee teoriche, non aveva senso partecipare allo sviluppo di una rete utilizzata non per la ricerca sulle comunicazioni ma per la comunicazione quotidiana. L'ARPA ha tentato senza successo di strappare il controllo della rete alla società privata AT&T. La DCA, responsabile dei sistemi di comunicazione militare, sembrava la migliore seconda opzione.

Durante i primi anni della nuova situazione, ARPANET fiorì in uno stato di beata abbandono. Tuttavia, all'inizio degli anni '1980, la vecchia infrastruttura di comunicazione del Dipartimento della Difesa aveva un disperato bisogno di essere aggiornata. Il progetto sostitutivo proposto, AUTODIN II, per il quale DCA ha scelto Western Union come suo appaltatore, sembra essere fallito. I capi della DCA hanno quindi nominato il colonnello Heidi Hayden incaricato di scegliere un'alternativa. Come base per la nuova rete dati per la difesa egli propose di utilizzare la tecnologia a commutazione di pacchetto, che la DCA aveva già a disposizione sotto forma di ARPANET.

Tuttavia, c'era un evidente problema con la trasmissione di dati militari su ARPANET: la rete era piena di scienziati dai capelli lunghi, alcuni dei quali erano attivamente contrari alla sicurezza o alla segretezza dei computer, ad esempio Richard Stallman con i suoi colleghi hacker del Laboratorio di Intelligenza Artificiale del MIT. Hayden ha proposto di dividere la rete in due parti. Decise di mantenere i ricercatori finanziati dall'ARPA su ARPANET e di separare i computer della difesa in una nuova rete chiamata MILNET. Questa mitosi ha avuto due importanti conseguenze. In primo luogo, la divisione delle parti militari e non militari della rete è stato il primo passo verso il trasferimento di Internet sotto il controllo civile e successivamente sotto il controllo privato. In secondo luogo, era la prova della validità della tecnologia fondamentale di Internet: i protocolli TCP/IP, inventati per la prima volta circa cinque anni prima. La DCA aveva bisogno che tutti i nodi ARPANET passassero dai protocolli legacy al supporto TCP/IP entro l'inizio del 1983. A quel tempo, poche reti utilizzavano TCP/IP, ma il processo successivamente collegò le due reti della proto-Internet, consentendo al traffico di messaggi di collegare la ricerca e le imprese militari secondo necessità. Per garantire la longevità del TCP/IP nelle reti militari, Hayden stabilì un fondo di 20 milioni di dollari per sostenere i produttori di computer che avrebbero scritto software per implementare il TCP/IP sui loro sistemi.

Il primo passo nel graduale passaggio di Internet dal controllo militare a quello privato ci offre anche una buona occasione per dire addio all'ARPA e all'IPTO. Il suo finanziamento e la sua influenza, guidati da Joseph Carl Robnett Licklider, Ivan Sutherland e Robert Taylor, portarono direttamente e indirettamente a tutti i primi sviluppi nel calcolo interattivo e nelle reti di computer. Tuttavia, con la creazione dello standard TCP/IP a metà degli anni ’1970, esso ha giocato per l’ultima volta un ruolo chiave nella storia dei computer.

Il prossimo grande progetto informatico sponsorizzato dalla DARPA sarà il concorso per veicoli autonomi 2004-2005. Il progetto più famoso prima di questo sarebbe stato l’iniziativa miliardaria di calcolo strategico basata sull’intelligenza artificiale degli anni ’1980, che avrebbe dato origine a diverse utili applicazioni militari ma non avrebbe praticamente alcun impatto sulla società civile.

Il catalizzatore decisivo nella perdita di influenza dell'organizzazione fu guerra del Vietnam. La maggior parte dei ricercatori accademici credeva di combattere la buona battaglia e di difendere la democrazia quando la ricerca nell’era della Guerra Fredda veniva finanziata dai militari. Tuttavia, coloro che sono cresciuti negli anni ’1950 e ’1960 hanno perso fiducia nell’esercito e nei suoi obiettivi dopo che questo è rimasto impantanato nella guerra del Vietnam. Tra i primi ci fu lo stesso Taylor, che lasciò l'IPTO nel 1969, portando le sue idee e i suoi legami con Xerox PARC. Il Congresso controllato dai democratici, preoccupato per l’impatto distruttivo del denaro militare sulla ricerca scientifica di base, ha approvato emendamenti che richiedono che i fondi per la difesa siano spesi esclusivamente per la ricerca militare. L'ARPA rifletteva questo cambiamento nella cultura del finanziamento nel 1972 ribattezzandosi DARPA: Agenzia statunitense per i progetti di ricerca avanzata della difesa.

Pertanto il testimone è passato ai civili fondazione scientifica nazionale (NSF). Nel 1980, con un budget di 20 milioni di dollari, la NSF era responsabile del finanziamento di circa la metà dei programmi federali di ricerca informatica negli Stati Uniti. E la maggior parte di questi fondi sarà presto destinata ad una nuova rete informatica nazionale NSFNET.

NSFNET

All'inizio degli anni '1980, Larry Smarr, fisico dell'Università dell'Illinois, visitò l'Istituto. Max Planck di Monaco, dove operava il supercomputer “Cray”, al quale avevano accesso i ricercatori europei. Frustrato dalla mancanza di risorse simili per gli scienziati statunitensi, propose che la NSF finanziasse la creazione di diversi centri di supercalcolo in tutto il paese. L'organizzazione ha risposto a Smarr e ad altri ricercatori con lamentele simili creando la Advanced Scientific Computing Division nel 1984, che ha portato al finanziamento di cinque centri di questo tipo con un budget quinquennale di 42 milioni di dollari, che si estende dalla Cornell University nel nord-est fino a San Diego. .nel Sud-Ovest. Situata nel mezzo, l'Università dell'Illinois, dove lavorava Smarr, ricevette un proprio centro, il National Center for Supercomputing Applications, NCSA.

Tuttavia, la capacità dei centri di migliorare l’accesso alla potenza di calcolo era limitata. Usare i computer per utenti che non vivono vicino a uno dei cinque centri sarebbe difficile e richiederebbe finanziamenti per viaggi di ricerca della durata di un semestre o di un'estate. Pertanto, la NSF ha deciso di costruire anche una rete di computer. La storia si è ripetuta: Taylor promosse la creazione di ARPANET alla fine degli anni '1960 proprio per dare alla comunità di ricerca l'accesso a potenti risorse informatiche. NSF fornirà una dorsale che collegherà i principali centri di supercalcolo, si estenderà in tutto il continente e quindi si collegherà alle reti regionali che consentiranno ad altre università e laboratori di ricerca di accedere a questi centri. La NSF trarrà vantaggio dai protocolli Internet promossi da Hayden decentrando la responsabilità della costruzione delle reti locali alle comunità scientifiche locali.

NSF inizialmente ha trasferito i compiti per creare e mantenere la rete NCSA dall'Università dell'Illinois come fonte della proposta originale di creare un programma nazionale di supercalcolo. L'NCSA a sua volta prese in affitto gli stessi collegamenti a 56 kbps che ARPANET utilizzava dal 1969 e lanciò la rete nel 1986. Tuttavia, queste linee si intasarono rapidamente di traffico (i dettagli di questo processo possono essere trovati nel lavoro di David Mills "Rete centrale NSFNET"). E ancora una volta la storia di ARPANET si è ripetuta: è diventato subito ovvio che il compito principale della rete non dovrebbe essere l'accesso degli scienziati al potere del computer, ma lo scambio di messaggi tra le persone che vi hanno accesso. Gli autori di Si può perdonare ARPANET per non sapere che qualcosa del genere può accadere, ma come è possibile che lo stesso errore si ripeta quasi vent'anni dopo? Una possibile spiegazione è che è molto più semplice giustificare una sovvenzione a sette cifre per l'uso della potenza di calcolo che costa otto cifre che giustificare una spesa del genere per obiettivi apparentemente futili, come la possibilità di scambiare email. Questo non vuol dire che la NSF abbia deliberatamente ingannato qualcuno, ma come principio antropico, afferma che le costanti fisiche dell'Universo sono ciò che lo sono perché altrimenti semplicemente non esisteremmo, e se non potessero osservarli, non avrei bisogno di scrivere di una rete di computer finanziata dal governo se non ci fossero giustificazioni simili, in qualche modo fittizie, per la sua esistenza.

Convinta che la rete stessa valesse almeno quanto i supercomputer che ne giustificano l'esistenza, NSF si è rivolta ad un aiuto esterno per aggiornare la dorsale della rete con collegamenti di capacità T1 (1,5 Mbps). Lo standard T1 è stato fondato da AT&T negli anni '1960 e avrebbe dovuto gestire fino a 24 telefonate, ciascuna delle quali veniva codificata in un flusso digitale a 64 kbit/s.

Merit Network, Inc. si è aggiudicata il contratto. in collaborazione con MCI e IBM, e ha ricevuto una sovvenzione di 58 milioni di dollari da NSF nei suoi primi cinque anni per costruire e mantenere la rete. MCI ha fornito l'infrastruttura di comunicazione, IBM ha fornito la potenza di calcolo e il software per i router. La società no-profit Merit, che gestiva la rete informatica che collegava i campus dell'Università del Michigan, ha portato con sé l'esperienza nel mantenimento di una rete informatica scientifica e ha dato all'intera partnership un'atmosfera universitaria che ha reso più facile l'accettazione da parte di NSF e degli scienziati che hanno utilizzato NSFNET. Tuttavia, il trasferimento dei servizi dalla NCSA alla Merit è stato l’ovvio primo passo verso la privatizzazione.

MERIT originariamente stava per Michigan Educational Research Information Triad. Lo Stato del Michigan ha aggiunto 5 milioni di dollari per aiutare la crescita della propria rete domestica T1.

L'ascesa di Internet Parte 1: Crescita esponenziale

La dorsale Merit trasportava il traffico da più di una dozzina di reti regionali, dalla NYSERNet di New York, una rete di ricerca e istruzione collegata alla Cornell University di Ithaca, al CERFNet, una rete federata di ricerca e istruzione della California collegata a San Diego. Ognuna di queste reti regionali si collegava a innumerevoli reti di campus locali, poiché i laboratori universitari e gli uffici delle facoltà gestivano centinaia di macchine Unix. Questa rete federale di reti è diventata il seme cristallino della moderna Internet. ARPANET collegava solo ricercatori informatici ben finanziati che lavoravano presso istituzioni scientifiche d'élite. E nel 1990 quasi tutti gli studenti e gli insegnanti universitari potevano già collegarsi a Internet. Lanciando pacchetti da un nodo all'altro, tramite Ethernet locale, poi su una rete regionale, quindi su lunghe distanze alla velocità della luce sulla dorsale NSFNET, potevano scambiarsi e-mail o avere conversazioni dignitose su Usenet con colleghi di altre parti del paese. .

Dopo che molte più organizzazioni scientifiche divennero accessibili attraverso NSFNET che attraverso ARPANET, la DCA dismise la rete preesistente nel 1990 ed escluse completamente il Dipartimento della Difesa dallo sviluppo di reti civili.

Decollare

Durante l'intero periodo, il numero di computer connessi a NSFNET e alle reti correlate - e tutto ciò che ora possiamo chiamare Internet - è quasi raddoppiato ogni anno. 28 nel dicembre 000, 1987 nell'ottobre 56,000, 1988 nell'ottobre 159 e così via. Questa tendenza è continuata fino alla metà degli anni '000, e poi la crescita rallentato un po'. Mi chiedo, data questa tendenza, come avrebbe potuto Quarterman non accorgersi che Internet era destinato a governare il mondo? Se la recente epidemia ci ha insegnato qualcosa è che è molto difficile per gli esseri umani immaginare una crescita esponenziale perché non corrisponde a nulla che incontriamo nella vita di tutti i giorni.

Naturalmente, il nome e il concetto di Internet sono antecedenti a NSFNET. Il protocollo Internet è stato inventato nel 1974 e anche prima di NSFNET esistevano reti che comunicavano tramite IP. Abbiamo già menzionato ARPANET e MILNET. Tuttavia, non sono riuscito a trovare alcuna menzione di “internet” – un’unica rete mondiale di reti – prima dell’avvento di NSFNET a tre livelli.

Il numero delle reti all'interno di Internet è cresciuto a un ritmo simile, da 170 nel luglio 1988 a 3500 nell'autunno del 1991. Poiché la comunità scientifica non conosce frontiere, molte di esse erano situate all'estero, a cominciare dai collegamenti con Francia e Canada stabiliti in 1988. Nel 1995 quasi 100 paesi potevano accedere a Internet, dall’Algeria al Vietnam. E sebbene il numero di macchine e reti sia molto più facile da calcolare rispetto al numero di utenti reali, secondo stime ragionevoli, alla fine del 1994 ce n'erano 10-20 milioni.In assenza di dati dettagliati su chi, perché e a che ora utilizzava Internet, è abbastanza difficile dimostrare questa o qualche altra spiegazione storica per una crescita così incredibile. Una piccola raccolta di storie e aneddoti difficilmente può spiegare come si siano collegati a Internet 1991 computer dal gennaio 1992 al gennaio 350, poi 000 l'anno successivo e altri 600 milioni l'anno successivo.

Tuttavia, mi avventurerò in questo territorio epistemicamente instabile e sosterrò che le tre ondate sovrapposte di utenti responsabili della crescita esplosiva di Internet, ciascuna con le proprie ragioni per connettersi, sono state guidate da una logica inesorabile Legge di Metcalfe, che dice che il valore (e quindi il potere di attrazione) di una rete aumenta al quadrato del numero dei suoi partecipanti.

Gli scienziati sono venuti per primi. La NSF ha diffuso intenzionalmente il calcolo a quante più università possibile. Successivamente, ogni scienziato ha voluto unirsi al progetto perché tutti gli altri erano già presenti. Se le e-mail potrebbero non arrivarti, se potresti non vedere o partecipare alle ultime discussioni su Usenet, rischierai di perdere l'annuncio di una conferenza importante, la possibilità di trovare un mentore, di perdere una ricerca all'avanguardia prima che venga pubblicata e così via. . Sentendosi spinte a partecipare alle conversazioni scientifiche online, le università si sono rapidamente collegate alle reti regionali che potevano collegarle alla dorsale NSFNET. Ad esempio, NEARNET, che copriva sei stati nella regione del New England, aveva acquisito più di 1990 membri all’inizio degli anni ’200.

Allo stesso tempo, l’accesso cominciò a diffondersi dai docenti e dagli studenti laureati alla comunità molto più ampia di studenti. Nel 1993, circa il 70% delle matricole di Harvard aveva un indirizzo email. A quel punto, Internet ad Harvard aveva raggiunto fisicamente tutti gli angoli e le istituzioni associate. L'università ha sostenuto spese significative per fornire Ethernet non solo a ogni edificio dell'istituto scolastico, ma anche a tutti i dormitori degli studenti. Sicuramente non sarebbe passato molto tempo prima che uno degli studenti fosse il primo a inciampare nella sua stanza dopo una notte tempestosa, cadere su una sedia e faticare a scrivere un'e-mail che si era pentito di aver inviato la mattina successiva - fosse una dichiarazione d'amore o un furioso rimprovero al nemico.

Nell'ondata successiva, intorno al 1990, iniziarono ad arrivare gli utenti commerciali. Quell'anno furono registrati 1151 domini .com. I primi partecipanti commerciali furono i dipartimenti di ricerca delle aziende tecnologiche (Bell Labs, Xerox, IBM, ecc.). Essenzialmente utilizzavano la rete per scopi scientifici. La comunicazione commerciale tra i loro leader passava attraverso altre reti. Tuttavia, nel 1994 esisteva Esistono già più di 60 nomi nel dominio .com e il guadagno su Internet è iniziato seriamente.

Verso la fine degli anni ’1980, i computer iniziarono a diventare parte del lavoro quotidiano e della vita domestica dei cittadini statunitensi, e l’importanza di una presenza digitale per qualsiasi azienda seria divenne evidente. La posta elettronica offriva un modo per scambiare messaggi in modo semplice ed estremamente rapido con colleghi, clienti e fornitori. Le mailing list e Usenet offrivano sia nuovi modi per tenere il passo con gli sviluppi nella comunità professionale, sia nuove forme di pubblicità molto economica per un'ampia gamma di utenti. Attraverso Internet è stato possibile accedere a un'enorme varietà di database gratuiti: legali, medici, finanziari e politici. Gli studenti di ieri che trovavano lavoro e vivevano in dormitori collegati si innamoravano di Internet tanto quanto i loro datori di lavoro. Offriva l'accesso a un insieme di utenti molto più ampio rispetto a qualsiasi singolo servizio commerciale (ancora la legge di Metcalfe). Dopo aver pagato per un mese di accesso a Internet, quasi tutto il resto era gratuito, a differenza delle elevate tariffe orarie o per messaggio richieste da CompuServe e altri servizi simili. Tra i primi ad entrare nel mercato Internet c'erano società di vendita per corrispondenza, come The Corner Store di Litchfield, Connecticut, che faceva pubblicità nei gruppi Usenet, e The Online Bookstore, un negozio di e-book fondato da un ex editore di Little, Brown and Company, e altro ancora dieci anni avanti rispetto al Kindle.

E poi è arrivata la terza ondata di crescita, che ha attirato i consumatori di tutti i giorni che hanno iniziato ad andare online in gran numero a metà degli anni ’1990. A questo punto, la Legge di Metcalfe stava già funzionando al massimo. Sempre più spesso “essere online” significava “essere su Internet”. I consumatori non potevano permettersi di estendere le linee dedicate della classe T1 alle loro case, quindi accedevano quasi sempre a Internet tramite modem di accesso remoto. Abbiamo già visto parte di questa storia quando le BBS commerciali si sono gradualmente trasformate in provider Internet. Questo cambiamento ha avvantaggiato sia gli utenti (il cui pool digitale era improvvisamente cresciuto fino a raggiungere l'oceano) sia gli stessi BBS, che sono passati al business molto più semplice di intermediari tra il sistema telefonico e il throughput della "dorsale" di Internet in T1, senza la necessità di mantenere i propri servizi.

Servizi online più grandi si sono sviluppati lungo la stessa linea. Nel 1993, tutti i servizi nazionali negli Stati Uniti - Prodigy, CompuServe, GEnie e la neonata società America Online (AOL) - offrivano a un totale di 3,5 milioni di utenti la possibilità di inviare e-mail a indirizzi Internet. E solo la ritardataria Delphi (con 100 abbonati) offriva pieno accesso a Internet. Tuttavia, negli anni successivi, il valore dell’accesso a Internet, che ha continuato a crescere a un ritmo esponenziale, ha rapidamente superato l’accesso ai forum proprietari, ai giochi, ai negozi e ad altri contenuti dei servizi commerciali stessi. Il 000 segnò un punto di svolta: a ottobre il 1996% degli utenti online utilizzavano il WWW, rispetto al 73% dell'anno precedente. È stato coniato un nuovo termine, “portale”, per descrivere i resti dei servizi forniti da AOL, Prodigy e altre società a cui le persone pagavano solo per accedere a Internet.

ingrediente segreto

Quindi, abbiamo un'idea approssimativa di come Internet sia cresciuta a un ritmo così esplosivo, ma non abbiamo ancora capito perché ciò sia accaduto. Perché è diventato così dominante quando c’era una tale varietà di altri servizi che cercavano di crescere fino a diventare il suo predecessore? epoca di frammentazione?

Naturalmente, i sussidi statali hanno avuto un ruolo. Oltre a finanziare la dorsale, quando NSF ha deciso di investire seriamente nello sviluppo della rete indipendentemente dal suo programma di supercalcolo, non ha perso tempo in sciocchezze. I leader concettuali del programma NSFNET, Steve Wolfe e Jane Cavines, hanno deciso di costruire non solo una rete di supercomputer, ma una nuova infrastruttura informatica per i college e le università americane. Così hanno creato il programma Connections, che si assumeva parte dei costi di connessione delle università alla rete in cambio della fornitura di accesso alla rete a quante più persone possibile nei loro campus. Ciò ha accelerato la diffusione di Internet sia direttamente che indirettamente. Indirettamente, perché molte delle reti regionali hanno dato vita ad imprese commerciali che hanno utilizzato la stessa infrastruttura sovvenzionata per vendere l’accesso a Internet alle organizzazioni commerciali.

Ma Minitel aveva anche dei sussidi. Tuttavia, ciò che distingue maggiormente Internet è la sua struttura decentralizzata a più livelli e la sua flessibilità intrinseca. IP consentiva a reti con proprietà fisiche completamente diverse di funzionare con lo stesso sistema di indirizzi e TCP assicurava la consegna dei pacchetti al destinatario. È tutto. La semplicità dello schema operativo di rete di base ha permesso di aggiungervi quasi tutte le applicazioni. È importante sottolineare che qualsiasi utente potrebbe contribuire con nuove funzionalità se riuscisse a convincere altri a utilizzare il suo programma. Ad esempio, il trasferimento di file tramite FTP era uno dei modi più popolari per utilizzare Internet nei primi anni, ma era impossibile trovare server che offrissero i file che ti interessavano se non attraverso il passaparola. Pertanto, gli utenti intraprendenti hanno creato vari protocolli per catalogare e mantenere elenchi di server FTP, ad esempio Gopher, Archie e Veronica.

Teoricamente, Modello di rete OSI c’era la stessa flessibilità, così come la benedizione ufficiale delle organizzazioni internazionali e dei giganti delle telecomunicazioni a fungere da standard di internetworking. Tuttavia, in pratica, il campo rimaneva con TCP/IP, e il suo vantaggio decisivo era il codice che girava prima su migliaia e poi su milioni di macchine.

Il trasferimento del controllo del livello applicativo ai margini estremi della rete ha portato a un’altra importante conseguenza. Ciò significava che le grandi organizzazioni, abituate a gestire la propria sfera di attività, potevano sentirsi a proprio agio. Le organizzazioni potrebbero configurare i propri server di posta elettronica e inviare e ricevere e-mail senza che tutti i contenuti vengano archiviati sul computer di qualcun altro. Potrebbero registrare i propri nomi di dominio, creare propri siti web accessibili a tutti su Internet, ma tenerli completamente sotto il loro controllo.

Naturalmente, l’esempio più eclatante di struttura multistrato e di decentralizzazione è il World Wide Web. Per due decenni, i sistemi, dai computer time-sharing degli anni '1960 a servizi come CompuServe e Minitel, hanno ruotato attorno a un piccolo insieme di servizi di base per lo scambio di informazioni: posta elettronica, forum e chat room. Il web è diventato qualcosa di completamente nuovo. Gli albori del web, quando consisteva interamente di pagine uniche e realizzate a mano, non hanno niente a che vedere con quello che è oggi. Tuttavia, saltare da un collegamento all'altro aveva già uno strano fascino e dava alle aziende l'opportunità di fornire pubblicità e assistenza clienti estremamente economici. Nessuno degli architetti di Internet ha pianificato il web. È stato il frutto della creatività di Tim Berners-Lee, un ingegnere britannico del Centro europeo per la ricerca nucleare (CERN), che lo ha creato nel 1990 con l'obiettivo di distribuire comodamente le informazioni tra i ricercatori di laboratorio. Tuttavia, viveva facilmente su TCP/IP e utilizzava un sistema di nomi di dominio creato per altri scopi per URL onnipresenti. Chiunque avesse accesso a Internet poteva creare un sito web e, a metà degli anni '90, sembrava che lo facessero tutti: municipi, giornali locali, piccole imprese e hobbisti di ogni tipo.

la privatizzazione

Ho tralasciato alcuni eventi importanti in questa storia sull'ascesa di Internet e potresti rimanere con alcune domande. Ad esempio, come hanno fatto esattamente le aziende e i consumatori ad accedere a Internet, originariamente incentrato su NSFNET, una rete finanziata dal governo statunitense apparentemente destinata a servire la comunità di ricerca? Per rispondere a questa domanda, nel prossimo articolo torneremo su alcuni avvenimenti importanti che per ora non ho menzionato; eventi che gradualmente ma inevitabilmente hanno trasformato l'Internet scientifica statale in un'Internet privata e commerciale.

Cos'altro leggere

  • Janet Abatte, Inventare Internet (1999)
  • Karen D. Fraser “NSFNET: una partnership per reti ad alta velocità, rapporto finale” (1996)
  • John S. Quarterman, Matrix (1990)
  • Peter H. Salus, Gettare la rete (1995)

Fonte: habr.com

Aggiungi un commento