L'essor d'Internet, partie 1 : croissance exponentielle

L'essor d'Internet, partie 1 : croissance exponentielle

<< Avant ceci : L'ère de la fragmentation, partie 4 : les anarchistes

Dans le 1990e John Quarterman, consultant en réseaux et expert UNIX, a publié un aperçu complet de l'état des réseaux informatiques à cette époque. Dans une courte section sur l'avenir de l'informatique, il a prédit l'émergence d'un réseau mondial unique pour "le courrier électronique, les conférences, les transferts de fichiers, les connexions à distance - tout comme il existe aujourd'hui un réseau téléphonique et un courrier mondiaux". Cependant, il n’accorde pas de rôle particulier à Internet. Il a suggéré que ce réseau mondial « sera probablement exploité par des agences de communications gouvernementales », sauf aux États-Unis, « où il sera exploité par les divisions régionales des sociétés d'exploitation Bell et des opérateurs longue distance ».

Le but de cet article est d’expliquer comment, avec sa croissance exponentielle et soudaine, Internet a bouleversé de manière aussi flagrante des hypothèses parfaitement naturelles.

Passer le relais

Le premier événement critique menant à l’émergence de l’Internet moderne s’est produit au début des années 1980, lorsque la Defense Communications Agency (DCA) [maintenant DISA] a décidé de diviser l’ARPANET en deux parties. DCA a pris le contrôle du réseau en 1975. À ce moment-là, il était clair que l’Information Processing Technology Office (IPTO) de l’ARPA, une organisation dédiée à l’étude des idées théoriques, n’avait aucun sens à participer au développement d’un réseau utilisé non pas pour la recherche en communication mais pour la communication quotidienne. L'ARPA a tenté en vain de reprendre le contrôle du réseau à la société privée AT&T. La DCA, responsable des systèmes de communications militaires, semblait être la meilleure deuxième option.

Durant les premières années de cette nouvelle situation, ARPANET a prospéré dans un état de négligence béate. Cependant, au début des années 1980, l'infrastructure de communication vieillissante du ministère de la Défense avait désespérément besoin d'une mise à niveau. Le projet de remplacement proposé, AUTODIN II, pour lequel DCA a choisi Western Union comme entrepreneur, semble avoir échoué. Les dirigeants de la DCA ont alors nommé le colonel Heidi Hayden chargé de choisir une alternative. Il a proposé d'utiliser la technologie de commutation de paquets, dont DCA disposait déjà sous la forme d'ARPANET, comme base du nouveau réseau de données de défense.

Cependant, il y avait un problème évident avec la transmission de données militaires sur ARPANET - le réseau regorgeait de scientifiques aux cheveux longs, dont certains étaient activement opposés à la sécurité informatique ou au secret - par exemple, Richard Stallman avec ses collègues hackers du MIT Artificial Intelligence Lab. Hayden a proposé de diviser le réseau en deux parties. Il a décidé de garder les chercheurs financés par l'ARPA sur l'ARPANET et de séparer les ordinateurs de la défense dans un nouveau réseau appelé MILNET. Cette mitose a eu deux conséquences importantes. Premièrement, la division des parties militaires et non militaires du réseau a été la première étape vers le transfert d'Internet sous contrôle civil, puis privé. Deuxièmement, c'était la preuve de la viabilité de la technologie phare d'Internet : les protocoles TCP/IP, inventés pour la première fois environ cinq ans plus tôt. La DCA avait besoin que tous les nœuds ARPANET passent des protocoles existants au support TCP/IP au début de 1983. À cette époque, peu de réseaux utilisaient TCP/IP, mais le processus a ensuite connecté les deux réseaux du proto-Internet, permettant au trafic de messages de relier les entreprises de recherche et militaires selon les besoins. Pour assurer la longévité du TCP/IP dans les réseaux militaires, Hayden a créé un fonds de 20 millions de dollars pour soutenir les fabricants d'ordinateurs qui écriraient des logiciels pour implémenter TCP/IP sur leurs systèmes.

La première étape du transfert progressif d’Internet du contrôle militaire au contrôle privé nous donne également une bonne occasion de dire au revoir à l’ARPA et à l’IPTO. Son financement et son influence, dirigés par Joseph Carl Robnett Licklider, Ivan Sutherland et Robert Taylor, ont conduit directement et indirectement à tous les premiers développements de l'informatique interactive et des réseaux informatiques. Cependant, avec la création du standard TCP/IP au milieu des années 1970, il a joué pour la dernière fois un rôle clé dans l’histoire des ordinateurs.

Le prochain grand projet informatique parrainé par la DARPA sera le concours de véhicules autonomes 2004-2005. Le projet le plus célèbre avant celui-ci serait l’initiative de calcul stratégique basée sur l’IA, d’un milliard de dollars, des années 1980, qui donnerait naissance à plusieurs applications militaires utiles mais n’aurait pratiquement aucun impact sur la société civile.

Le catalyseur décisif de la perte d’influence de l’organisation a été La guerre du Vietnam. La plupart des chercheurs universitaires pensaient mener le bon combat et défendre la démocratie alors que la recherche datant de la guerre froide était financée par l’armée. Cependant, ceux qui ont grandi dans les années 1950 et 1960 ont perdu confiance dans l’armée et dans ses objectifs après qu’elle se soit embourbée dans la guerre du Vietnam. Parmi les premiers figurait Taylor lui-même, qui a quitté l'IPTO en 1969, apportant ses idées et ses relations à Xerox PARC. Le Congrès, contrôlé par les démocrates, préoccupé par l'impact destructeur de l'argent militaire sur la recherche scientifique fondamentale, a adopté des amendements exigeant que l'argent de la défense soit consacré exclusivement à la recherche militaire. L'ARPA a reflété ce changement de culture de financement en 1972 en se rebaptisant DARPA— Agence américaine pour les projets de recherche avancée de défense.

Le relais est donc passé au civil Fondation nationale de la science (NSF). En 1980, avec un budget de 20 millions de dollars, la NSF était responsable du financement d'environ la moitié des programmes fédéraux de recherche informatique aux États-Unis. Et la plupart de ces fonds seront bientôt alloués à un nouveau réseau informatique national NSFNET.

NSFNET

Au début des années 1980, Larry Smarr, physicien à l'Université de l'Illinois, a visité l'Institut. Max Planck à Munich, où fonctionnait le supercalculateur « Cray », auquel les chercheurs européens avaient accès. Frustré par le manque de ressources similaires pour les scientifiques américains, il a proposé que la NSF finance la création de plusieurs centres de calcul intensif à travers le pays. L'organisation a répondu à Smarr et à d'autres chercheurs avec des plaintes similaires en créant la Division de calcul scientifique avancé en 1984, ce qui a conduit au financement de cinq centres de ce type avec un budget quinquennal de 42 millions de dollars, s'étendant de l'Université Cornell au nord-est jusqu'à San Diego. .au Sud-Ouest. Située entre les deux, l'Université de l'Illinois, où travaillait Smarr, a reçu son propre centre, le National Center for Supercomputing Applications, NCSA.

Cependant, la capacité des centres à améliorer l'accès à la puissance de calcul était limitée. Utiliser leurs ordinateurs pour des utilisateurs ne résidant pas à proximité de l'un des cinq centres serait difficile et nécessiterait le financement de voyages de recherche d'un semestre ou d'un été. NSF a donc décidé de construire également un réseau informatique. L’histoire s’est répétée : Taylor a promu la création d’ARPANET à la fin des années 1960 précisément pour donner à la communauté des chercheurs l’accès à de puissantes ressources informatiques. NSF fournira une infrastructure qui reliera les principaux centres de calcul intensif, s'étendra à travers le continent, puis se connectera aux réseaux régionaux qui permettront à d'autres universités et laboratoires de recherche d'accéder à ces centres. La NSF tirera parti des protocoles Internet promus par Hayden en déléguant la responsabilité de la construction de réseaux locaux aux communautés scientifiques locales.

La NSF a initialement transféré les tâches de création et de maintenance du réseau NCSA de l'Université de l'Illinois en tant que source de la proposition initiale visant à créer un programme national de calcul intensif. NCSA a à son tour loué les mêmes liaisons à 56 kbps qu'ARPANET utilisait depuis 1969 et a lancé le réseau en 1986. Cependant, ces lignes se sont rapidement encombrées de trafic (les détails de ce processus peuvent être trouvés dans l'ouvrage de David Mills "Réseau central NSFNET"). Et encore une fois, l'histoire d'ARPANET s'est répétée - il est rapidement devenu évident que la tâche principale du réseau ne devait pas être l'accès des scientifiques à la puissance informatique, mais l'échange de messages entre les personnes qui y avaient accès. Les auteurs de On peut pardonner à ARPANET de ne pas savoir qu'une telle chose peut se produire - mais comment la même erreur pourrait-elle se reproduire près de vingt ans plus tard ? Une explication possible est qu'il est beaucoup plus facile de justifier une subvention à sept chiffres pour l'utilisation de la puissance de calcul que coûte huit chiffres que de justifier de dépenser de telles sommes pour des objectifs apparemment frivoles, comme la possibilité d'échanger des courriels. Cela ne veut pas dire que la NSF a délibérément induit qui que ce soit en erreur. Mais en tant que principe anthropique, elle stipule que les constantes physiques de l'Univers sont ce qui ils le sont parce que sinon nous n'existerions tout simplement pas, et nous n'existerions tout simplement pas. S'ils ne pouvaient pas les observer, je n'aurais pas à écrire sur un réseau informatique financé par le gouvernement s'il n'y avait pas des justifications similaires, quelque peu fictives, pour son existence.

Convaincue que le réseau lui-même était au moins aussi précieux que les supercalculateurs qui justifient son existence, NSF s'est tournée vers une aide extérieure pour mettre à niveau l'épine dorsale du réseau avec des liaisons de capacité T1 (1,5 Mbps). La norme T1 a été fondée par AT&T dans les années 1960 et était censée traiter jusqu'à 24 appels téléphoniques, chacun étant codé dans un flux numérique à 64 kbit/s.

Merit Network, Inc. a remporté le contrat. en partenariat avec MCI et IBM, et a reçu une subvention de 58 millions de dollars de la NSF au cours de ses cinq premières années pour construire et entretenir le réseau. MCI a fourni l'infrastructure de communication, IBM a fourni la puissance de calcul et les logiciels pour les routeurs. La société à but non lucratif Merit, qui exploitait le réseau informatique reliant les campus de l'Université du Michigan, a apporté avec elle son expérience dans la maintenance d'un réseau informatique scientifique et a donné à l'ensemble du partenariat une atmosphère universitaire qui l'a rendu plus facile à accepter par la NSF et les scientifiques qui utilisaient NSFNET. . Cependant, le transfert des services de NCSA à Merit était la première étape évidente vers la privatisation.

MERIT signifiait à l'origine Michigan Educational Research Information Triad. L'État du Michigan a ajouté 5 millions de dollars pour aider son réseau domestique T1 à se développer.

L'essor d'Internet, partie 1 : croissance exponentielle

La dorsale Merit transportait le trafic de plus d'une douzaine de réseaux régionaux, du NYSERNet de New York, un réseau de recherche et d'éducation connecté à l'Université Cornell d'Ithaca, au CERFNet, un réseau de recherche et d'éducation fédéré de Californie connecté à San Diego. Chacun de ces réseaux régionaux était connecté à d'innombrables réseaux de campus locaux, les laboratoires universitaires et les bureaux des facultés exécutant des centaines de machines Unix. Ce réseau fédéral de réseaux est devenu le germe de l’Internet moderne. ARPANET connectait uniquement des chercheurs en informatique bien financés travaillant dans des institutions scientifiques d'élite. Et en 1990, presque tous les étudiants ou enseignants universitaires pouvaient déjà accéder à Internet. En envoyant des paquets de nœud en nœud – via Ethernet local, puis sur un réseau régional, puis sur de longues distances à la vitesse de la lumière sur le réseau fédérateur NSFNET – ils pouvaient échanger des e-mails ou avoir des conversations Usenet dignes avec des collègues d'autres régions du pays. .

Après que beaucoup plus d'organisations scientifiques soient devenues accessibles via NSFNET que via ARPANET, la DCA a mis hors service l'ancien réseau en 1990 et a complètement exclu le ministère de la Défense du développement de réseaux civils.

Décoller

Au cours de toute cette période, le nombre d'ordinateurs connectés à NSFNET et aux réseaux associés - et tout cela que nous pouvons désormais appeler Internet - a presque doublé chaque année. 28 000 en décembre 1987, 56,000 1988 en octobre 159, 000 1989 en octobre 1990, etc. Cette tendance s'est poursuivie jusqu'au milieu des années XNUMX, puis la croissance ralenti un peu. Comment, compte tenu de cette tendance, je me demande, Quarterman aurait-il pu ne pas remarquer qu’Internet était destiné à gouverner le monde ? Si la récente épidémie nous a appris quelque chose, c’est qu’il est très difficile pour l’humain d’imaginer une croissance exponentielle car elle ne correspond à rien de ce que l’on rencontre dans la vie de tous les jours.

Bien entendu, le nom et le concept d’Internet sont antérieurs à NSFNET. Le protocole Internet a été inventé en 1974, et même avant NSFNET, il existait des réseaux communiquant sur IP. Nous avons déjà évoqué ARPANET et MILNET. Cependant, je n’ai trouvé aucune mention d’« Internet » – un réseau mondial unique de réseaux – avant l’avènement du NSFNET à trois niveaux.

Le nombre de réseaux au sein d'Internet a augmenté à un rythme similaire, passant de 170 en juillet 1988 à 3500 1991 à l'automne 1988. La communauté scientifique ne connaissant pas de frontières, nombre d'entre eux étaient situés à l'étranger, à commencer par les connexions avec la France et le Canada établies en 1995. 100. En 1994, près de 10 pays pouvaient accéder à Internet, de l’Algérie au Vietnam. Et bien que le nombre de machines et de réseaux soit beaucoup plus facile à calculer que le nombre d'utilisateurs réels, selon des estimations raisonnables, ils étaient entre 20 et 1991 millions à la fin de 1992. En l'absence de données détaillées sur qui, pourquoi et à quelle époque Internet a été utilisé, il est assez difficile de justifier cette explication historique ou toute autre explication historique d'une croissance aussi incroyable. Un petit recueil d'histoires et d'anecdotes peut difficilement expliquer comment 350 000 ordinateurs se sont connectés à Internet entre janvier 600 et janvier 000, puis 1,1 XNUMX l'année suivante, et encore XNUMX million l'année suivante.

Cependant, je m'aventurerai sur ce territoire épistémiquement fragile et soutiendrai que les trois vagues superposées d'utilisateurs responsables de la croissance explosive d'Internet, chacune avec ses propres raisons de se connecter, étaient motivées par une logique inexorable. Loi de Metcalfe, qui dit que la valeur (et donc le pouvoir d’attraction) d’un réseau augmente comme le carré du nombre de ses participants.

Les scientifiques sont venus en premier. La NSF a intentionnellement étendu le calcul au plus grand nombre d’universités possible. Après cela, tous les scientifiques ont voulu rejoindre le projet car tous les autres étaient déjà là. Si les e-mails ne vous parviennent pas, si vous ne voyez pas ou ne participez pas aux dernières discussions sur Usenet, vous risquez de manquer l'annonce d'une conférence importante, la chance de trouver un mentor, de manquer une recherche de pointe avant sa publication, etc. . Se sentant obligées de participer aux conversations scientifiques en ligne, les universités se sont rapidement connectées aux réseaux régionaux qui pourraient les connecter à l'épine dorsale du NSFNET. Par exemple, NEARNET, qui couvre six États de la région de la Nouvelle-Angleterre, comptait plus de 1990 membres au début des années 200.

Dans le même temps, l’accès a commencé à s’étendre des professeurs et des étudiants diplômés à la communauté beaucoup plus large des étudiants. En 1993, environ 70 % des étudiants de première année de Harvard possédaient une adresse e-mail. À cette époque, Internet à Harvard avait physiquement atteint tous les coins et institutions associées. L'université a engagé des dépenses importantes afin de fournir Ethernet non seulement à chaque bâtiment de l'établissement d'enseignement, mais également à tous les dortoirs d'étudiants. Il ne faudra sûrement pas longtemps avant qu'un des étudiants soit le premier à tomber dans sa chambre après une nuit d'orage, à tomber sur une chaise et à se battre pour taper un e-mail qu'il regrette d'avoir envoyé le lendemain matin - qu'il s'agisse d'une déclaration d'amour ou d'un message d'amour. une réprimande furieuse à l’ennemi.

Lors de la vague suivante, vers 1990, les utilisateurs commerciaux ont commencé à arriver. Cette année-là, 1151 1994 domaines .com ont été enregistrés. Les premiers acteurs commerciaux ont été les services de recherche d'entreprises technologiques (Bell Labs, Xerox, IBM, etc.). Ils utilisaient essentiellement le réseau à des fins scientifiques. La communication commerciale entre leurs dirigeants passait par d'autres réseaux. Cependant, dès XNUMX existé Il existe déjà plus de 60 000 noms de domaine .com et gagner de l'argent sur Internet a véritablement commencé.

À la fin des années 1980, les ordinateurs ont commencé à faire partie de la vie professionnelle et familiale quotidienne des citoyens américains, et l’importance d’une présence numérique pour toute entreprise sérieuse est devenue évidente. Le courrier électronique offre un moyen d'échanger des messages facilement et extrêmement rapidement avec des collègues, des clients et des fournisseurs. Les listes de diffusion et Usenet offraient à la fois de nouveaux moyens de suivre l'évolution de la communauté professionnelle et de nouvelles formes de publicité très bon marché destinée à un large éventail d'utilisateurs. Grâce à Internet, il est possible d'accéder à une grande variété de bases de données gratuites – juridiques, médicales, financières et politiques. Les étudiants d'hier qui trouvaient un emploi et vivaient dans des dortoirs connectés sont tombés amoureux d'Internet tout autant que leurs employeurs. Il offrait l'accès à un ensemble d'utilisateurs beaucoup plus large que n'importe lequel des services commerciaux individuels (là encore la loi de Metcalfe). Après avoir payé un mois d'accès Internet, presque tout le reste était gratuit, contrairement aux frais élevés par heure ou par message qu'exigeaient CompuServe et d'autres services similaires. Parmi les premiers entrants sur le marché Internet figuraient des sociétés de vente par correspondance, telles que The Corner Store de Litchfield, Connecticut, qui faisait de la publicité dans les groupes Usenet, et The Online Bookstore, une boutique de livres électroniques fondée par un ancien rédacteur en chef de Little, Brown and Company, et plus de dix ans d'avance sur le Kindle.

Puis est arrivée la troisième vague de croissance, attirant des consommateurs ordinaires qui ont commencé à se connecter en grand nombre au milieu des années 1990. À cette époque, la loi de Metcalfe fonctionnait déjà à plein régime. De plus en plus, « être en ligne » signifiait « être sur Internet ». Les consommateurs ne pouvaient pas se permettre d'étendre des lignes dédiées de classe T1 jusqu'à leur domicile, ils accédaient donc presque toujours à Internet via modem commuté. Nous avons déjà vu une partie de cette histoire lorsque les BBS commerciaux se sont progressivement transformés en fournisseurs Internet. Ce changement a profité à la fois aux utilisateurs (dont le pool numérique s'était soudainement étendu jusqu'à l'océan) et aux BBS eux-mêmes, qui sont passés au métier beaucoup plus simple d'intermédiaire entre le système téléphonique et le débit du « backbone » Internet en T1, sans avoir besoin de maintenir leurs propres services.

De plus grands services en ligne se sont développés dans le même sens. En 1993, tous les services nationaux des États-Unis – Prodigy, CompuServe, GEnie et la toute jeune société America Online (AOL) – offraient à un total de 3,5 millions d'utilisateurs la possibilité d'envoyer des courriers électroniques à des adresses Internet. Et seule Delphi, en retard (avec 100 000 abonnés), offrait un accès complet à Internet. Cependant, au cours des années suivantes, la valeur de l’accès à Internet, qui a continué de croître à un rythme exponentiel, a rapidement dépassé l’accès aux forums propriétaires, aux jeux, aux magasins et autres contenus des services commerciaux eux-mêmes. L'année 1996 marque un tournant : en octobre, 73 % des internautes se connectant à Internet utilisaient le WWW, contre 21 % l'année précédente. Un nouveau terme a été inventé, « portail », pour décrire les vestiges des services fournis par AOL, Prodigy et d'autres sociétés pour lesquelles les gens payaient de l'argent simplement pour accéder à Internet.

ingrédient secret

Nous avons donc une idée approximative de la façon dont Internet s'est développé à un rythme aussi explosif, mais nous n'avons pas vraiment compris pourquoi cela s'est produit. Pourquoi est-il devenu si dominant alors qu’une telle variété d’autres services tentaient de devenir son prédécesseur ? ère de fragmentation?

Bien entendu, les subventions gouvernementales ont joué un rôle. En plus de financer l'infrastructure, lorsque la NSF a décidé d'investir sérieusement dans le développement de réseaux indépendamment de son programme de calcul intensif, elle n'a pas perdu de temps en bagatelles. Les responsables conceptuels du programme NSFNET, Steve Wolfe et Jane Cavines, ont décidé de construire non seulement un réseau de superordinateurs, mais aussi une nouvelle infrastructure d'information pour les collèges et universités américains. Ils ont donc créé le programme Connections, qui a pris en charge une partie des coûts de connexion des universités au réseau en échange de l'accès au réseau du plus grand nombre sur leurs campus. Cela a accéléré la diffusion d’Internet, directement et indirectement. Indirectement, parce que de nombreux réseaux régionaux ont donné naissance à des entreprises commerciales qui ont utilisé la même infrastructure subventionnée pour vendre l'accès à Internet à des organisations commerciales.

Mais le Minitel avait aussi des subventions. Cependant, ce qui distinguait avant tout Internet était sa structure décentralisée à plusieurs niveaux et sa flexibilité inhérente. IP permettait à des réseaux ayant des propriétés physiques complètement différentes de fonctionner avec le même système d'adresses, et TCP assurait la livraison des paquets au destinataire. C'est tout. La simplicité du schéma de fonctionnement de base du réseau a permis d'y ajouter presque toutes les applications. Il est important de noter que n'importe quel utilisateur pourrait apporter de nouvelles fonctionnalités s'il parvenait à convaincre les autres d'utiliser son programme. Par exemple, le transfert de fichiers via FTP était l'un des moyens les plus populaires d'utiliser Internet dans les premières années, mais il était impossible de trouver des serveurs proposant les fichiers qui vous intéressaient, sauf par le bouche à oreille. Par conséquent, les utilisateurs entreprenants ont créé divers protocoles pour cataloguer et maintenir des listes de serveurs FTP - par exemple Gopher, Archie et Veronica.

Théoriquement, Modèle de réseau OSI il y avait la même flexibilité, ainsi que la bénédiction officielle des organisations internationales et des géants des télécommunications pour servir de norme d'interconnexion des réseaux. Cependant, dans la pratique, le domaine restait celui de TCP/IP, et son avantage décisif résidait dans le code qui s'exécutait d'abord sur des milliers, puis sur des millions de machines.

Le transfert du contrôle de la couche application jusqu’aux limites du réseau a entraîné une autre conséquence importante. Cela signifiait que les grandes organisations, habituées à gérer leur propre domaine d'activité, pouvaient se sentir à l'aise. Les organisations pourraient configurer leurs propres serveurs de messagerie et envoyer et recevoir des e-mails sans que tout le contenu soit stocké sur l'ordinateur de quelqu'un d'autre. Ils pourraient enregistrer leurs propres noms de domaine, créer leurs propres sites Web accessibles à tous sur Internet, mais les garder entièrement sous leur contrôle.

Naturellement, l’exemple le plus frappant de structure à plusieurs niveaux et de décentralisation est le World Wide Web. Pendant deux décennies, les systèmes, depuis les ordinateurs à temps partagé des années 1960 jusqu'aux services comme CompuServe et Minitel, tournaient autour d'un petit ensemble de services d'échange d'informations de base : courrier électronique, forums et salons de discussion. Le Web est devenu quelque chose de complètement nouveau. Les débuts du Web, lorsqu’il était entièrement constitué de pages uniques créées à la main, n’ont rien à voir avec ce qu’il est aujourd’hui. Cependant, passer d'un lien à l'autre présentait déjà un attrait étrange et donnait aux entreprises la possibilité de proposer une publicité et un support client extrêmement bon marché. Aucun des architectes Internet n’a prévu le Web. C'est le fruit de la créativité de Tim Berners-Lee, ingénieur britannique du Centre européen de recherche nucléaire (CERN), qui l'a créé en 1990 dans le but de diffuser facilement des informations entre les chercheurs des laboratoires. Cependant, il vivait facilement de TCP/IP et utilisait un système de noms de domaine créé à d’autres fins pour des URL omniprésentes. N'importe qui ayant accès à Internet pouvait créer un site Web, et au milieu des années 90, il semblait que tout le monde le faisait : les mairies, les journaux locaux, les petites entreprises et les amateurs de tous bords.

La privatisation

J'ai omis quelques événements importants dans cette histoire sur l'essor d'Internet, et vous vous retrouverez peut-être avec quelques questions. Par exemple, comment exactement les entreprises et les consommateurs ont-ils pu accéder à Internet, qui était à l’origine centré sur NSFNET, un réseau financé par le gouvernement américain et apparemment destiné à servir la communauté des chercheurs ? Pour répondre à cette question, nous reviendrons dans le prochain article sur quelques événements importants que je n’ai pas évoqués pour l’instant ; des événements qui ont progressivement mais inévitablement transformé l’Internet scientifique d’État en un Internet privé et commercial.

Quoi d'autre à lire

  • Janet Abatte, Inventer Internet (1999)
  • Karen D. Fraser « NSFNET : Un partenariat pour les réseaux à haut débit, rapport final » (1996)
  • John S. Quarterman, La Matrice (1990)
  • Peter H. Salus, Lancer le filet (1995)

Source: habr.com

Ajouter un commentaire