<< Davor:
In 1990
Der Zweck dieses Artikels besteht darin, zu erklären, wie das Internet mit seinem plötzlichen explosionsartigen exponentiellen Wachstum so eklatant völlig natürliche Annahmen zunichte machte.
Staffelübergabe
Das erste entscheidende Ereignis, das zur Entstehung des modernen Internets führte, ereignete sich in den frühen 1980er Jahren, als die Defense Communications Agency (DCA) [heute DISA] beschloss, das ARPANET in zwei Teile aufzuteilen. DCA übernahm 1975 die Kontrolle über das Netzwerk. Zu diesem Zeitpunkt war klar, dass es für das Information Processing Technology Office (IPTO) der ARPA, eine Organisation, die sich der Erforschung theoretischer Ideen widmet, keinen Sinn hatte, sich an der Entwicklung eines Netzwerks zu beteiligen, das nicht der Kommunikationsforschung, sondern der alltäglichen Kommunikation diente. ARPA versuchte erfolglos, dem Privatunternehmen AT&T die Kontrolle über das Netzwerk zu entreißen. DCA, verantwortlich für militärische Kommunikationssysteme, schien die beste zweite Option zu sein.
In den ersten Jahren der neuen Situation florierte ARPANET in einem Zustand glückseliger Vernachlässigung. In den frühen 1980er Jahren musste die veraltete Kommunikationsinfrastruktur des Verteidigungsministeriums jedoch dringend modernisiert werden. Das vorgeschlagene Ersatzprojekt AUTODIN II, für das DCA Western Union als Auftragnehmer ausgewählt hat, scheint gescheitert zu sein. Die DCA-Leiter ernannten daraufhin Oberst Heidi Hayden zur Verantwortlichen für die Auswahl einer Alternative. Er schlug vor, die Paketvermittlungstechnologie, über die DCA in Form von ARPANET bereits verfügte, als Grundlage für das neue Verteidigungsdatennetz zu nutzen.
Es gab jedoch ein offensichtliches Problem bei der Übertragung militärischer Daten über das ARPANET – das Netzwerk war voll von langhaarigen Wissenschaftlern, von denen einige aktiv gegen Computersicherheit oder Geheimhaltung waren – zum Beispiel
Der erste Schritt bei der schrittweisen Überführung des Internets von der militärischen in die private Kontrolle bietet uns auch eine gute Gelegenheit, uns von ARPA und IPTO zu verabschieden. Seine Finanzierung und sein Einfluss, angeführt von Joseph Carl Robnett Licklider, Ivan Sutherland und Robert Taylor, führten direkt und indirekt zu allen frühen Entwicklungen im Bereich interaktives Rechnen und Computernetzwerke. Mit der Schaffung des TCP/IP-Standards Mitte der 1970er Jahre spielte er jedoch zum letzten Mal eine Schlüsselrolle in der Geschichte der Computer.
Das nächste große Computerprojekt, das von der DARPA gesponsert wird, wird der Wettbewerb für autonome Fahrzeuge 2004–2005 sein. Das berühmteste Projekt davor war die milliardenschwere KI-basierte strategische Computerinitiative der 1980er Jahre, die mehrere nützliche militärische Anwendungen hervorbrachte, aber praktisch keine Auswirkungen auf die Zivilgesellschaft hatte.
Der entscheidende Auslöser für den Einflussverlust der Organisation war
Daher wurde der Staffelstab an den Zivilisten übergeben
NSFNET
Anfang der 1980er Jahre besuchte Larry Smarr, ein Physiker an der University of Illinois, das Institut. Max-Planck in München, wo der Supercomputer „Cray“ operierte, zu dem europäischen Forschern Zugang gewährt wurde. Frustriert über den Mangel an ähnlichen Ressourcen für US-Wissenschaftler schlug er vor, dass die NSF die Einrichtung mehrerer Supercomputing-Zentren im ganzen Land finanzieren sollte. Die Organisation reagierte auf Smarr und andere Forscher mit ähnlichen Beschwerden, indem sie 1984 die Advanced Scientific Computing Division gründete, die zur Finanzierung von fünf solcher Zentren mit einem Fünfjahresbudget von 42 Millionen US-Dollar führte, die sich von der Cornell University im Nordosten bis nach San Diego erstreckten . im Südwesten. Dazwischen gelegen erhielt die University of Illinois, an der Smarr arbeitete, ein eigenes Zentrum, das National Center for Supercomputing Applications, NCSA.
Die Möglichkeiten der Zentren, den Zugang zu Rechenleistung zu verbessern, waren jedoch begrenzt. Die Nutzung ihrer Computer für Benutzer, die nicht in der Nähe eines der fünf Zentren wohnen, wäre schwierig und würde die Finanzierung von semester- oder sommerlangen Forschungsreisen erfordern. Deshalb beschloss NSF, auch ein Computernetzwerk aufzubauen. Die Geschichte wiederholte sich – Taylor förderte Ende der 1960er Jahre die Schaffung des ARPANET, um der Forschungsgemeinschaft Zugang zu leistungsstarken Computerressourcen zu verschaffen. NSF wird ein Rückgrat bereitstellen, das wichtige Supercomputing-Zentren miteinander verbindet, sich über den gesamten Kontinent erstreckt und sich dann mit regionalen Netzwerken verbindet, die anderen Universitäten und Forschungslabors den Zugang zu diesen Zentren ermöglichen. NSF wird die von Hayden geförderten Internetprotokolle nutzen, indem es die Verantwortung für den Aufbau lokaler Netzwerke an lokale wissenschaftliche Gemeinschaften überträgt.
NSF übertrug zunächst die Aufgabe, das NCSA-Netzwerk aufzubauen und zu pflegen, von der University of Illinois als Quelle des ursprünglichen Vorschlags zur Schaffung eines nationalen Supercomputing-Programms. NCSA wiederum mietete die gleichen 56-kbit/s-Verbindungen, die ARPANET seit 1969 nutzte, und startete das Netzwerk 1986. Diese Leitungen wurden jedoch schnell durch den Verkehr verstopft (Einzelheiten zu diesem Vorgang finden sich in der Arbeit von David Mills „
Überzeugt davon, dass das Netzwerk selbst mindestens so wertvoll war wie die Supercomputer, die seine Existenz rechtfertigen, wandte sich NSF an externe Hilfe, um das Backbone des Netzwerks mit Verbindungen mit T1-Kapazität (1,5 Mbit/s) aufzurüsten. /Mit). Der T1-Standard wurde in den 1960er Jahren von AT&T entwickelt und sollte bis zu 24 Telefongespräche abwickeln, die jeweils in einen digitalen Stream mit 64 kbit/s kodiert wurden.
Merit Network, Inc. erhielt den Zuschlag. in Partnerschaft mit MCI und IBM und erhielt in den ersten fünf Jahren einen Zuschuss von 58 Millionen US-Dollar von NSF für den Aufbau und die Wartung des Netzwerks. MCI stellte die Kommunikationsinfrastruktur zur Verfügung, IBM stellte die Rechenleistung und Software für die Router bereit. Das gemeinnützige Unternehmen Merit, das das Computernetzwerk betrieb, das die Campusgelände der University of Michigan verband, brachte Erfahrung mit der Pflege eines wissenschaftlichen Computernetzwerks mit und verlieh der gesamten Partnerschaft ein universitäres Flair, das die Akzeptanz bei NSF und den Wissenschaftlern, die NSFNET nutzten, erleichterte. Die Übertragung von Dienstleistungen von NCSA auf Merit war jedoch der offensichtliche erste Schritt in Richtung Privatisierung.
MERIT stand ursprünglich für Michigan Educational Research Information Triad. Michigan State fügte 5 Millionen US-Dollar hinzu, um das Wachstum seines T1-Heimnetzwerks zu unterstützen.
Das Merit-Backbone transportierte den Datenverkehr von mehr als einem Dutzend regionaler Netzwerke, vom New Yorker NYSERNet, einem Forschungs- und Bildungsnetzwerk, das mit der Cornell University in Ithaca verbunden ist, bis zu CERFNet, einem kalifornischen Forschungs- und Bildungsnetzwerk, das mit San Diego verbunden ist. Jedes dieser regionalen Netzwerke war mit unzähligen lokalen Campus-Netzwerken verbunden, da in Hochschullaboren und Fakultätsbüros Hunderte von Unix-Rechnern betrieben wurden. Dieses föderale Netzwerk von Netzwerken wurde zum Kristallisationskern des modernen Internets. ARPANET verband nur gut finanzierte Informatikforscher, die an wissenschaftlichen Eliteeinrichtungen arbeiteten. Und 1990 konnte bereits fast jeder Universitätsstudent oder -lehrer online gehen. Indem sie Pakete von Knoten zu Knoten schleusten – über lokales Ethernet, dann weiter zu einem regionalen Netzwerk und dann mit Lichtgeschwindigkeit über weite Strecken auf dem NSFNET-Backbone – konnten sie E-Mails austauschen oder würdevolle Usenet-Gespräche mit Kollegen aus anderen Teilen des Landes führen .
Nachdem über NSFNET viel mehr wissenschaftliche Organisationen zugänglich wurden als über ARPANET, stellte DCA 1990 das alte Netzwerk ein und schloss das Verteidigungsministerium vollständig von der Entwicklung ziviler Netzwerke aus.
Heb ab
In diesem gesamten Zeitraum hat sich die Anzahl der Computer, die an NSFNET und verwandte Netzwerke angeschlossen sind – und all dies können wir jetzt als Internet bezeichnen – jedes Jahr ungefähr verdoppelt. 28 im Dezember 000, 1987 im Oktober 56,000, 1988 im Oktober 159 und so weiter. Dieser Trend setzte sich bis Mitte der 000er Jahre fort und dann nahm das Wachstum zu
Natürlich stammen der Name und das Konzept des Internets aus der Zeit vor NSFNET. Das Internetprotokoll wurde 1974 erfunden und bereits vor NSFNET gab es Netzwerke, die über IP kommunizierten. Wir haben ARPANET und MILNET bereits erwähnt. Allerdings konnte ich vor der Einführung des dreistufigen NSFNET keine Erwähnung des „Internets“ – eines einzigen, weltweiten Netzwerks von Netzwerken – finden.
Die Zahl der Netzwerke im Internet wuchs in ähnlichem Tempo, von 170 im Juli 1988 auf 3500 im Herbst 1991. Da die wissenschaftliche Gemeinschaft keine Grenzen kennt, befanden sich viele von ihnen im Ausland, angefangen bei Verbindungen nach Frankreich und Kanada, die im Jahr 1988 hergestellt wurden 1995. Bis 100 konnten fast 1994 Länder Zugang zum Internet haben, von Algerien bis Vietnam. Und obwohl die Anzahl der Maschinen und Netzwerke viel einfacher zu berechnen ist als die Anzahl der tatsächlichen Benutzer, gab es nach vernünftigen Schätzungen Ende 10 20 bis 1991 Millionen davon. In Ermangelung detaillierter Daten darüber, wer, warum und Zu welcher Zeit das Internet genutzt wurde, ist ziemlich schwierig, diese oder eine andere historische Erklärung für solch ein unglaubliches Wachstum zu belegen. Eine kleine Sammlung von Geschichten und Anekdoten kann kaum erklären, wie von Januar 1992 bis Januar 350 000 Computer mit dem Internet verbunden wurden, und dann 600 im folgenden Jahr und weitere 000 Millionen im folgenden Jahr.
Ich werde mich jedoch auf dieses erkenntnistheoretisch unsichere Terrain begeben und argumentieren, dass die drei sich überschneidenden Wellen von Nutzern, die für das explosionsartige Wachstum des Internets verantwortlich sind und von denen jede ihre eigenen Gründe für die Verbindung hat, von einer unerbittlichen Logik angetrieben wurden
Die Wissenschaftler kamen zuerst. NSF hat die Berechnung absichtlich auf möglichst viele Universitäten ausgeweitet. Danach wollte jeder Wissenschaftler dem Projekt beitreten, weil alle anderen schon da waren. Wenn E-Mails Sie möglicherweise nicht erreichen, wenn Sie die neuesten Diskussionen im Usenet nicht sehen oder nicht daran teilnehmen, besteht die Gefahr, dass Sie die Ankündigung einer wichtigen Konferenz verpassen, die Chance, einen Mentor zu finden, aktuelle Forschungsergebnisse vor der Veröffentlichung verpassen usw . Da sie sich unter Druck gesetzt fühlten, online an wissenschaftlichen Gesprächen teilzunehmen, schlossen sich die Universitäten schnell regionalen Netzwerken an, die sie mit dem NSFNET-Backbone verbinden konnten. Beispielsweise hatte NEARNET, das sechs Bundesstaaten in der Region Neuengland abdeckte, Anfang der 1990er Jahre mehr als 200 Mitglieder.
Gleichzeitig begann sich der Zugang von Lehrkräften und Doktoranden auf die viel größere Studentengemeinschaft zu verlagern. Bis 1993 hatten etwa 70 % der Harvard-Neulinge eine E-Mail-Adresse. Zu diesem Zeitpunkt hatte das Internet in Harvard physisch alle Ecken und zugehörigen Institutionen erreicht.
In der nächsten Welle, etwa 1990, kamen kommerzielle Nutzer hinzu. In diesem Jahr wurden 1151 .com-Domains registriert. Die ersten kommerziellen Teilnehmer waren die Forschungsabteilungen von Technologieunternehmen (Bell Labs, Xerox, IBM usw.). Sie nutzten das Netzwerk im Wesentlichen für wissenschaftliche Zwecke. Die geschäftliche Kommunikation zwischen ihren Führungskräften erfolgte über andere Netzwerke. Allerdings bis 1994
In den späten 1980er Jahren begannen Computer, Teil des Arbeits- und Privatlebens der US-Bürger zu werden, und die Bedeutung einer digitalen Präsenz für jedes seriöse Unternehmen wurde offensichtlich. E-Mail bot eine Möglichkeit, einfach und äußerst schnell Nachrichten mit Kollegen, Kunden und Lieferanten auszutauschen. Mailinglisten und Usenet boten einem breiten Nutzerkreis sowohl neue Möglichkeiten, mit den Entwicklungen in der Fachwelt Schritt zu halten, als auch neue Formen sehr günstiger Werbung. Über das Internet war es möglich, auf eine Vielzahl kostenloser Datenbanken zuzugreifen – juristische, medizinische, finanzielle und politische. Die Studenten von gestern, die einen Job bekamen und in angeschlossenen Wohnheimen lebten, verliebten sich genauso in das Internet wie ihre Arbeitgeber. Es bot einer viel größeren Gruppe von Benutzern Zugang als alle einzelnen kommerziellen Dienste (wiederum Metcalfes Gesetz). Nachdem man einen Monat lang den Internetzugang bezahlt hatte, war fast alles andere kostenlos, im Gegensatz zu den hohen Gebühren pro Stunde oder pro Nachricht, die CompuServe und andere ähnliche Dienste verlangten. Zu den ersten Marktteilnehmern im Internet gehörten Versandhandelsunternehmen wie The Corner Store aus Litchfield, Connecticut, die in Usenet-Gruppen Werbung machten, und The Online Bookstore, ein E-Book-Laden, der von einem ehemaligen Herausgeber von Little, Brown and Company gegründet wurde. und mehr als zehn Jahre vor dem Kindle.
Und dann kam die dritte Wachstumswelle, die Alltagskonsumenten anzog, die Mitte der 1990er Jahre in großer Zahl online gingen. Zu diesem Zeitpunkt lief das Metcalfesche Gesetz bereits auf Hochtouren. „Online sein“ bedeutete zunehmend „im Internet sein“. Verbraucher konnten es sich nicht leisten, dedizierte Leitungen der T1-Klasse bis zu ihren Häusern auszudehnen, daher griffen sie fast immer über auf das Internet zu
Größere Online-Dienste entwickelten sich in die gleiche Richtung. Bis 1993 boten alle nationalen Dienste in den Vereinigten Staaten – Prodigy, CompuServe, GEnie und das junge Unternehmen America Online (AOL) – zusammen 3,5 Millionen Benutzern die Möglichkeit, E-Mails an Internetadressen zu senden. Und nur das hinterherhinkende Delphi (mit 100 Abonnenten) bot vollen Zugang zum Internet. Doch in den nächsten Jahren überwog der Wert des Zugangs zum Internet, der weiterhin exponentiell zunahm, schnell den Zugang zu den proprietären Foren, Spielen, Geschäften und anderen Inhalten der kommerziellen Dienste selbst. 000 war ein Wendepunkt: Im Oktober nutzten 1996 % der Online-Nutzer das WWW, verglichen mit 73 % im Jahr zuvor. Es wurde ein neuer Begriff geprägt: „Portal“, um die Überreste der von AOL, Prodigy und anderen Unternehmen bereitgestellten Dienste zu beschreiben, für die Menschen Geld bezahlten, nur um auf das Internet zuzugreifen.
Geheime Zutat
Wir haben also eine ungefähre Vorstellung davon, wie das Internet so explosionsartig wuchs, aber wir haben nicht ganz herausgefunden, warum das passiert ist. Warum wurde es so dominant, wenn doch so viele andere Dienste versuchten, in seinen Vorgänger hineinzuwachsen?
Natürlich spielten staatliche Subventionen eine Rolle. Als die NSF beschloss, unabhängig von ihrem Supercomputing-Programm ernsthaft in die Netzwerkentwicklung zu investieren, verschwendete sie neben der Finanzierung des Backbones keine Zeit mit Kleinigkeiten. Die konzeptionellen Leiter des NSFNET-Programms, Steve Wolfe und Jane Cavines, beschlossen, nicht nur ein Netzwerk von Supercomputern aufzubauen, sondern eine neue Informationsinfrastruktur für amerikanische Colleges und Universitäten. Deshalb haben sie das Connections-Programm ins Leben gerufen, das einen Teil der Kosten für den Anschluss von Universitäten an das Netzwerk übernahm und im Gegenzug dafür sorgte, dass möglichst viele Menschen an ihren Campusstandorten Zugang zum Netzwerk erhielten. Dies beschleunigte die Verbreitung des Internets sowohl direkt als auch indirekt. Indirekt, weil viele der regionalen Netzwerke kommerzielle Unternehmen hervorbrachten, die dieselbe subventionierte Infrastruktur nutzten, um den Internetzugang an kommerzielle Organisationen zu verkaufen.
Aber Minitel hatte auch Subventionen. Was das Internet jedoch vor allem auszeichnete, war seine vielschichtige dezentrale Struktur und seine inhärente Flexibilität. IP ermöglichte es Netzwerken mit völlig unterschiedlichen physikalischen Eigenschaften, mit demselben Adresssystem zu arbeiten, und TCP stellte die Zustellung von Paketen an den Empfänger sicher. Und alle. Die Einfachheit des grundlegenden Netzwerkbetriebsschemas ermöglichte es, nahezu jede Anwendung hinzuzufügen. Wichtig ist, dass jeder Benutzer neue Funktionen beitragen könnte, wenn er andere davon überzeugen könnte, sein Programm zu verwenden. Beispielsweise war die Übertragung von Dateien per FTP in den Anfangsjahren eine der beliebtesten Möglichkeiten, das Internet zu nutzen, aber es war unmöglich, Server zu finden, die die gewünschten Dateien anboten, außer durch Mundpropaganda. Daher haben unternehmungslustige Benutzer verschiedene Protokolle zum Katalogisieren und Verwalten von Listen von FTP-Servern erstellt – zum Beispiel Gopher, Archie und Veronica.
Theoretisch,
Die Übertragung der Kontrolle der Anwendungsebene an die äußersten Ränder des Netzwerks hat zu einer weiteren wichtigen Konsequenz geführt. Dies bedeutete, dass große Organisationen, die es gewohnt waren, ihren eigenen Tätigkeitsbereich zu verwalten, sich wohlfühlen konnten. Organisationen könnten ihre eigenen E-Mail-Server einrichten und E-Mails senden und empfangen, ohne dass der gesamte Inhalt auf dem Computer einer anderen Person gespeichert wird. Sie könnten ihre eigenen Domänennamen registrieren und ihre eigenen Websites einrichten, die für jedermann im Internet zugänglich sind, diese aber vollständig unter ihrer Kontrolle behalten.
Das auffälligste Beispiel für vielschichtige Struktur und Dezentralisierung ist natürlich das World Wide Web. Zwei Jahrzehnte lang drehten sich Systeme, von den Time-Sharing-Computern der 1960er Jahre bis hin zu Diensten wie CompuServe und Minitel, um eine kleine Reihe grundlegender Informationsaustauschdienste – E-Mail, Foren und Chatrooms. Das Web ist etwas völlig Neues geworden. Die Anfänge des Webs, als es ausschließlich aus einzigartigen, handgefertigten Seiten bestand, sind nicht mehr mit dem vergleichbar, was es heute ist. Das Springen von Link zu Link hatte jedoch bereits einen seltsamen Reiz und bot Unternehmen die Möglichkeit, äußerst günstige Werbung und Kundenbetreuung anzubieten. Keiner der Internetarchitekten plante das Web. Es war das Ergebnis der Kreativität von Tim Berners-Lee, einem britischen Ingenieur am Europäischen Zentrum für Kernforschung (CERN), der es 1990 mit dem Ziel entwickelte, Informationen bequem unter Laborforschern zu verteilen. Es lebte jedoch problemlos von TCP/IP und nutzte ein für andere Zwecke erstelltes Domain-Name-System für allgegenwärtige URLs. Jeder mit Internetzugang konnte eine Website erstellen, und Mitte der 90er Jahre schien es, als würden es alle tun – Rathäuser, lokale Zeitungen, kleine Unternehmen und Hobbyisten aller Couleur.
Privatisierung
Ich habe in dieser Geschichte über den Aufstieg des Internets einige wichtige Ereignisse ausgelassen, und möglicherweise bleiben Ihnen ein paar Fragen. Wie genau erhielten beispielsweise Unternehmen und Verbraucher Zugang zum Internet, das sich ursprünglich um NSFNET drehte, ein von der US-Regierung finanziertes Netzwerk, das angeblich der Forschungsgemeinschaft dienen sollte? Um diese Frage zu beantworten, werden wir im nächsten Artikel auf einige wichtige Ereignisse zurückkommen, die ich vorerst nicht erwähnt habe; Ereignisse, die das staatliche wissenschaftliche Internet allmählich, aber unweigerlich in ein privates und kommerzielles verwandelten.
Was gibt es sonst noch zu lesen?
- Janet Abatte, Die Erfindung des Internets (1999)
- Karen D. Fraser „NSFNET: Eine Partnerschaft für Hochgeschwindigkeitsnetzwerke, Abschlussbericht“ (1996)
- John S. Quarterman, Die Matrix (1990)
- Peter H. Salus, Casting the Net (1995)
Source: habr.com