Der Aufstieg des Internets Teil 1: Exponentielles Wachstum

Der Aufstieg des Internets Teil 1: Exponentielles Wachstum

<< Davor: Das Zeitalter der Fragmentierung, Teil 4: Anarchisten

In 1990 John Quarterman, ein Netzwerkberater und UNIX-Experte, veröffentlichte einen umfassenden Überblick über den damaligen Stand der Computernetzwerke. In einem kurzen Abschnitt über die Zukunft der Datenverarbeitung sagte er die Entstehung eines einzigen globalen Netzwerks für „E-Mail, Konferenzen, Dateiübertragungen, Remote-Logins – so wie es heute ein weltweites Telefonnetz und weltweite Post gibt“ voraus. Allerdings maß er dem Internet keine besondere Rolle zu. Er schlug vor, dass dieses weltweite Netzwerk „wahrscheinlich von staatlichen Kommunikationsagenturen betrieben wird“, mit Ausnahme der Vereinigten Staaten, „wo es von regionalen Abteilungen der Bell Operating Companies und Fernverkehrsbetreibern betrieben wird“.

Der Zweck dieses Artikels besteht darin, zu erklären, wie das Internet mit seinem plötzlichen explosionsartigen exponentiellen Wachstum so eklatant völlig natürliche Annahmen zunichte machte.

Staffelübergabe

Das erste entscheidende Ereignis, das zur Entstehung des modernen Internets führte, ereignete sich in den frühen 1980er Jahren, als die Defense Communications Agency (DCA) [heute DISA] beschloss, das ARPANET in zwei Teile aufzuteilen. DCA übernahm 1975 die Kontrolle über das Netzwerk. Zu diesem Zeitpunkt war klar, dass es für das Information Processing Technology Office (IPTO) der ARPA, eine Organisation, die sich der Erforschung theoretischer Ideen widmet, keinen Sinn hatte, sich an der Entwicklung eines Netzwerks zu beteiligen, das nicht der Kommunikationsforschung, sondern der alltäglichen Kommunikation diente. ARPA versuchte erfolglos, dem Privatunternehmen AT&T die Kontrolle über das Netzwerk zu entreißen. DCA, verantwortlich für militärische Kommunikationssysteme, schien die beste zweite Option zu sein.

In den ersten Jahren der neuen Situation florierte ARPANET in einem Zustand glückseliger Vernachlässigung. In den frühen 1980er Jahren musste die veraltete Kommunikationsinfrastruktur des Verteidigungsministeriums jedoch dringend modernisiert werden. Das vorgeschlagene Ersatzprojekt AUTODIN II, für das DCA Western Union als Auftragnehmer ausgewählt hat, scheint gescheitert zu sein. Die DCA-Leiter ernannten daraufhin Oberst Heidi Hayden zur Verantwortlichen für die Auswahl einer Alternative. Er schlug vor, die Paketvermittlungstechnologie, über die DCA in Form von ARPANET bereits verfügte, als Grundlage für das neue Verteidigungsdatennetz zu nutzen.

Es gab jedoch ein offensichtliches Problem bei der Übertragung militärischer Daten über das ARPANET – das Netzwerk war voll von langhaarigen Wissenschaftlern, von denen einige aktiv gegen Computersicherheit oder Geheimhaltung waren – zum Beispiel Richard Stallman mit seinen Hackerkollegen vom MIT Artificial Intelligence Lab. Hayden schlug vor, das Netzwerk in zwei Teile zu teilen. Er beschloss, die von der ARPA finanzierten Forscher im ARPANET zu belassen und die Verteidigungscomputer in ein neues Netzwerk namens MILNET aufzuteilen. Diese Mitose hatte zwei wichtige Konsequenzen. Erstens war die Aufteilung des militärischen und nichtmilitärischen Teils des Netzwerks der erste Schritt zur Überführung des Internets in zivile und anschließend in private Kontrolle. Zweitens war es ein Beweis für die Lebensfähigkeit der bahnbrechenden Technologie des Internets – der TCP/IP-Protokolle, die etwa fünf Jahre zuvor erstmals erfunden wurden. Die DCA verlangte, dass alle ARPANET-Knoten Anfang 1983 von alten Protokollen auf TCP/IP-Unterstützung umstellten. Zu dieser Zeit nutzten nur wenige Netzwerke TCP/IP, aber das Verfahren verband später die beiden Netzwerke des Proto-Internets und ermöglichte so den Nachrichtenverkehr, um Forschungs- und Militärunternehmen nach Bedarf zu verbinden. Um die Langlebigkeit von TCP/IP in militärischen Netzwerken sicherzustellen, richtete Hayden einen 20-Millionen-Dollar-Fonds ein, um Computerhersteller zu unterstützen, die Software zur Implementierung von TCP/IP auf ihren Systemen schreiben würden.

Der erste Schritt bei der schrittweisen Überführung des Internets von der militärischen in die private Kontrolle bietet uns auch eine gute Gelegenheit, uns von ARPA und IPTO zu verabschieden. Seine Finanzierung und sein Einfluss, angeführt von Joseph Carl Robnett Licklider, Ivan Sutherland und Robert Taylor, führten direkt und indirekt zu allen frühen Entwicklungen im Bereich interaktives Rechnen und Computernetzwerke. Mit der Schaffung des TCP/IP-Standards Mitte der 1970er Jahre spielte er jedoch zum letzten Mal eine Schlüsselrolle in der Geschichte der Computer.

Das nächste große Computerprojekt, das von der DARPA gesponsert wird, wird der Wettbewerb für autonome Fahrzeuge 2004–2005 sein. Das berühmteste Projekt davor war die milliardenschwere KI-basierte strategische Computerinitiative der 1980er Jahre, die mehrere nützliche militärische Anwendungen hervorbrachte, aber praktisch keine Auswirkungen auf die Zivilgesellschaft hatte.

Der entscheidende Auslöser für den Einflussverlust der Organisation war Vietnamkrieg. Die meisten akademischen Forscher glaubten, dass sie den guten Kampf kämpften und die Demokratie verteidigten, als die Forschung aus der Zeit des Kalten Krieges vom Militär finanziert wurde. Allerdings verloren diejenigen, die in den 1950er und 1960er Jahren aufwuchsen, den Glauben an das Militär und seine Ziele, nachdem es im Vietnamkrieg versunken war. Einer der ersten war Taylor selbst, der IPTO 1969 verließ und seine Ideen und Verbindungen zu Xerox PARC brachte. Der von den Demokraten kontrollierte Kongress war besorgt über die destruktive Wirkung von Militärgeldern auf die wissenschaftliche Grundlagenforschung und verabschiedete Änderungen, die vorschreiben, dass Verteidigungsgelder ausschließlich für die Militärforschung ausgegeben werden dürfen. ARPA spiegelte diesen Wandel in der Finanzierungskultur im Jahr 1972 wider, indem es sich in DARPA umbenannte – US-Agentur für fortgeschrittene Verteidigungsforschungsprojekte.

Daher wurde der Staffelstab an den Zivilisten übergeben Nationale Wissenschaftsstiftung (NSF). Bis 1980 war NSF mit einem Budget von 20 Millionen US-Dollar für die Finanzierung von etwa der Hälfte der bundesstaatlichen Computerforschungsprogramme in den Vereinigten Staaten verantwortlich. Und der Großteil dieser Mittel wird bald einem neuen nationalen Computernetzwerk zugute kommen NSFNET.

NSFNET

Anfang der 1980er Jahre besuchte Larry Smarr, ein Physiker an der University of Illinois, das Institut. Max-Planck in München, wo der Supercomputer „Cray“ operierte, zu dem europäischen Forschern Zugang gewährt wurde. Frustriert über den Mangel an ähnlichen Ressourcen für US-Wissenschaftler schlug er vor, dass die NSF die Einrichtung mehrerer Supercomputing-Zentren im ganzen Land finanzieren sollte. Die Organisation reagierte auf Smarr und andere Forscher mit ähnlichen Beschwerden, indem sie 1984 die Advanced Scientific Computing Division gründete, die zur Finanzierung von fünf solcher Zentren mit einem Fünfjahresbudget von 42 Millionen US-Dollar führte, die sich von der Cornell University im Nordosten bis nach San Diego erstreckten . im Südwesten. Dazwischen gelegen erhielt die University of Illinois, an der Smarr arbeitete, ein eigenes Zentrum, das National Center for Supercomputing Applications, NCSA.

Die Möglichkeiten der Zentren, den Zugang zu Rechenleistung zu verbessern, waren jedoch begrenzt. Die Nutzung ihrer Computer für Benutzer, die nicht in der Nähe eines der fünf Zentren wohnen, wäre schwierig und würde die Finanzierung von semester- oder sommerlangen Forschungsreisen erfordern. Deshalb beschloss NSF, auch ein Computernetzwerk aufzubauen. Die Geschichte wiederholte sich – Taylor förderte Ende der 1960er Jahre die Schaffung des ARPANET, um der Forschungsgemeinschaft Zugang zu leistungsstarken Computerressourcen zu verschaffen. NSF wird ein Rückgrat bereitstellen, das wichtige Supercomputing-Zentren miteinander verbindet, sich über den gesamten Kontinent erstreckt und sich dann mit regionalen Netzwerken verbindet, die anderen Universitäten und Forschungslabors den Zugang zu diesen Zentren ermöglichen. NSF wird die von Hayden geförderten Internetprotokolle nutzen, indem es die Verantwortung für den Aufbau lokaler Netzwerke an lokale wissenschaftliche Gemeinschaften überträgt.

NSF übertrug zunächst die Aufgabe, das NCSA-Netzwerk aufzubauen und zu pflegen, von der University of Illinois als Quelle des ursprünglichen Vorschlags zur Schaffung eines nationalen Supercomputing-Programms. NCSA wiederum mietete die gleichen 56-kbit/s-Verbindungen, die ARPANET seit 1969 nutzte, und startete das Netzwerk 1986. Diese Leitungen wurden jedoch schnell durch den Verkehr verstopft (Einzelheiten zu diesem Vorgang finden sich in der Arbeit von David Mills „NSFNET-Kernnetzwerk"). Und wieder wiederholte sich die Geschichte von ARPANET - es wurde schnell klar, dass die Hauptaufgabe des Netzwerks nicht der Zugriff von Wissenschaftlern auf Computerleistung sein sollte, sondern der Austausch von Nachrichten zwischen Personen, die Zugriff darauf hatten. Die Autoren von Man kann ARPANET verzeihen, dass man nicht weiß, dass so etwas passieren kann – aber wie konnte derselbe Fehler fast zwanzig Jahre später noch einmal passieren? Eine mögliche Erklärung ist, dass es viel einfacher ist, einen siebenstelligen Zuschuss für die Nutzung von Rechenleistung zu rechtfertigen kostet einen achtstelligen Betrag, als zu rechtfertigen, solche Summen für scheinbar leichtfertige Ziele auszugeben, etwa die Möglichkeit, E-Mails auszutauschen. Das soll nicht heißen, dass NSF absichtlich jemanden in die Irre geführt hätte. Aber als anthropisches Prinzip besagt es, dass die physikalischen Konstanten des Universums das sind, was Das liegt daran, dass wir sonst einfach nicht existieren würden, und wenn sie sie nicht beobachten könnten, müsste ich nicht über ein staatlich finanziertes Computernetzwerk schreiben, wenn es nicht ähnliche, etwas fiktive Begründungen für seine Existenz gäbe.

Überzeugt davon, dass das Netzwerk selbst mindestens so wertvoll war wie die Supercomputer, die seine Existenz rechtfertigen, wandte sich NSF an externe Hilfe, um das Backbone des Netzwerks mit Verbindungen mit T1-Kapazität (1,5 Mbit/s) aufzurüsten. /Mit). Der T1-Standard wurde in den 1960er Jahren von AT&T entwickelt und sollte bis zu 24 Telefongespräche abwickeln, die jeweils in einen digitalen Stream mit 64 kbit/s kodiert wurden.

Merit Network, Inc. erhielt den Zuschlag. in Partnerschaft mit MCI und IBM und erhielt in den ersten fünf Jahren einen Zuschuss von 58 Millionen US-Dollar von NSF für den Aufbau und die Wartung des Netzwerks. MCI stellte die Kommunikationsinfrastruktur zur Verfügung, IBM stellte die Rechenleistung und Software für die Router bereit. Das gemeinnützige Unternehmen Merit, das das Computernetzwerk betrieb, das die Campusgelände der University of Michigan verband, brachte Erfahrung mit der Pflege eines wissenschaftlichen Computernetzwerks mit und verlieh der gesamten Partnerschaft ein universitäres Flair, das die Akzeptanz bei NSF und den Wissenschaftlern, die NSFNET nutzten, erleichterte. Die Übertragung von Dienstleistungen von NCSA auf Merit war jedoch der offensichtliche erste Schritt in Richtung Privatisierung.

MERIT stand ursprünglich für Michigan Educational Research Information Triad. Michigan State fügte 5 Millionen US-Dollar hinzu, um das Wachstum seines T1-Heimnetzwerks zu unterstützen.

Der Aufstieg des Internets Teil 1: Exponentielles Wachstum

Das Merit-Backbone transportierte den Datenverkehr von mehr als einem Dutzend regionaler Netzwerke, vom New Yorker NYSERNet, einem Forschungs- und Bildungsnetzwerk, das mit der Cornell University in Ithaca verbunden ist, bis zu CERFNet, einem kalifornischen Forschungs- und Bildungsnetzwerk, das mit San Diego verbunden ist. Jedes dieser regionalen Netzwerke war mit unzähligen lokalen Campus-Netzwerken verbunden, da in Hochschullaboren und Fakultätsbüros Hunderte von Unix-Rechnern betrieben wurden. Dieses föderale Netzwerk von Netzwerken wurde zum Kristallisationskern des modernen Internets. ARPANET verband nur gut finanzierte Informatikforscher, die an wissenschaftlichen Eliteeinrichtungen arbeiteten. Und 1990 konnte bereits fast jeder Universitätsstudent oder -lehrer online gehen. Indem sie Pakete von Knoten zu Knoten schleusten – über lokales Ethernet, dann weiter zu einem regionalen Netzwerk und dann mit Lichtgeschwindigkeit über weite Strecken auf dem NSFNET-Backbone – konnten sie E-Mails austauschen oder würdevolle Usenet-Gespräche mit Kollegen aus anderen Teilen des Landes führen .

Nachdem über NSFNET viel mehr wissenschaftliche Organisationen zugänglich wurden als über ARPANET, stellte DCA 1990 das alte Netzwerk ein und schloss das Verteidigungsministerium vollständig von der Entwicklung ziviler Netzwerke aus.

Heb ab

In diesem gesamten Zeitraum hat sich die Anzahl der Computer, die an NSFNET und verwandte Netzwerke angeschlossen sind – und all dies können wir jetzt als Internet bezeichnen – jedes Jahr ungefähr verdoppelt. 28 im Dezember 000, 1987 im Oktober 56,000, 1988 im Oktober 159 und so weiter. Dieser Trend setzte sich bis Mitte der 000er Jahre fort und dann nahm das Wachstum zu etwas langsamer geworden. Ich frage mich, wie Quarterman angesichts dieses Trends nicht bemerken konnte, dass das Internet dazu bestimmt war, die Welt zu beherrschen? Wenn uns die jüngste Epidemie etwas gelehrt hat, dann ist es, dass es für Menschen sehr schwierig ist, sich ein exponentielles Wachstum vorzustellen, weil es nicht mit dem übereinstimmt, was uns im Alltag begegnet.

Natürlich stammen der Name und das Konzept des Internets aus der Zeit vor NSFNET. Das Internetprotokoll wurde 1974 erfunden und bereits vor NSFNET gab es Netzwerke, die über IP kommunizierten. Wir haben ARPANET und MILNET bereits erwähnt. Allerdings konnte ich vor der Einführung des dreistufigen NSFNET keine Erwähnung des „Internets“ – eines einzigen, weltweiten Netzwerks von Netzwerken – finden.

Die Zahl der Netzwerke im Internet wuchs in ähnlichem Tempo, von 170 im Juli 1988 auf 3500 im Herbst 1991. Da die wissenschaftliche Gemeinschaft keine Grenzen kennt, befanden sich viele von ihnen im Ausland, angefangen bei Verbindungen nach Frankreich und Kanada, die im Jahr 1988 hergestellt wurden 1995. Bis 100 konnten fast 1994 Länder Zugang zum Internet haben, von Algerien bis Vietnam. Und obwohl die Anzahl der Maschinen und Netzwerke viel einfacher zu berechnen ist als die Anzahl der tatsächlichen Benutzer, gab es nach vernünftigen Schätzungen Ende 10 20 bis 1991 Millionen davon. In Ermangelung detaillierter Daten darüber, wer, warum und Zu welcher Zeit das Internet genutzt wurde, ist ziemlich schwierig, diese oder eine andere historische Erklärung für solch ein unglaubliches Wachstum zu belegen. Eine kleine Sammlung von Geschichten und Anekdoten kann kaum erklären, wie von Januar 1992 bis Januar 350 000 Computer mit dem Internet verbunden wurden, und dann 600 im folgenden Jahr und weitere 000 Millionen im folgenden Jahr.

Ich werde mich jedoch auf dieses erkenntnistheoretisch unsichere Terrain begeben und argumentieren, dass die drei sich überschneidenden Wellen von Nutzern, die für das explosionsartige Wachstum des Internets verantwortlich sind und von denen jede ihre eigenen Gründe für die Verbindung hat, von einer unerbittlichen Logik angetrieben wurden Metcalfes Gesetz, was besagt, dass der Wert (und damit die Anziehungskraft) eines Netzwerks mit dem Quadrat der Anzahl seiner Teilnehmer steigt.

Die Wissenschaftler kamen zuerst. NSF hat die Berechnung absichtlich auf möglichst viele Universitäten ausgeweitet. Danach wollte jeder Wissenschaftler dem Projekt beitreten, weil alle anderen schon da waren. Wenn E-Mails Sie möglicherweise nicht erreichen, wenn Sie die neuesten Diskussionen im Usenet nicht sehen oder nicht daran teilnehmen, besteht die Gefahr, dass Sie die Ankündigung einer wichtigen Konferenz verpassen, die Chance, einen Mentor zu finden, aktuelle Forschungsergebnisse vor der Veröffentlichung verpassen usw . Da sie sich unter Druck gesetzt fühlten, online an wissenschaftlichen Gesprächen teilzunehmen, schlossen sich die Universitäten schnell regionalen Netzwerken an, die sie mit dem NSFNET-Backbone verbinden konnten. Beispielsweise hatte NEARNET, das sechs Bundesstaaten in der Region Neuengland abdeckte, Anfang der 1990er Jahre mehr als 200 Mitglieder.

Gleichzeitig begann sich der Zugang von Lehrkräften und Doktoranden auf die viel größere Studentengemeinschaft zu verlagern. Bis 1993 hatten etwa 70 % der Harvard-Neulinge eine E-Mail-Adresse. Zu diesem Zeitpunkt hatte das Internet in Harvard physisch alle Ecken und zugehörigen Institutionen erreicht. Der Universität entstanden erhebliche Kosten um nicht nur jedes Gebäude der Bildungseinrichtung, sondern auch alle Studentenwohnheime mit Ethernet zu versorgen. Sicherlich würde es nicht lange dauern, bis einer der Schüler nach einer stürmischen Nacht als Erster in sein Zimmer stolperte, auf einen Stuhl fiel und sich mit Mühe und Not eine E-Mail abtippte, deren Absendung er am nächsten Morgen bereute – sei es eine Liebeserklärung oder … eine wütende Zurechtweisung. an den Feind.

In der nächsten Welle, etwa 1990, kamen kommerzielle Nutzer hinzu. In diesem Jahr wurden 1151 .com-Domains registriert. Die ersten kommerziellen Teilnehmer waren die Forschungsabteilungen von Technologieunternehmen (Bell Labs, Xerox, IBM usw.). Sie nutzten das Netzwerk im Wesentlichen für wissenschaftliche Zwecke. Die geschäftliche Kommunikation zwischen ihren Führungskräften erfolgte über andere Netzwerke. Allerdings bis 1994 existierte Es gibt bereits mehr als 60 Namen in der .com-Domain und das Geldverdienen im Internet hat begonnen.

In den späten 1980er Jahren begannen Computer, Teil des Arbeits- und Privatlebens der US-Bürger zu werden, und die Bedeutung einer digitalen Präsenz für jedes seriöse Unternehmen wurde offensichtlich. E-Mail bot eine Möglichkeit, einfach und äußerst schnell Nachrichten mit Kollegen, Kunden und Lieferanten auszutauschen. Mailinglisten und Usenet boten einem breiten Nutzerkreis sowohl neue Möglichkeiten, mit den Entwicklungen in der Fachwelt Schritt zu halten, als auch neue Formen sehr günstiger Werbung. Über das Internet war es möglich, auf eine Vielzahl kostenloser Datenbanken zuzugreifen – juristische, medizinische, finanzielle und politische. Die Studenten von gestern, die einen Job bekamen und in angeschlossenen Wohnheimen lebten, verliebten sich genauso in das Internet wie ihre Arbeitgeber. Es bot einer viel größeren Gruppe von Benutzern Zugang als alle einzelnen kommerziellen Dienste (wiederum Metcalfes Gesetz). Nachdem man einen Monat lang den Internetzugang bezahlt hatte, war fast alles andere kostenlos, im Gegensatz zu den hohen Gebühren pro Stunde oder pro Nachricht, die CompuServe und andere ähnliche Dienste verlangten. Zu den ersten Marktteilnehmern im Internet gehörten Versandhandelsunternehmen wie The Corner Store aus Litchfield, Connecticut, die in Usenet-Gruppen Werbung machten, und The Online Bookstore, ein E-Book-Laden, der von einem ehemaligen Herausgeber von Little, Brown and Company gegründet wurde. und mehr als zehn Jahre vor dem Kindle.

Und dann kam die dritte Wachstumswelle, die Alltagskonsumenten anzog, die Mitte der 1990er Jahre in großer Zahl online gingen. Zu diesem Zeitpunkt lief das Metcalfesche Gesetz bereits auf Hochtouren. „Online sein“ bedeutete zunehmend „im Internet sein“. Verbraucher konnten es sich nicht leisten, dedizierte Leitungen der T1-Klasse bis zu ihren Häusern auszudehnen, daher griffen sie fast immer über auf das Internet zu Wählmodem. Einen Teil dieser Geschichte haben wir bereits gesehen, als kommerzielle BBS nach und nach zu Internetanbietern wurden. Diese Änderung kam sowohl den Benutzern (deren digitaler Pool plötzlich bis zum Meer angewachsen war) als auch den BBSs selbst zugute, die auf das viel einfachere Geschäft der Vermittlung zwischen dem Telefonsystem und dem Internet-„Backbone“-Durchsatz in T1 übergingen, ohne dass Wartungsarbeiten erforderlich waren ihre eigenen Dienstleistungen.

Größere Online-Dienste entwickelten sich in die gleiche Richtung. Bis 1993 boten alle nationalen Dienste in den Vereinigten Staaten – Prodigy, CompuServe, GEnie und das junge Unternehmen America Online (AOL) – zusammen 3,5 Millionen Benutzern die Möglichkeit, E-Mails an Internetadressen zu senden. Und nur das hinterherhinkende Delphi (mit 100 Abonnenten) bot vollen Zugang zum Internet. Doch in den nächsten Jahren überwog der Wert des Zugangs zum Internet, der weiterhin exponentiell zunahm, schnell den Zugang zu den proprietären Foren, Spielen, Geschäften und anderen Inhalten der kommerziellen Dienste selbst. 000 war ein Wendepunkt: Im Oktober nutzten 1996 % der Online-Nutzer das WWW, verglichen mit 73 % im Jahr zuvor. Es wurde ein neuer Begriff geprägt: „Portal“, um die Überreste der von AOL, Prodigy und anderen Unternehmen bereitgestellten Dienste zu beschreiben, für die Menschen Geld bezahlten, nur um auf das Internet zuzugreifen.

Geheime Zutat

Wir haben also eine ungefähre Vorstellung davon, wie das Internet so explosionsartig wuchs, aber wir haben nicht ganz herausgefunden, warum das passiert ist. Warum wurde es so dominant, wenn doch so viele andere Dienste versuchten, in seinen Vorgänger hineinzuwachsen? Ära der Fragmentierung?

Natürlich spielten staatliche Subventionen eine Rolle. Als die NSF beschloss, unabhängig von ihrem Supercomputing-Programm ernsthaft in die Netzwerkentwicklung zu investieren, verschwendete sie neben der Finanzierung des Backbones keine Zeit mit Kleinigkeiten. Die konzeptionellen Leiter des NSFNET-Programms, Steve Wolfe und Jane Cavines, beschlossen, nicht nur ein Netzwerk von Supercomputern aufzubauen, sondern eine neue Informationsinfrastruktur für amerikanische Colleges und Universitäten. Deshalb haben sie das Connections-Programm ins Leben gerufen, das einen Teil der Kosten für den Anschluss von Universitäten an das Netzwerk übernahm und im Gegenzug dafür sorgte, dass möglichst viele Menschen an ihren Campusstandorten Zugang zum Netzwerk erhielten. Dies beschleunigte die Verbreitung des Internets sowohl direkt als auch indirekt. Indirekt, weil viele der regionalen Netzwerke kommerzielle Unternehmen hervorbrachten, die dieselbe subventionierte Infrastruktur nutzten, um den Internetzugang an kommerzielle Organisationen zu verkaufen.

Aber Minitel hatte auch Subventionen. Was das Internet jedoch vor allem auszeichnete, war seine vielschichtige dezentrale Struktur und seine inhärente Flexibilität. IP ermöglichte es Netzwerken mit völlig unterschiedlichen physikalischen Eigenschaften, mit demselben Adresssystem zu arbeiten, und TCP stellte die Zustellung von Paketen an den Empfänger sicher. Und alle. Die Einfachheit des grundlegenden Netzwerkbetriebsschemas ermöglichte es, nahezu jede Anwendung hinzuzufügen. Wichtig ist, dass jeder Benutzer neue Funktionen beitragen könnte, wenn er andere davon überzeugen könnte, sein Programm zu verwenden. Beispielsweise war die Übertragung von Dateien per FTP in den Anfangsjahren eine der beliebtesten Möglichkeiten, das Internet zu nutzen, aber es war unmöglich, Server zu finden, die die gewünschten Dateien anboten, außer durch Mundpropaganda. Daher haben unternehmungslustige Benutzer verschiedene Protokolle zum Katalogisieren und Verwalten von Listen von FTP-Servern erstellt – zum Beispiel Gopher, Archie und Veronica.

Theoretisch, OSI-Netzwerkmodell Es gab die gleiche Flexibilität sowie die offizielle Zustimmung internationaler Organisationen und Telekommunikationsgiganten, als Internetworking-Standard zu dienen. In der Praxis blieb das Feld jedoch bei TCP/IP, und sein entscheidender Vorteil war der Code, der zunächst auf Tausenden und dann auf Millionen von Maschinen lief.

Die Übertragung der Kontrolle der Anwendungsebene an die äußersten Ränder des Netzwerks hat zu einer weiteren wichtigen Konsequenz geführt. Dies bedeutete, dass große Organisationen, die es gewohnt waren, ihren eigenen Tätigkeitsbereich zu verwalten, sich wohlfühlen konnten. Organisationen könnten ihre eigenen E-Mail-Server einrichten und E-Mails senden und empfangen, ohne dass der gesamte Inhalt auf dem Computer einer anderen Person gespeichert wird. Sie könnten ihre eigenen Domänennamen registrieren und ihre eigenen Websites einrichten, die für jedermann im Internet zugänglich sind, diese aber vollständig unter ihrer Kontrolle behalten.

Das auffälligste Beispiel für vielschichtige Struktur und Dezentralisierung ist natürlich das World Wide Web. Zwei Jahrzehnte lang drehten sich Systeme, von den Time-Sharing-Computern der 1960er Jahre bis hin zu Diensten wie CompuServe und Minitel, um eine kleine Reihe grundlegender Informationsaustauschdienste – E-Mail, Foren und Chatrooms. Das Web ist etwas völlig Neues geworden. Die Anfänge des Webs, als es ausschließlich aus einzigartigen, handgefertigten Seiten bestand, sind nicht mehr mit dem vergleichbar, was es heute ist. Das Springen von Link zu Link hatte jedoch bereits einen seltsamen Reiz und bot Unternehmen die Möglichkeit, äußerst günstige Werbung und Kundenbetreuung anzubieten. Keiner der Internetarchitekten plante das Web. Es war das Ergebnis der Kreativität von Tim Berners-Lee, einem britischen Ingenieur am Europäischen Zentrum für Kernforschung (CERN), der es 1990 mit dem Ziel entwickelte, Informationen bequem unter Laborforschern zu verteilen. Es lebte jedoch problemlos von TCP/IP und nutzte ein für andere Zwecke erstelltes Domain-Name-System für allgegenwärtige URLs. Jeder mit Internetzugang konnte eine Website erstellen, und Mitte der 90er Jahre schien es, als würden es alle tun – Rathäuser, lokale Zeitungen, kleine Unternehmen und Hobbyisten aller Couleur.

Privatisierung

Ich habe in dieser Geschichte über den Aufstieg des Internets einige wichtige Ereignisse ausgelassen, und möglicherweise bleiben Ihnen ein paar Fragen. Wie genau erhielten beispielsweise Unternehmen und Verbraucher Zugang zum Internet, das sich ursprünglich um NSFNET drehte, ein von der US-Regierung finanziertes Netzwerk, das angeblich der Forschungsgemeinschaft dienen sollte? Um diese Frage zu beantworten, werden wir im nächsten Artikel auf einige wichtige Ereignisse zurückkommen, die ich vorerst nicht erwähnt habe; Ereignisse, die das staatliche wissenschaftliche Internet allmählich, aber unweigerlich in ein privates und kommerzielles verwandelten.

Was gibt es sonst noch zu lesen?

  • Janet Abatte, Die Erfindung des Internets (1999)
  • Karen D. Fraser „NSFNET: Eine Partnerschaft für Hochgeschwindigkeitsnetzwerke, Abschlussbericht“ (1996)
  • John S. Quarterman, Die Matrix (1990)
  • Peter H. Salus, Casting the Net (1995)

Source: habr.com

Kommentar hinzufügen