Internetgeschichte: Das Zeitalter der Fragmentierung; Teil 1: Belastungsfaktor

Internetgeschichte: Das Zeitalter der Fragmentierung; Teil 1: Belastungsfaktor

In den frühen 1980er Jahren war der Grundstein für das gelegt, was wir heute als „Internet“ kennen – seine Kernprotokolle waren entwickelt und praxiserprobt –, aber das System blieb geschlossen und stand fast vollständig unter der Kontrolle einer einzigen Einheit, der USA Verteidigungsministerium. Dies wird sich bald ändern – das System wird auf alle Informatikabteilungen verschiedener Institute ausgeweitet, die CSNET nutzen. Das Netzwerk wuchs in akademischen Kreisen weiter, bevor es in den 1990er Jahren schließlich vollständig für die allgemeine kommerzielle Nutzung geöffnet wurde.

Doch dass das Internet zum eigentlichen Zentrum der kommenden digitalen Welt, der vielgepriesenen „Informationsgemeinschaft“, werden würde, war in den 1980er Jahren überhaupt nicht absehbar. Selbst für Leute, die davon gehört hatten, blieb es nur ein vielversprechendes wissenschaftliches Experiment. Aber der Rest der Welt blieb nicht stehen und wartete mit angehaltenem Atem auf seine Ankunft. Stattdessen konkurrierten verschiedene Optionen um Geld und Aufmerksamkeit, um der breiten Masse Zugang zu Online-Diensten zu verschaffen.

Personal Computing

Um 1975 führten Durchbrüche in der Halbleiterfertigung zur Entstehung eines neuen Computertyps. Einige Jahre zuvor hatten Ingenieure herausgefunden, wie man grundlegende Datenverarbeitungslogik auf einem einzigen Mikrochip – dem Mikroprozessor – unterbringen kann. Unternehmen wie Intel haben damit begonnen, Hochgeschwindigkeits-Kurzzeitspeicher auf Chips anzubieten, um den Magnetkernspeicher früherer Computergenerationen zu ersetzen. Dadurch gerieten die wichtigsten und teuersten Teile des Computers unter den Einfluss des Mooreschen Gesetzes, das in den folgenden Jahrzehnten die Kosten für Prozessorchips und Speicher kontinuierlich senkte. Bis zur Mitte des Jahrzehnts hatte dieses Verfahren die Kosten für diese Komponenten bereits so stark gesenkt, dass ein Mitglied der amerikanischen Mittelschicht durchaus darüber nachdenken konnte, einen eigenen Computer zu kaufen und zusammenzubauen. Solche Maschinen wurden später Mikrocomputer (manchmal auch Personalcomputer) genannt.

Es gab einen erbitterten Kampf um das Recht, als erster Personal Computer bezeichnet zu werden. Einige hielten Wes Clarks LINC oder Lincoln Labs' TX-0 für einen solchen – schließlich konnte er nur von einer Person interaktiv genutzt werden. Wenn wir Fragen des Vorrangs außer Acht lassen, ist jeder Kandidat für den ersten Platz, wenn wir die historische Abfolge der Ereignisse bewerten, gezwungen, ihn an einen offensichtlichen Verfechter zu verlieren. Keine andere Maschine erreichte die katalytische Wirkung, die der MITS Altair 8800 in der explosionsartigen Beliebtheit von Mikrocomputern Ende der 1970er Jahre erzeugte.

Internetgeschichte: Das Zeitalter der Fragmentierung; Teil 1: Belastungsfaktor
Altair 8800 steht auf einem Zusatzmodul mit 8" Laufwerk

Altair wurde zum Kristallisationskern für die Elektronik-Community. Er überzeugte Hobbyisten davon, dass man zu einem vernünftigen Preis einen eigenen Computer bauen könne, und diese Hobbyisten begannen, Gemeinschaften zu gründen, um über ihre neuen Maschinen zu diskutieren, wie zum Beispiel den Homebrew Computer Club in Menlo Park. Diese Hobbyzellen starteten eine viel leistungsfähigere Welle kommerzieller Mikrocomputer, die auf Massenmaschinen basierten, für die keine Elektronikkenntnisse erforderlich waren, wie dem Apple II und dem Radio Shack TRS-80.

Im Jahr 1984 besaßen 8 % der US-Haushalte einen eigenen Computer, was etwa XNUMX % entspricht sieben Millionen Autos. In der Zwischenzeit erwarben Unternehmen ihre eigenen Flotten von Personalcomputern mit einer Rate von Hunderttausenden Einheiten pro Jahr – hauptsächlich IBM 5150 und deren Klone. Im teureren Einzelplatzsegment gab es einen wachsenden Markt für Workstations von Silicon Graphics und Sun Microsystems, leistungsstärkere Computer mit fortschrittlichen Grafikdisplays und Netzwerkgeräten, die für Wissenschaftler, Ingenieure und andere Techniker gedacht waren.

Solche Maschinen konnten nicht in die hochentwickelte Welt des ARPANET eingeladen werden. Viele ihrer Benutzer wollten jedoch Zugang zu der versprochenen Verschmelzung von Computern und Kommunikation haben, die Theoretiker seit Taylor und Lickliders Aufsatz „Der Computer als Kommunikationsgerät“ von 1968 und einige sogar noch früher in der populären Presse verkündet hatten. Bereits 1966 versprach der Wissenschaftler John McCarthy im Scientific American: „Die bereits demonstrierte Technologie reicht aus, um sich Computerkonsolen vorzustellen, die in jedem Haushalt auftauchen und per Telefon mit öffentlichen Computern verbunden sind.“ Er erklärte, dass es einfach unmöglich sei, die Bandbreite der von einem solchen System angebotenen Dienstleistungen aufzuzählen, nannte aber mehrere Beispiele: „Jeder wird Zugang zur Library of Congress haben, und zwar von besserer Qualität als das, was Bibliothekare jetzt haben.“ Es werden vollständige Berichte über aktuelle Ereignisse verfügbar sein, sei es Baseball-Ergebnisse, der Smog-Index von Los Angeles oder eine Beschreibung der 178. Sitzung der koreanischen Waffenstillstandskommission. Einkommenssteuern werden automatisch berechnet, indem kontinuierlich Aufzeichnungen über Einnahmen, Abzüge, Beiträge und Ausgaben gesammelt werden.“

In Artikeln der populären Literatur wurden die Möglichkeiten von E-Mail, digitalen Spielen und allen Arten von Dienstleistungen von Rechts- und Arztberatung bis hin zum Online-Shopping beschrieben. Aber wie genau wird das alles aussehen? Es stellte sich heraus, dass viele Antworten weit von der Wahrheit entfernt waren. Rückblickend sieht diese Ära wie ein zerbrochener Spiegel aus. Alle Dienste und Konzepte, die das kommerzielle Internet der 1990er Jahre prägten – und viele weitere – entstanden in den 1980er Jahren, allerdings in Fragmenten, verstreut über Dutzende verschiedener Systeme. Mit einigen Ausnahmen überschnitten sich diese Systeme nicht und standen getrennt voneinander. Es gab keine Möglichkeit für Benutzer eines Systems, mit Benutzern eines anderen Systems zu interagieren oder zu kommunizieren, daher wurden Versuche, mehr Benutzer in eines der beiden Systeme zu bringen, weitgehend fehlgeschlagen Nullsummenspiel.

In diesem Artikel betrachten wir eine Untergruppe der Teilnehmer dieses neuen digitalen Landraubs – die Unternehmen, die Shared Access verkaufen und versuchen, zu attraktiven Konditionen in einen neuen Markt einzutreten.

Ladefaktor

Im Jahr 1892 Samuel Insall, ein Schützling Thomas Edison, ging nach Westen, um eine neue Abteilung von Edisons Elektroimperium zu leiten, die Chicago Edison Company. In dieser Position konsolidierte er viele der Schlüsselprinzipien des modernen Versorgungsmanagements, insbesondere das Konzept des Lastfaktors – berechnet als durchschnittliche Last eines elektrischen Systems geteilt durch die höchste Last. Je höher der Auslastungsfaktor, desto besser, da jede Abweichung vom idealen Verhältnis von 1/1 eine Verschwendung darstellt – überschüssige Mittel, die für die Bewältigung von Spitzenlasten benötigt werden, bei Zeitplaneinbrüchen jedoch ungenutzt bleiben. Insal beschloss, Lücken in der Nachfragekurve zu schließen, indem er neue Verbraucherklassen entwickelte, die Strom zu unterschiedlichen Tageszeiten (oder sogar zu unterschiedlichen Jahreszeiten) verbrauchen würden, selbst wenn das bedeutete, ihnen Strom mit einem Rabatt zu verkaufen. In den Anfängen der Stromversorgung wurde sie hauptsächlich zur Beleuchtung von Häusern und meist abends genutzt. Daher begann Insal, den Einsatz von Elektrizität in der industriellen Produktion zu fördern und so den täglichen Verbrauch zu erhöhen. Dadurch entstanden morgens und abends Lücken, und so überzeugte er das Chicagoer Verkehrssystem, seine Straßenbahnen auf Elektroantrieb umzustellen. Auf diese Weise maximierte Insal den Wert seines investierten Kapitals, auch wenn er Strom manchmal mit einem Abschlag verkaufen musste.

Internetgeschichte: Das Zeitalter der Fragmentierung; Teil 1: Belastungsfaktor
Insall im Jahr 1926, als sein Foto auf dem Cover des Time Magazine abgebildet war

Die gleichen Prinzipien gelten fast ein Jahrhundert später auch für Investitionen in Computer – und es war der Wunsch nach Lastausgleich, der zu Rabatten außerhalb der Spitzenzeiten führte, die zu zwei neuen Online-Diensten für Mikrocomputer führten, die fast gleichzeitig im Sommer eingeführt wurden von 1979: CompuServe und The Source.

CompuServe

1969 gründete die neu gegründete Golden United Life Insurance Company in Columbus, Ohio, eine Tochtergesellschaft, Compu-Serv Network. Der Gründer von Golden United wollte das fortschrittlichste High-Tech-Unternehmen mit computergestützter Aufzeichnungsführung gründen und beauftragte daher einen jungen Informatikstudenten, John Goltz, mit der Leitung des Projekts. Ein Vertriebsleiter von DEC überredete Goltz jedoch zum Kauf eines PDP-10, einer teuren Maschine, deren Rechenleistung den aktuellen Bedarf von Golden United deutlich überstieg. Die Idee hinter Compu-Serv bestand darin, diesen Fehler in eine Chance zu verwandeln, indem überschüssige Rechenleistung an Kunden verkauft wurde, die sich von einem entfernten Terminal aus in den PDP-10 einwählen konnten. In den späten 1960er Jahren gewann dieses Modell der Zeitteilung und des Verkaufs von Computerdiensten an Dynamik, und Golden United wollte ein Stück vom Kuchen haben. In den 1970er Jahren spaltete sich das Unternehmen in eine eigene Einheit ab, benannte sie in CompuServe um und baute ein eigenes paketvermitteltes Netzwerk auf, um kostengünstigen, landesweiten Zugang zu Rechenzentren in Columbus anzubieten.

Der nationale Markt verschaffte dem Unternehmen nicht nur Zugang zu mehr potenziellen Kunden, sondern erweiterte auch die Nachfragekurve nach Computerzeit und verteilte diese auf vier Zeitzonen. Allerdings klaffte immer noch eine große Lücke zwischen dem Ende des Arbeitstages in Kalifornien und dem Beginn des Arbeitstages an der Ostküste, ganz zu schweigen vom Wochenende. Jeff Wilkins, CEO von CompuServe, sah eine Chance, dieses Problem in der wachsenden Flotte von Heimcomputern zu lösen, da viele ihrer Besitzer die Abende und Wochenenden mit ihrem elektronischen Hobby verbrachten. Was wäre, wenn Sie ihnen abends und am Wochenende Zugang zu E-Mails, Message Boards und Spielen auf CompuServe-Computern zu einem ermäßigten Preis anbieten würden (5 $/Stunde, gegenüber 12 $/Stunde während der Geschäftszeiten)? [in aktuellem Geld sind das 24 US-Dollar bzw. 58 US-Dollar].

Wilkins startete einen Testdienst mit dem Namen MicroNET (konkret distanziert von der Hauptmarke CompuServe) und entwickelte sich nach einem langsamen Start allmählich zu einem unglaublich erfolgreichen Projekt. Dank des landesweiten Datennetzwerks von CompuServe konnten die meisten Benutzer einfach eine lokale Nummer anrufen, um in MicroNET einzusteigen und so die Kosten für Ferngespräche vermeiden, obwohl sich die tatsächlichen Computer, mit denen sie Kontakt aufwiesen, in Ohio befanden. Als das Experiment als erfolgreich galt, gab Wilkins die Marke MicroNET auf und übertrug sie auf die Marke CompuServe. Schon bald begann das Unternehmen, Dienstleistungen anzubieten, die speziell für Benutzer von Mikrocomputern konzipiert waren, beispielsweise Spiele und andere Software, die online erworben werden konnte.

Allerdings wurden Kommunikationsplattformen mit großem Abstand zu den beliebtesten Diensten. Für längerfristige Diskussionen und das Posten von Inhalten gab es Foren, deren Themen von Literatur bis Medizin, von Holzbearbeitung bis Popmusik reichten. CompuServe überließ die Foren normalerweise den Benutzern selbst, und die Moderation und Verwaltung wurde von einigen von ihnen übernommen, die die Rolle von „Sysops“ übernahmen. Die andere wichtige Messaging-Plattform war CB Simulator, den Sandy Trevor, einer der Direktoren von CompuServe, an einem Wochenende zusammengestellt hat. Es wurde nach dem damals beliebten Hobby des Amateurfunks (Bürgerband, CB) benannt und ermöglichte es Benutzern, in Echtzeit an Textchats auf speziellen Kanälen teilzunehmen – ein Modell, das den Gesprächsprogrammen ähnelt, die auf vielen Time-Sharing-Systemen verfügbar sind. Viele Benutzer verbrachten Stunden damit, im CB-Simulator zu chatten, Freunde zu finden und sogar Liebhaber zu finden.

Die Quelle

Kurz nach MicroNET folgte ein weiterer Online-Dienst für Mikrocomputer, der nur acht Tage später, im Juli 1979, gestartet wurde. Tatsächlich richtete er sich an fast die gleiche Zielgruppe wie der Dienst von Geoff Wilkins, obwohl er sich völlig anders entwickelte. ein anderes Schema. William von Meister, der Sohn deutscher Einwanderer, dessen Vater bei der Organisation von Luftschiffflügen zwischen Deutschland und den Vereinigten Staaten half, war ein Serienunternehmer. Er startete ein neues Unternehmen, sobald er das Interesse an dem alten verlor oder sobald enttäuschte Investoren ihn nicht mehr unterstützten. Es wäre schwer, sich einen Menschen vorzustellen, der Wilkins ähnlicher wäre. Mitte der 1970er Jahre war Telepost sein größter Erfolg, ein elektronisches Nachrichtensystem, das Nachrichten elektronisch im ganzen Land an die nächste Telefonzentrale schickte und die letzte Meile als Post am nächsten Tag zurücklegte; das TDX-System, das mithilfe von Computern die Weiterleitung von Telefongesprächen optimierte und so die Kosten für Ferngespräche für große Unternehmen senkte.

Nachdem von Meister vorhersehbar das Interesse an TDX verloren hatte, begeisterte er sich Ende der 1970er Jahre für ein neues Projekt, Infocast, das er in McClean, Virginia, starten wollte. Es handelte sich im Wesentlichen um eine Erweiterung des Telepost-Konzepts, nur dass anstelle der Post zur Zustellung der Nachricht auf der letzten Meile die FM-Seitenbandfrequenz verwendet wurde (diese Technologie sendet den Namen des Senders, den Namen des Künstlers und den Songtitel an moderne Radios). Bereitstellung digitaler Daten an Computerterminals. Er plante insbesondere, dies geografisch stark verteilten Unternehmen anzubieten, die über viele Standorte verfügen, die regelmäßige Informationsaktualisierungen von einer zentralen Stelle benötigen – Banken, Versicherungsgesellschaften, Lebensmittelgeschäfte.

Internetgeschichte: Das Zeitalter der Fragmentierung; Teil 1: Belastungsfaktor
Bill von Meister

Was von Meister jedoch wirklich schaffen wollte, war ein landesweites Netzwerk, das über Terminals Daten für Millionen und nicht Tausende von Menschen in die Haushalte liefert. Es ist jedoch eine Sache, ein kommerzielles Unternehmen davon zu überzeugen, 1000 US-Dollar für einen speziellen UKW-Radioempfänger und ein spezielles Endgerät auszugeben, und eine andere, private Verbraucher dazu aufzufordern, dasselbe zu tun. Also suchte von Meister nach anderen Möglichkeiten, Nachrichten, Wetterinformationen und andere Dinge in die Häuser zu bringen; und er fand diese Methode in den Hunderttausenden von Mikrocomputern, die in amerikanischen Büros und Privathäusern wie Pilze aus dem Boden schossen und in Häusern auftauchten, die bereits mit Telefonleitungen ausgestattet waren. Er schloss sich mit Jack Taub zusammen, einem wohlhabenden und gut vernetzten Geschäftsmann, dem die Idee so gut gefiel, dass er in sie investieren wollte. Taub und von Meister nannten ihren neuen Dienst zunächst CompuCom, in der typischen Art und Weise, wie Computerunternehmen damals Wörter zusammenschnitten und aneinanderfügten, entwickelten dann aber einen abstrakteren und ideologischeren Namen: The Source.

Das Hauptproblem war der Mangel an technischer Infrastruktur, mit der diese Idee umgesetzt werden konnte. Um dies zu erreichen, schlossen sie eine Vereinbarung mit zwei Unternehmen, deren gemeinsame Ressourcen mit denen von CompuServe vergleichbar waren. Sie verfügten über Time-Sharing-Computer und ein landesweites Datennetzwerk. Beide Ressourcen waren abends und am Wochenende praktisch ungenutzt. Die Computerleistung wurde von Dialcom bereitgestellt, das seinen Hauptsitz am Potomac River in Silver Spring, Maryland, hatte. Es begann wie CompuServe im Jahr 1970 als Anbieter von Time-Sharing-Computerdiensten, bot jedoch am Ende des Jahrzehnts eine Vielzahl anderer Dienste an. Übrigens ist es dem Dialcom-Terminal zu verdanken, dass ich erstmals mit Computern in Berührung gekommen bin Eric Emerson Schmidt, zukünftiger Vorstandsvorsitzender und Chief Executive Officer von Google. Die Kommunikationsinfrastruktur wurde von Telenet bereitgestellt, einem paketvermittelten Netzwerk, das zu Beginn des Jahrzehnts aus dem Unternehmen ausgegliedert wurde Bolt, Beranek und Newman, BBN. Durch die Zahlung eines ermäßigten Zugangs zu Dialcom- und Telenet-Diensten außerhalb der Hauptverkehrszeiten konnten Taub und von Meister nachts und am Wochenende mit einer Anzahlung von 2,75 US-Dollar (das sind 100 US-Dollar pro Stunde und 13 US-Dollar Anzahlung) Zugang zu The Source für 480 US-Dollar pro Stunde anbieten in heutigen Dollar).

Neben dem Zahlungssystem bestand der Hauptunterschied zwischen The Source und CompuServe in den Erwartungen der Benutzer, ihr System zu nutzen. Zu den ersten Diensten von CompuServe gehörten E-Mail, Foren, CB und Software-Sharing. Es wurde davon ausgegangen, dass Benutzer unabhängig voneinander ihre eigenen Communities erstellen und ihre eigenen Aufbauten auf der zugrunde liegenden Hardware und Programme aufbauen würden – so wie es Unternehmensbenutzer von Time-Sharing-Systemen tun. Taub und von Meister hatten keine Erfahrung mit solchen Systemen. Ihr Geschäftsplan basierte auf der Bereitstellung einer Fülle von Informationen für gehobene professionelle Verbraucher: die Datenbank der New York Times, Nachrichten von United Press International, Aktieninformationen von Dow Jones, Flugpreise, Bewertungen lokaler Restaurants, Weinpreise. Das vielleicht hervorstechendste Merkmal war, dass The Source-Benutzer mit einem Bildschirmmenü mit verfügbaren Optionen begrüßt wurden, während CompuServe-Benutzer mit einer Befehlszeile begrüßt wurden.

Passend zu den persönlichen Differenzen zwischen Wilkins und von Meister war der Start von The Source ein ebenso großes Ereignis wie der stille Start von MicroNET. Isaac Asimov wurde zur ersten Veranstaltung eingeladen, um persönlich bekannt zu geben, wie die Ankunft der Science-Fiction zu einer wissenschaftlichen Tatsache wurde. Und, typisch für von Meister, war, dass seine Amtszeit bei The Source nicht lange dauerte. Das Unternehmen geriet sofort in finanzielle Schwierigkeiten, da die Ausgaben die Einnahmen erheblich überstiegen. Taub und sein Bruder hatten einen ausreichend großen Anteil an dem Unternehmen, um von Meister aus dem Unternehmen zu verdrängen, und im Oktober 1979, nur wenige Monate nach der Eröffnungsparty, taten sie genau das.

Der Niedergang von Time-Sharing-Systemen

Das neueste Unternehmen, das mit Lastfaktorlogik in den Mikrocomputermarkt einsteigt, ist General Electric Information Services (GEIS), eine Abteilung des Elektroherstellers. GEIS wurde Mitte der 1960er Jahre gegründet, als GE noch versuchte, mit anderen in der Computerherstellung zu konkurrieren, um IBM von seiner beherrschenden Stellung im Computerverkauf zu verdrängen. GE versuchte, Kunden davon zu überzeugen, dass sie, anstatt Computer von IBM zu kaufen, Computer von GE mieten könnten. Diese Bemühungen hatten kaum Auswirkungen auf den Marktanteil von IBM, aber das Unternehmen verdiente genug Geld, um bis in die 1980er Jahre weiter in das Unternehmen zu investieren. Zu diesem Zeitpunkt besaß GEIS bereits ein weltweites Datennetzwerk und zwei große Rechenzentren in Cleveland, Ohio, und in Europa.

1984 bemerkte jemand bei GEIS, wie gut The Source und CompuServe wuchsen (letzteres hatte zu diesem Zeitpunkt bereits mehr als 100 Benutzer) und entwickelte eine Möglichkeit, Rechenzentren außerhalb der Hauptgeschäftszeiten arbeiten zu lassen. Um ihr eigenes Benutzerangebot zu erstellen, engagierten sie den CompuServe-Veteranen Bill Lowden. Lowden war verärgert über die Art und Weise, wie Vertriebsleiter von Unternehmen versuchten, in das immer attraktivere Verbrauchergeschäft einzusteigen, und verließ das Unternehmen mit einer Gruppe von Kollegen, um in Atlanta einen eigenen Online-Dienst namens Georgia OnLine aufzubauen. Sie versuchten, ihren fehlenden Zugang zu einem nationalen Datennetz in einen Vorteil zu verwandeln, indem sie auf den lokalen Markt zugeschnittene Dienste wie spezielle Werbung und Veranstaltungsinformationen anboten, doch das Unternehmen scheiterte, sodass Lowden mit dem Angebot von GEIS zufrieden war.

Louden nannte den neuen Dienst GEnie. genie – genie] – dies war ein Backronym für das General Electric Network for Information Exchange [GEs Informationsaustauschnetzwerk]. Es bot alle bis dahin in The Source und CompuServe entwickelten Dienste – Chat (CB-Simulator), Message Boards, Nachrichten, Wetter und Sportinformationen.

GEnie war der neueste Personal-Computing-Dienst, der aus der Time-Sharing-Computing-Branche und der Lastfaktorlogik hervorgegangen ist. Mit der zunehmenden Zahl kleiner Computer in Millionenhöhe entwickelten sich digitale Dienstleistungen für den Massenmarkt nach und nach zu einem eigenständigen Geschäft und dienten nicht mehr nur der Optimierung des vorhandenen Kapitals. In den Anfängen waren The Source und CompuServe im Jahr 1980 kleine Unternehmen, die einige tausend Abonnenten bedienten. Zehn Jahre später zahlten Millionen von Abonnenten in den USA monatliche Gebühren – und CompuServe war an der Spitze dieses Marktes, nachdem es seinen ehemaligen Konkurrenten The Source übernommen hatte. Derselbe Prozess hat den Time-Sharing-Zugriff für Unternehmen weniger attraktiv gemacht – warum sollte man für die Kommunikation und den Zugriff auf den Remote-Computer einer anderen Person bezahlen, wenn es so einfach geworden ist, das eigene Büro mit leistungsstarken Maschinen auszustatten? Und bis zum Aufkommen der Glasfaserkanäle, die die Kommunikationskosten drastisch senkten, änderte sich diese Logik nicht ins Gegenteil.

Dieser Markt war jedoch nicht auf Unternehmen beschränkt, die Time-Sharing-Zugang anbieten. Anstatt mit großen Großrechnern zu beginnen und Wege zu finden, diese an ihre Grenzen zu bringen, begannen andere Unternehmen mit Geräten, die sich bereits in den Haushalten von Millionen von Menschen befanden, und suchten nach Möglichkeiten, diese an einen Computer anzuschließen.

Was gibt es sonst noch zu lesen?

  • Michael A. Banks, Auf dem Weg ins Web (2008)
  • Jimmy Maher, „A Net Before the Web“, filfre.net (2017)

Source: habr.com

Kommentar hinzufügen