Geschichte des Internets: Interaktivität entdecken

Geschichte des Internets: Interaktivität entdecken

Weitere Artikel der Reihe:

Die allerersten elektronischen Computer waren einzigartige Geräte, die zu Forschungszwecken entwickelt wurden. Doch sobald sie verfügbar waren, integrierten Unternehmen sie schnell in ihre bestehende Datenkultur – eine, in der alle Daten und Prozesse in Stapeln dargestellt wurden. Lochkarten.

Hermann Hollerith entwickelte im späten 0. Jahrhundert für die US-Volkszählung den ersten Tabulator, der Daten aus Löchern in Papierkarten lesen und zählen konnte. Bis zur Mitte des nächsten Jahrhunderts war eine sehr bunte Menagerie von Nachkommen dieser Maschine in große Unternehmen und Regierungsorganisationen auf der ganzen Welt eingedrungen. Ihre gemeinsame Sprache war eine Karte, die aus mehreren Spalten bestand, wobei jede Spalte (normalerweise) eine Zahl darstellte, die an einer von zehn Positionen für die Zahlen 9 bis XNUMX gestanzt werden konnte.

Es waren keine komplexen Geräte erforderlich, um die Eingabedaten in die Karten einzustanzen, und der Prozess konnte auf mehrere Büros in der Organisation verteilt werden, die die Daten generierte. Wenn Daten verarbeitet werden mussten – beispielsweise um den Umsatz für einen vierteljährlichen Verkaufsbericht zu berechnen – konnten die entsprechenden Karten in das Rechenzentrum gebracht und zur Verarbeitung durch geeignete Maschinen in die Warteschlange gestellt werden, die einen Satz Ausgabedaten auf Karten erzeugten oder auf Papier ausdruckten . Um die zentralen Verarbeitungsmaschinen – Tabulatoren und Taschenrechner – gruppierten sich Peripheriegeräte zum Lochen, Kopieren, Sortieren und Interpretieren von Karten.

Geschichte des Internets: Interaktivität entdecken
IBM 285 Tabulator, ein beliebtes Lochkartengerät in den 1930er und 40er Jahren.

In der zweiten Hälfte der 1950er Jahre arbeiteten fast alle Computer mit diesem „Stapelverarbeitungs“-Schema. Aus der Sicht des typischen Vertriebsendverbrauchers hat sich nicht viel geändert. Sie haben einen Stapel Lochkarten zur Bearbeitung mitgebracht und als Ergebnis der Arbeit einen Ausdruck oder einen weiteren Stapel Lochkarten erhalten. Und dabei verwandelten sich die Karten von Löchern im Papier in elektronische Signale und wieder zurück, aber das kümmerte Sie nicht sonderlich. IBM dominierte den Bereich der Lochkartenverarbeitungsmaschinen und blieb eine der dominierenden Kräfte auf dem Gebiet der elektronischen Computer, was zum großen Teil auf seine etablierten Beziehungen und die breite Palette an Peripheriegeräten zurückzuführen ist. Sie ersetzten einfach die mechanischen Tabulatoren und Taschenrechner der Kunden durch schnellere, flexiblere Datenverarbeitungsmaschinen.

Geschichte des Internets: Interaktivität entdecken
IBM 704 Lochkarten-Verarbeitungskit. Im Vordergrund arbeitet ein Mädchen mit einem Lesegerät.

Dieses Lochkartenverarbeitungssystem funktionierte jahrzehntelang einwandfrei und verfiel nicht – ganz im Gegenteil. Und doch begann in den späten 1950er Jahren eine Randsubkultur von Computerforschern zu argumentieren, dass dieser gesamte Arbeitsablauf geändert werden müsse – sie argumentierten, dass der Computer am besten interaktiv genutzt werden könne. Anstatt es mit einer Aufgabe zu belassen und dann zurückzukommen, um die Ergebnisse zu erhalten, muss der Benutzer direkt mit der Maschine kommunizieren und ihre Fähigkeiten bei Bedarf nutzen. Im Kapital beschrieb Marx, wie Industriemaschinen – die Menschen einfach bedienen – die Arbeitswerkzeuge ersetzten, die Menschen direkt kontrollierten. Allerdings begannen Computer in Form von Maschinen zu existieren. Erst später machten einige ihrer Benutzer sie zu Werkzeugen.

Und diese Transformation fand nicht in Rechenzentren wie dem US Census Bureau, der Versicherungsgesellschaft MetLife oder der United States Steel Corporation statt (die alle zu den ersten gehörten, die UNIVAC kauften, einen der ersten kommerziell erhältlichen Computer). Es ist unwahrscheinlich, dass ein Unternehmen, das die wöchentliche Lohn- und Gehaltsabrechnung für die effizienteste und zuverlässigste Methode hält, möchte, dass jemand diese Verarbeitung stört, indem er mit dem Computer spielt. Der Wert der Möglichkeit, sich an eine Konsole zu setzen und einfach etwas am Computer auszuprobieren, wurde Wissenschaftlern und Ingenieuren klarer, die ein Problem untersuchen, es aus verschiedenen Blickwinkeln betrachten, bis seine Schwachstelle entdeckt wurde, und schnell zwischen ihnen wechseln wollten denken und tun.

Daher entstanden solche Ideen unter Forschern. Das Geld für den verschwenderischen Einsatz des Computers kam jedoch nicht von den Abteilungsleitern. Eine neue Subkultur (man könnte sogar sagen, ein Kult) der interaktiven Computerarbeit entstand aus einer produktiven Partnerschaft zwischen dem Militär und Eliteuniversitäten in den Vereinigten Staaten. Diese für beide Seiten vorteilhafte Zusammenarbeit begann während des Zweiten Weltkriegs. Atomwaffen, Radar und andere magische Waffen lehrten Militärführer, dass die scheinbar unverständlichen Aktivitäten von Wissenschaftlern für das Militär von unglaublicher Bedeutung sein könnten. Diese angenehme Beziehung dauerte etwa eine Generation und zerbrach dann in den politischen Unwägbarkeiten eines anderen Krieges, Vietnam. Aber zu dieser Zeit hatten amerikanische Wissenschaftler Zugang zu riesigen Geldsummen, waren nahezu ungestört und konnten fast alles tun, was auch nur annähernd mit Landesverteidigung in Verbindung gebracht werden konnte.

Die Rechtfertigung interaktiver Computer begann mit einer Bombe.

Wirbelwind und SAGE

Am 29. August 1949 führte ein sowjetisches Forschungsteam erfolgreich durch erster Atomwaffentest auf Testgelände Semipalatinsk. Drei Tage später entdeckte ein über dem Nordpazifik fliegendes US-Aufklärungsflugzeug Spuren radioaktiven Materials in der Atmosphäre, die vom Test übrig geblieben waren. Die UdSSR hatte eine Bombe und ihre amerikanischen Rivalen erfuhren davon. Die Spannungen zwischen den beiden Supermächten hielten schon seit mehr als einem Jahr an, seit die UdSSR als Reaktion auf Pläne, Deutschland wieder zu seiner früheren wirtschaftlichen Größe zu verhelfen, die Landwege in die vom Westen kontrollierten Gebiete Berlins abschnitt.

Die Blockade endete im Frühjahr 1949 und wurde durch eine massive Operation des Westens zur Unterstützung der Stadt aus der Luft zunichte gemacht. Die Spannung ließ etwas nach. Allerdings konnten die amerikanischen Generäle die Existenz einer potenziell feindlichen Streitmacht mit Zugang zu Atomwaffen nicht ignorieren, insbesondere angesichts der ständig wachsenden Größe und Reichweite strategischer Bomber. Die Vereinigten Staaten verfügten während des Zweiten Weltkriegs über eine Kette von Radarstationen zur Flugzeugerkennung entlang der Atlantik- und Pazifikküste. Allerdings nutzten sie veraltete Technologie, deckten die nördlichen Anflüge über Kanada nicht ab und waren nicht durch ein zentrales System zur Koordinierung der Luftverteidigung verbunden.

Um Abhilfe zu schaffen, berief die Air Force (seit 1947 ein unabhängiger US-Militärzweig) das Air Defense Engineering Committee (ADSEC) ein. In die Geschichte ist es als „Walley Committee“ eingegangen, benannt nach seinem Vorsitzenden George Whalley. Er war Physiker am MIT und Veteran der militärischen Radarforschungsgruppe Rad Lab, die nach dem Krieg zum Research Laboratory of Electronics (RLE) wurde. Das Komitee untersuchte das Problem ein Jahr lang und Vallis Abschlussbericht wurde im Oktober 1950 veröffentlicht.

Man würde erwarten, dass ein solcher Bericht ein langweiliger bürokratischer Haufen wäre, der mit einem vorsichtig formulierten und konservativen Vorschlag endet. Stattdessen erwies sich der Bericht als interessante kreative Argumentation und enthielt einen radikalen und riskanten Aktionsplan. Dies ist das offensichtliche Verdienst eines anderen Professors vom MIT, Norbert Wiener, der argumentierte, dass die Erforschung von Lebewesen und Maschinen in einer einzigen Disziplin zusammengefasst werden könne Kybernetik. Valli und seine Co-Autoren gingen von der Annahme aus, dass das Luftverteidigungssystem ein lebender Organismus sei, nicht metaphorisch, sondern in Wirklichkeit. Radarstationen dienen als Sinnesorgane, Abfangjäger und Raketen sind die Effektoren, über die es mit der Welt interagiert. Sie arbeiten unter der Kontrolle eines Regisseurs, der die Informationen der Sinne nutzt, um Entscheidungen über notwendige Maßnahmen zu treffen. Sie argumentierten weiter, dass ein rein menschlicher Direktor nicht in der Lage wäre, Hunderte von ankommenden Flugzeugen über Millionen von Quadratkilometern innerhalb von Minuten zu stoppen, weshalb so viele Funktionen des Direktors wie möglich automatisiert werden sollten.

Die ungewöhnlichste ihrer Erkenntnisse ist, dass der beste Weg, den Direktor zu automatisieren, durch digitale elektronische Computer wäre, die einen Teil der menschlichen Entscheidungsfindung übernehmen können: Analyse eingehender Bedrohungen, gezielte Waffen gegen diese Bedrohungen (Berechnung von Abfangkursen und deren Übermittlung an Kämpfer) und vielleicht sogar die Entwicklung einer Strategie für optimale Reaktionsformen. Damals war noch gar nicht klar, dass Computer für einen solchen Zweck geeignet waren. Zu dieser Zeit gab es in den gesamten Vereinigten Staaten genau drei funktionierende elektronische Computer, und keiner von ihnen erfüllte auch nur annähernd die Zuverlässigkeitsanforderungen eines Militärsystems, von dem Millionen von Menschenleben abhängen. Sie waren einfach sehr schnelle und programmierbare Zahlenknacker.

Valli hatte jedoch Grund, an die Möglichkeit der Entwicklung eines digitalen Echtzeitcomputers zu glauben, da er von dem Projekt wusste Wirbelwind ["Wirbel"]. Es begann während des Krieges im Servomechanismus-Labor des MIT unter der Leitung eines jungen Doktoranden, Jay Forrester. Sein ursprüngliches Ziel war es, einen Allzweck-Flugsimulator zu entwickeln, der für die Unterstützung neuer Flugzeugmodelle umkonfiguriert werden konnte, ohne dass er jedes Mal von Grund auf neu aufgebaut werden musste. Ein Kollege überzeugte Forrester davon, dass sein Simulator digitale Elektronik verwenden sollte, um Eingabeparameter des Piloten zu verarbeiten und Ausgabezustände für die Instrumente zu erzeugen. Allmählich wuchs der Versuch, einen Hochgeschwindigkeits-Digitalcomputer zu entwickeln, über das ursprüngliche Ziel hinaus und stellte es in den Schatten. Der Flugsimulator geriet in Vergessenheit und der Krieg, der zu seiner Entwicklung geführt hatte, war längst vorbei, und ein Inspektorenausschuss des Office of Naval Research (ONR) war aufgrund eines immer größer werdenden Budgets und eines immer größeren Budgets zunehmend desillusioniert von dem Projekt -Fertigstellungsdatum verschieben. Im Jahr 1950 kürzte ONR das Budget von Forrester für das folgende Jahr entscheidend und beabsichtigte, das Projekt danach vollständig einzustellen.

Für George Valley war Whirlwind jedoch eine Offenbarung. Der eigentliche Whirlwind-Computer war noch lange nicht funktionsfähig. Danach sollte jedoch ein Computer entstehen, der nicht nur ein Geist ohne Körper war. Es ist ein Computer mit Sinnesorganen und Effektoren. Organismus. Forrester erwog bereits Pläne, das Projekt zum führenden militärischen Kommando- und Kontrollzentrumssystem des Landes auszubauen. Den Computerexperten am ONR, die glaubten, dass Computer nur zur Lösung mathematischer Probleme geeignet seien, erschien dieser Ansatz grandios und absurd. Dies war jedoch genau die Idee, nach der Valli suchte, und er erschien gerade rechtzeitig, um Whirlwind vor dem Vergessen zu retten.

Trotz (oder vielleicht gerade wegen) seiner großen Ambitionen überzeugte Vallis Bericht die Luftwaffe, und sie startete ein umfangreiches neues Forschungs- und Entwicklungsprogramm, um zunächst zu verstehen, wie man ein auf digitalen Computern basierendes Luftverteidigungssystem schafft und es dann tatsächlich baut. Die Air Force begann mit dem MIT zusammenzuarbeiten, um Kernforschung durchzuführen – eine natürliche Wahl angesichts des Whirlwind- und RLE-Hintergrunds der Institution sowie einer Geschichte erfolgreicher Luftverteidigungskooperationen, die bis zum Rad Lab und dem Zweiten Weltkrieg zurückreicht. Sie nannten die neue Initiative „Project Lincoln“ und errichteten ein neues Lincoln Research Laboratory in Hanscom Field, 25 km nordwestlich von Cambridge.

Die Luftwaffe hat ein computergestütztes Luftverteidigungsprojekt benannt SAGE - ein typisches seltsames Akronym für ein Militärprojekt, das „halbautomatische Bodenumgebung“ bedeutet. Whirlwind sollte ein Testcomputer sein, um die Realisierbarkeit des Konzepts zu beweisen, bevor die vollständige Produktion der Hardware und deren Einsatz durchgeführt wurde – diese Verantwortung wurde IBM übertragen. Die Arbeitsversion des Whirlwind-Computers, die bei IBM hergestellt werden sollte, erhielt den viel weniger einprägsamen Namen AN/FSQ-7 („Army-Navy Fixed Special Purpose Equipment“ – was SAGE im Vergleich ziemlich zutreffend erscheinen lässt).

Als die Luftwaffe 1954 die vollständigen Pläne für das SAGE-System ausarbeitete, bestand es aus verschiedenen Radaranlagen, Luftwaffenstützpunkten und Luftverteidigungswaffen – alles gesteuert von XNUMX Kontrollzentren und riesigen Bunkern, die Bombardierungen standhalten sollten. Um diese Zentren zu füllen, müsste IBM XNUMX Computer liefern, statt der XNUMX, die das Militär viele Milliarden Dollar gekostet hätten. Dies liegt daran, dass das Unternehmen in Logikschaltungen immer noch Vakuumröhren verwendete, die wie Glühbirnen durchbrannten. Jede der Zehntausenden Lampen in einem funktionierenden Computer könnte jederzeit ausfallen. Es wäre natürlich inakzeptabel, einen ganzen Teil des Luftraums des Landes ungeschützt zu lassen, während Techniker Reparaturen durchführen, daher musste ein Ersatzflugzeug bereitgehalten werden.

Geschichte des Internets: Interaktivität entdecken
Das SAGE-Kontrollzentrum auf der Grand Forks Air Force Base in North Dakota, wo sich zwei AN/FSQ-7-Computer befanden

In jedem Kontrollzentrum saßen Dutzende von Bedienern vor Kathodenstrahlschirmen und überwachten jeweils einen Teil des Luftraums.

Geschichte des Internets: Interaktivität entdecken

Der Computer verfolgte mögliche Bedrohungen aus der Luft und zeichnete sie als Spuren auf dem Bildschirm auf. Mit der Lichtkanone könnte der Bediener zusätzliche Informationen über die Spur anzeigen und Befehle an das Verteidigungssystem erteilen, und der Computer würde diese in eine gedruckte Nachricht für eine verfügbare Raketenbatterie oder einen Luftwaffenstützpunkt umwandeln.

Geschichte des Internets: Interaktivität entdecken

Interaktivitätsvirus

Angesichts der Natur des SAGE-Systems – direkte Echtzeitinteraktion zwischen menschlichen Bedienern und einem digitalen CRT-Computer über Lichtkanonen und eine Konsole – ist es nicht überraschend, dass das Lincoln Laboratory die erste Kohorte von Verfechtern der interaktiven Interaktion mit Computern hervorgebracht hat. Die gesamte Computerkultur des Labors existierte in einer isolierten Blase, abgeschnitten von den Batch-Verarbeitungsnormen, die sich in der kommerziellen Welt entwickelten. Forscher nutzten Whirlwind und seine Nachkommen, um Zeiträume zu reservieren, in denen sie exklusiven Zugriff auf den Computer hatten. Sie sind es gewohnt, mit Händen, Augen und Ohren direkt über Schalter, Tastaturen, hell erleuchtete Bildschirme und sogar Lautsprecher zu interagieren, ohne Zwischenhändler aus Papier.

Diese seltsame und kleine Subkultur breitete sich durch direkten physischen Kontakt wie ein Virus nach außen aus. Und wenn wir es als Virus betrachten, dann sollte Patient Null ein junger Mann namens Wesley Clark heißen. Clark verließ 1949 die Graduiertenschule für Physik in Berkeley, um Techniker in einer Atomwaffenfabrik zu werden. Die Arbeit gefiel ihm jedoch nicht. Nachdem er mehrere Artikel aus Computerzeitschriften gelesen hatte, suchte er nach einer Möglichkeit, in ein scheinbar neues und aufregendes Gebiet voller ungenutzter Potenziale einzutauchen. Durch eine Anzeige erfuhr er von der Rekrutierung von Computerspezialisten am Lincoln Laboratory und zog 1951 an die Ostküste, um bei Forrester zu arbeiten, der bereits Leiter des digitalen Computerlabors geworden war.

Geschichte des Internets: Interaktivität entdecken
Wesley Clark demonstriert seinen biomedizinischen Computer LINC, 1962

Clark trat der Advanced Development Group bei, einer Unterabteilung des Labors, die den entspannten Zustand der Zusammenarbeit zwischen Militär und Universitäten zu dieser Zeit verkörperte. Obwohl die Abteilung technisch gesehen Teil des Lincoln-Labor-Universums war, existierte das Team in einer Blase innerhalb einer anderen Blase, isoliert von den alltäglichen Anforderungen des SAGE-Projekts und frei, jedem Computerbereich nachzugehen, der in irgendeiner Weise damit verbunden sein konnte Luftverteidigung. Ihr Hauptziel in den frühen 1950er Jahren war die Entwicklung des Memory Test Computer (MTC), der die Machbarkeit einer neuen, hocheffizienten und zuverlässigen Methode zur Speicherung digitaler Informationen demonstrieren sollte. Magnetkernspeicher, der den kniffligen CRT-basierten Speicher ersetzen würde, der in Whirlwind verwendet wird.

Da MTC außer seinen Erstellern keine Benutzer hatte, hatte Clark jeden Tag viele Stunden lang vollen Zugriff auf den Computer. Dank seines Kollegen Belmont Farley, der mit einer Gruppe von Biophysikern vom RLE in Cambridge kommunizierte, interessierte sich Clark für die damals modische kybernetische Mischung aus Physik, Physiologie und Informationstheorie. Clark und Farley verbrachten viele Stunden am MTC damit, Softwaremodelle neuronaler Netze zu erstellen, um die Eigenschaften selbstorganisierender Systeme zu untersuchen. Aus diesen Experimenten begann Clark, bestimmte axiomatische Prinzipien des Rechnens abzuleiten, von denen er nie abwich. Insbesondere kam er zu der Überzeugung, dass „Benutzerfreundlichkeit der wichtigste Designfaktor“ ist.

Im Jahr 1955 arbeitete Clark mit Ken Olsen, einem der Entwickler des MTC, zusammen, um einen Plan zur Entwicklung eines neuen Computers zu formulieren, der den Weg für die nächste Generation militärischer Kontrollsysteme ebnen könnte. Durch die Verwendung eines sehr großen Magnetkernspeichers zur Speicherung und Transistoren für die Logik könnte es viel kompakter, zuverlässiger und leistungsfähiger als der Whirlwind gebaut werden. Zunächst schlugen sie ein Design vor, das sie TX-1 (Transistorized and eXperimental Computer, „experimenteller Transistorcomputer“ – viel klarer als AN/FSQ-7) nannten. Die Leitung des Lincoln Laboratory lehnte das Projekt jedoch als zu teuer und riskant ab. Transistoren waren erst einige Jahre zuvor auf dem Markt und es wurden nur sehr wenige Computer mit Transistorlogik gebaut. Also kehrten Clark und Olsen mit einer kleineren Version des Wagens zurück, dem TX-0, der zugelassen wurde.

Geschichte des Internets: Interaktivität entdecken
TX-0

Die Funktionalität des TX-0-Computers als Werkzeug zur Verwaltung von Militärstützpunkten war für Clark zwar der Vorwand für seine Schaffung, aber weitaus weniger interessant als die Gelegenheit, seine Ideen zum Computerdesign voranzutreiben. Seiner Ansicht nach war Computerinteraktivität in den Lincoln Laboratories nicht mehr selbstverständlich und zur neuen Norm geworden – die richtige Art und Weise, Computer zu bauen und zu nutzen, insbesondere für wissenschaftliche Arbeiten. Er gewährte Biophysikern am MIT Zugang zum TX-0, obwohl ihre Arbeit nichts mit PVO zu tun hatte, und erlaubte ihnen, die visuelle Anzeige des Geräts zur Analyse von Elektroenzephalogrammen aus Schlafstudien zu verwenden. Und niemand hatte Einwände dagegen.

Der TX-0 war so erfolgreich, dass die Lincoln Laboratories 1956 einen vollwertigen Transistorcomputer, den TX-2, mit einem riesigen Zwei-Millionen-Bit-Speicher genehmigten. Die Fertigstellung des Projekts wird zwei Jahre dauern. Danach entweicht das Virus aus dem Labor. Sobald TX-2 fertiggestellt ist, müssen die Labore den frühen Prototyp nicht mehr verwenden, daher stimmten sie zu, TX-0 an Cambridge an RLE zu verleihen. Es wurde im zweiten Stock über dem Rechenzentrum für die Stapelverarbeitung installiert. Und es infizierte sofort Computer und Professoren auf dem MIT-Campus, die begannen, um Zeiträume zu kämpfen, in denen sie die volle Kontrolle über den Computer erlangen konnten.

Es war bereits klar, dass es nahezu unmöglich war, ein Computerprogramm gleich beim ersten Mal richtig zu schreiben. Darüber hinaus hatten Forscher, die sich mit einer neuen Aufgabe beschäftigten, zunächst oft keine Ahnung, wie das richtige Verhalten aussehen sollte. Und um Ergebnisse vom Rechenzentrum zu erhalten, musste man stundenlang oder sogar bis zum nächsten Tag warten. Für Dutzende neuer Programmierer auf dem Campus war die Möglichkeit, die Leiter zu erklimmen, einen Fehler zu entdecken und ihn sofort zu beheben, einen neuen Ansatz auszuprobieren und sofort verbesserte Ergebnisse zu sehen, eine Offenbarung. Einige nutzten ihre Zeit auf TX-0, um an ernsthaften wissenschaftlichen oder technischen Projekten zu arbeiten, aber die Freude an der Interaktivität zog auch verspieltere Seelen an. Ein Student schrieb ein Textbearbeitungsprogramm, das er „eine teure Schreibmaschine“ nannte. Ein anderer tat es ihm gleich und schrieb einen „teuren Tischrechner“, mit dem er seine Mathe-Hausaufgaben machte.

Geschichte des Internets: Interaktivität entdecken
Ivan Sutherland demonstriert sein Sketchpad-Programm auf dem TX-2

Unterdessen beschlossen Ken Olsen und ein weiterer TX-0-Ingenieur, Harlan Anderson, frustriert über den langsamen Fortschritt des TX-2-Projekts, einen kleinen interaktiven Computer für Wissenschaftler und Ingenieure zu vermarkten. Sie verließen das Labor, um die Digital Equipment Corporation zu gründen und richteten ein Büro in einer ehemaligen Textilfabrik am Assabet River, zehn Meilen westlich von Lincoln, ein. Ihr erster Computer, der PDP-1 (veröffentlicht 1961), war im Wesentlichen ein Klon des TX-0.

TX-0 und die Digital Equipment Corporation begannen, die gute Nachricht einer neuen Art der Computernutzung über das Lincoln Laboratory hinaus zu verbreiten. Und doch ist das Interaktivitätsvirus bisher geografisch im Osten von Massachusetts lokalisiert. Doch das sollte sich bald ändern.

Was gibt es sonst noch zu lesen:

  • Lars Heide, Lochkartensysteme und die frühe Informationsexplosion, 1880-1945 (2009)
  • Joseph November, Biomedizinisches Rechnen (2012)
  • Kent C. Redmond und Thomas M. Smith, From Whirlwind to MITRE (2000)
  • M. Mitchell Waldrop, Die Traummaschine (2001)

Source: habr.com

Kommentar hinzufügen