Geschichte elektronischer Computer, Teil 4: Die elektronische Revolution

Geschichte elektronischer Computer, Teil 4: Die elektronische Revolution

Weitere Artikel der Reihe:

Bisher haben wir auf jeden der ersten drei Versuche zurückgeschaut, einen digitalen elektronischen Computer zu bauen: den Atanasoff-Berry-ABC-Computer, konzipiert von John Atanasoff; das British Colossus-Projekt unter der Leitung von Tommy Flowers und ENIAC, das an der Moore School der University of Pennsylvania ins Leben gerufen wurde. Alle diese Projekte waren tatsächlich unabhängig. Obwohl John Mauchly, die treibende Kraft hinter dem ENIAC-Projekt, sich der Arbeit von Atanasov bewusst war, ähnelte das ENIAC-Design in keiner Weise ABC. Wenn es einen gemeinsamen Vorfahren des elektronischen Rechengeräts gab, dann war es der bescheidene Wynne-Williams-Zähler, das erste Gerät, das Vakuumröhren zur digitalen Speicherung verwendete und Atanasoff, Flowers und Mauchly auf den Weg zur Entwicklung elektronischer Computer brachte.

Bei den folgenden Ereignissen spielte jedoch nur eine dieser drei Maschinen eine Rolle. ABC hat nie ein brauchbares Werk hervorgebracht, und im Großen und Ganzen haben die wenigen Menschen, die davon wussten, es vergessen. Die beiden Kriegsmaschinen waren in der Lage, jeden anderen existierenden Computer zu übertreffen, aber der Koloss blieb auch nach dem Sieg über Deutschland und Japan geheim. Nur ENIAC erlangte große Bekanntheit und wurde daher zum Inhaber des Standards für elektronisches Rechnen. Und nun konnte sich jeder, der ein auf Vakuumröhren basierendes Computergerät entwickeln wollte, auf den Erfolg von Moores Schule berufen. Die tief verwurzelte Skepsis der Ingenieursgemeinschaft, die vor 1945 allen derartigen Projekten gegenübergestanden hatte, war verschwunden; Die Skeptiker änderten entweder ihre Meinung oder verstummten.

EDVAC-Bericht

Das 1945 veröffentlichte Dokument, das auf den Erfahrungen bei der Erstellung und Verwendung von ENIAC basiert, gab den Ton für die Richtung der Computertechnologie in der Welt nach dem Zweiten Weltkrieg an. Es wurde als „erster Berichtsentwurf zu EDVAC“ (Electronic Discrete Variable Automatic Computer) bezeichnet und lieferte eine Vorlage für die Architektur der ersten Computer, die im modernen Sinne programmierbar waren – das heißt, Befehle aus dem Hochgeschwindigkeitsspeicher ausführen konnten. Und obwohl der genaue Ursprung der darin aufgeführten Ideen weiterhin umstritten ist, wurde es mit dem Namen des Mathematikers unterzeichnet John von Neumann (geb. Janos Lajos Neumann). Typisch für die Denkweise eines Mathematikers war in der Arbeit auch der erste Versuch, das Design eines Computers von den Spezifikationen einer bestimmten Maschine zu abstrahieren. Er versuchte, das eigentliche Wesen der Computerstruktur von seinen verschiedenen wahrscheinlichen und zufälligen Inkarnationen zu trennen.

Von Neumann, geboren in Ungarn, kam über Princeton (New Jersey) und Los Alamos (New Mexico) zu ENIAC. Als versierter junger Mathematiker mit bemerkenswerten Beiträgen zur Mengenlehre, Quantenmechanik und Spieltheorie verließ er 1929 Europa, um eine Stelle an der Princeton University anzunehmen. Vier Jahre später bot ihm das nahe gelegene Institute of Advanced Studies (IAS) eine Tenure-Track-Stelle an. Aufgrund des Aufstiegs des Nationalsozialismus in Europa ergriff von Neumann freudig die Chance, auf unbestimmte Zeit auf der anderen Seite des Atlantiks zu bleiben – und wurde im Nachhinein einer der ersten jüdischen intellektuellen Flüchtlinge aus Hitlers Europa. Nach dem Krieg beklagte er: „Meine Gefühle für Europa sind das Gegenteil von Nostalgie, da mich jede Ecke, die ich kenne, an eine verschwundene Welt und Ruinen erinnert, die keinen Trost bringen“, und erinnerte sich an „meine völlige Enttäuschung über die Menschlichkeit der Menschen in Europa.“ Zeitraum von 1933 bis 1938.“

Abscheu vor dem verlorenen multinationalen Europa seiner Jugend richtete von Neumann all seinen Verstand darauf, der Kriegsmaschinerie des Landes zu helfen, das ihm Schutz bot. In den nächsten fünf Jahren reiste er kreuz und quer durch das Land, beriet und beriet bei einer Vielzahl neuer Waffenprojekte und schaffte es gleichzeitig, ein umfangreiches Buch über Spieltheorie mitzuverfassen. Seine geheimste und wichtigste Arbeit als Berater war seine Position beim Manhattan-Projekt – einem Versuch, eine Atombombe zu bauen – dessen Forschungsteam in Los Alamos (New Mexico) stationiert war. Robert Oppenheimer rekrutierte ihn im Sommer 1943, um bei der mathematischen Modellierung des Projekts zu helfen, und seine Berechnungen überzeugten den Rest der Gruppe, sich auf eine nach innen schießende Bombe zu konzentrieren. Eine solche Explosion würde, da der Sprengstoff das spaltbare Material nach innen bewegt, eine selbsterhaltende Kettenreaktion ermöglichen. Infolgedessen waren zahlreiche Berechnungen erforderlich, um die perfekte, nach innen gerichtete, kugelförmige Explosion mit dem gewünschten Druck zu erreichen – und jeder Fehler würde zur Unterbrechung der Kettenreaktion und zum Bomben-Fiasko führen.

Geschichte elektronischer Computer, Teil 4: Die elektronische Revolution
Von Neumann während seiner Arbeit in Los Alamos

In Los Alamos gab es eine Gruppe von zwanzig menschlichen Rechnern, die über Tischrechner verfügten, aber der Rechenlast nicht gewachsen waren. Wissenschaftler gaben ihnen Ausrüstung von IBM, um mit Lochkarten zu arbeiten, aber sie konnten immer noch nicht mithalten. Sie forderten von IBM eine verbesserte Ausrüstung, erhielten sie 1944, konnten aber immer noch nicht mithalten.

Bis dahin hatte von Neumann seiner regulären Überlandkreuzfahrt eine weitere Reihe von Standorten hinzugefügt: Er besuchte jeden möglichen Standort von Computerausrüstung, der in Los Alamos nützlich sein könnte. Er schrieb einen Brief an Warren Weaver, Leiter der Abteilung für angewandte Mathematik des National Defense Research Committee (NDRC), und erhielt mehrere gute Hinweise. Er ging nach Harvard, um sich die Mark I anzuschauen, war aber bereits mit der Arbeit für die Marine vollgestopft. Er sprach mit George Stibitz und überlegte, einen Bell-Relaiscomputer für Los Alamos zu bestellen, gab die Idee jedoch auf, als er erfuhr, wie lange es dauern würde. Er besuchte eine Gruppe der Columbia University, die unter der Leitung von Wallace Eckert mehrere IBM-Computer in ein größeres automatisiertes System integriert hatte, aber es gab bereits in Los Alamos keine spürbare Verbesserung gegenüber den IBM-Computern.

Allerdings nahm Weaver ein Projekt nicht auf die Liste, die er von Neumann gab: ENIAC. Er wusste es sicherlich: In seiner Position als Direktor für angewandte Mathematik war er dafür verantwortlich, den Fortschritt aller Computerprojekte des Landes zu überwachen. Weaver und die NDRC hatten sicherlich Zweifel an der Realisierbarkeit und dem Zeitplan von ENIAC, aber es ist ziemlich überraschend, dass er seine Existenz nicht einmal erwähnte.

Was auch immer der Grund war, das Ergebnis war, dass von Neumann erst durch ein zufälliges Treffen auf einem Bahnsteig von ENIAC erfuhr. Diese Geschichte wurde von Herman Goldstein erzählt, einem Verbindungsmann im Testlabor der Moore School, in dem ENIAC gebaut wurde. Goldstein traf von Neumann im Juni 1944 am Bahnhof von Aberdeen – von Neumann war auf dem Weg zu einer seiner Beratungen, die er als Mitglied des wissenschaftlichen Beratungsausschusses am Aberdeen Ballistic Research Laboratory hielt. Goldstein wusste von Neumanns Ruf als großer Mann und kam mit ihm ins Gespräch. Um Eindruck zu machen, konnte er nicht umhin, ein neues und interessantes Projekt zu erwähnen, das in Philadelphia entsteht. Von Neumanns Herangehensweise änderte sich sofort von der eines selbstgefälligen Kollegen zu der eines strengen Kontrolleurs, und er überschüttete Goldstein mit Fragen zu den Details des neuen Computers. Er fand eine interessante neue Quelle potenzieller Computerleistung für Los Alamos.

Von Neumann besuchte Presper Eckert, John Mauchly und andere Mitglieder des ENIAC-Teams zum ersten Mal im September 1944. Er verliebte sich sofort in das Projekt und fügte seiner langen Liste der zu konsultierenden Organisationen einen weiteren Punkt hinzu. Davon profitierten beide Seiten. Es ist leicht zu verstehen, warum von Neumann vom Potenzial des elektronischen Hochgeschwindigkeitsrechnens angezogen wurde. ENIAC oder eine ähnliche Maschine war in der Lage, alle Recheneinschränkungen zu überwinden, die den Fortschritt des Manhattan-Projekts und vieler anderer bestehender oder potenzieller Projekte behindert hatten (allerdings sorgte das Say'sche Gesetz, das heute noch in Kraft ist, dafür, dass die Einführung von Computerkapazitäten würden bald eine entsprechende Nachfrage nach ihnen schaffen). Für die Moore-Schule bedeutete der Segen eines so anerkannten Spezialisten wie von Neumann das Ende der Skepsis ihnen gegenüber. Darüber hinaus waren seine Kenntnisse auf dem Gebiet der automatischen Datenverarbeitung aufgrund seiner ausgeprägten Intelligenz und umfangreichen Erfahrung im ganzen Land unübertroffen.

Auf diese Weise beteiligte sich von Neumann an Eckerts und Mauchlys Plan, einen Nachfolger für ENIAC zu schaffen. Zusammen mit Herman Goldstein und einem anderen ENIAC-Mathematiker, Arthur Burks, begannen sie, Parameter für die zweite Generation des elektronischen Computers zu skizzieren, und es waren die Ideen dieser Gruppe, die von Neumann in einem „ersten Entwurf“ des Berichts zusammenfasste. Die neue Maschine musste leistungsfähiger sein, glattere Linien haben und vor allem das größte Hindernis für die Verwendung von ENIAC überwinden – die vielen Stunden, die für die Einrichtung jeder neuen Aufgabe erforderlich waren, während derer dieser leistungsstarke und extrem teure Computer einfach im Leerlauf stand. Die Konstrukteure der neuesten Generation elektromechanischer Maschinen, der Harvard Mark I und des Bell Relay Computers, haben dies vermieden, indem sie mithilfe von Lochstreifen Anweisungen in den Computer eingegeben haben, sodass der Bediener das Papier vorbereiten konnte, während die Maschine andere Aufgaben ausführte . Allerdings würde eine solche Dateneingabe den Geschwindigkeitsvorteil der Elektronik zunichte machen; Kein Papier könnte Daten so schnell liefern wie ENIAC sie empfangen könnte. („Colossus“ arbeitete mit Papier mithilfe von fotoelektrischen Sensoren und jedes seiner fünf Rechenmodule absorbierte Daten mit einer Geschwindigkeit von 5000 Zeichen pro Sekunde, was jedoch nur dank des schnellsten Scrollens des Papierbandes möglich war. An eine beliebige Stelle auf der Das Band erforderte eine Verzögerung von 0,5 s pro 5000 Zeilen.

Die im „ersten Entwurf“ beschriebene Lösung des Problems bestand darin, die Speicherung von Anweisungen von einem „externen Aufzeichnungsmedium“ auf „Speicher“ zu verlagern – dieses Wort wurde erstmals im Zusammenhang mit der Datenspeicherung von Computern verwendet (von Neumann). Dieser und andere biologische Begriffe wurden in der Arbeit gezielt verwendet (er interessierte sich sehr für die Arbeit des Gehirns und die in Neuronen ablaufenden Prozesse). Diese Idee wurde später „Programmspeicherung“ genannt. Dies führte jedoch sofort zu einem weiteren Problem – das sogar Atanasov verblüffte – den übermäßig hohen Kosten für elektronische Röhren. Im „ersten Entwurf“ wurde geschätzt, dass ein Computer, der eine Vielzahl von Rechenaufgaben ausführen kann, einen Speicher mit 250 Binärzahlen zum Speichern von Anweisungen und temporären Daten benötigen würde. Röhrenspeicher dieser Größe würden Millionen von Dollar kosten und völlig unzuverlässig sein.

Eine Lösung für das Dilemma wurde von Eckert vorgeschlagen, der Anfang der 1940er Jahre im Rahmen eines Vertrags zwischen der Moore School und dem Rad Lab des MIT, dem zentralen Forschungszentrum für Radartechnologie in den Vereinigten Staaten, an der Radarforschung arbeitete. Konkret arbeitete Eckert an einem Radarsystem namens „Moving Target Indicator“ (MTI), das das Problem des „Ground Flare“ löste: jegliches Rauschen auf dem Radarschirm, das von Gebäuden, Hügeln und anderen stationären Objekten erzeugt wurde und es schwierig machte Der Bediener kann wichtige Informationen isolieren – Größe, Standort und Geschwindigkeit des sich bewegenden Flugzeugs.

MTI löste das Flare-Problem mit einem Gerät namens Verzögerungsleitung. Es wandelte die elektrischen Impulse des Radars in Schallwellen um und schickte diese Wellen dann durch ein Quecksilberrohr, sodass der Schall am anderen Ende ankam und wieder in einen elektrischen Impuls umgewandelt wurde, während das Radar denselben Punkt am Himmel erneut abtastete (Verzögerungsleitungen). Zur Schallausbreitung können auch andere Medien verwendet werden: andere Flüssigkeiten, feste Kristalle und sogar Luft (einigen Quellen zufolge wurde ihre Idee vom Bell Labs-Physiker William Shockley erfunden, über den später berichtet wird). Jedes vom Radar gleichzeitig mit dem Signal über die Röhre eintreffende Signal wurde als Signal eines stationären Objekts betrachtet und entfernt.

Eckert erkannte, dass die Schallimpulse in der Verzögerungsleitung als Binärzahlen betrachtet werden können – 1 zeigt das Vorhandensein von Schall an, 0 bedeutet dessen Abwesenheit. Eine einzelne Quecksilberröhre kann Hunderte dieser Ziffern enthalten, die jeweils mehrere Male pro Millisekunde durch die Leitung laufen, was bedeutet, dass ein Computer einige hundert Mikrosekunden warten müsste, um auf die Ziffer zuzugreifen. In diesem Fall wäre der Zugriff auf aufeinanderfolgende Ziffern im Mobilteil schneller, da die Ziffern nur wenige Mikrosekunden voneinander entfernt wären.

Geschichte elektronischer Computer, Teil 4: Die elektronische Revolution
Mercury-Verzögerungsleitungen im britischen EDSAC-Computer

Nachdem von Neumann große Probleme mit dem Design des Computers gelöst hatte, fasste von Neumann im Frühjahr 101 die Ideen der gesamten Gruppe in einem 1945-seitigen „ersten Entwurf“ zusammen und verteilte ihn an Schlüsselfiguren des EDVAC-Projekts der zweiten Generation. Schon bald drang er in andere Kreise vor. Der Mathematiker Leslie Comrie beispielsweise nahm nach seinem Besuch in Moores Schule im Jahr 1946 ein Exemplar mit nach Großbritannien und teilte es mit Kollegen. Die Verbreitung des Berichts verärgerte Eckert und Mauchly aus zwei Gründen: Erstens wurde ein großer Teil der Anerkennung dem Autor des Entwurfs, von Neumann, zugeschrieben. Zweitens wurden alle im System enthaltenen Hauptideen tatsächlich aus der Sicht des Patentamts veröffentlicht, was ihre Pläne zur Kommerzialisierung des elektronischen Computers beeinträchtigte.

Der eigentliche Grund für den Unmut von Eckert und Mauchly löste wiederum die Empörung der Mathematiker aus: von Neumann, Goldstein und Burks. Ihrer Ansicht nach stelle der Bericht wichtige neue Erkenntnisse dar, die im Sinne des wissenschaftlichen Fortschritts möglichst weit verbreitet werden müssten. Darüber hinaus wurde dieses gesamte Unternehmen von der Regierung und damit auf Kosten der amerikanischen Steuerzahler finanziert. Der kommerzielle Versuch von Eckert und Mauchly, mit dem Krieg Geld zu verdienen, stößt sie ab. Von Neumann schrieb: „Ich hätte niemals eine Stelle als Universitätsberater angenommen, wenn ich gewusst hätte, dass ich einen Wirtschaftskonzern berate.“

1946 trennten sich die Wege der Fraktionen: Eckert und Mauchly eröffneten ihr eigenes Unternehmen auf der Grundlage eines scheinbar sichereren Patents auf Basis der ENIAC-Technologie. Sie nannten ihr Unternehmen zunächst Electronic Control Company, benannten es jedoch im folgenden Jahr in Eckert-Mauchly Computer Corporation um. Von Neumann kehrte zum IAS zurück, um einen Computer auf Basis des EDVAC zu bauen, und wurde von Goldstein und Burks unterstützt. Um eine Wiederholung der Situation von Eckert und Mauchly zu verhindern, stellten sie sicher, dass das gesamte geistige Eigentum des neuen Projekts öffentlich zugänglich wurde.

Geschichte elektronischer Computer, Teil 4: Die elektronische Revolution
Von Neumann vor dem IAS-Rechner, Baujahr 1951.

Retreat gewidmet Alan Turing

Zu den Leuten, die den EDVAC-Bericht auf Umwegen sahen, gehörte der britische Mathematiker Alan Turing. Turing gehörte nicht zu den ersten Wissenschaftlern, die einen automatischen Computer entwickelten oder sich dessen vorstellten, ob elektronisch oder nicht, und einige Autoren haben seine Rolle in der Geschichte der Informatik stark übertrieben. Allerdings müssen wir ihm Anerkennung dafür zollen, dass er der Erste war, der erkannte, dass Computer mehr können, als nur etwas zu „berechnen“, indem sie einfach große Zahlenfolgen verarbeiten. Seine Hauptidee war, dass vom menschlichen Geist verarbeitete Informationen in Form von Zahlen dargestellt werden können, sodass jeder mentale Prozess in eine Berechnung umgewandelt werden kann.

Geschichte elektronischer Computer, Teil 4: Die elektronische Revolution
Alan Turing im Jahr 1951

Ende 1945 veröffentlichte Turing seinen eigenen Bericht, der von Neumann erwähnte, mit dem Titel „Proposal for an Electronic Calculator“ und für das britische National Physical Laboratory (NPL) bestimmt war. Er ging nicht so tief auf die spezifischen Details des Designs des vorgeschlagenen elektronischen Computers ein. Sein Diagramm spiegelte den Geist eines Logikers wider. Es war nicht vorgesehen, spezielle Hardware für High-Level-Funktionen zu haben, da diese aus Low-Level-Primitiven zusammengesetzt werden konnten; es wäre ein hässlicher Wucher auf der schönen Symmetrie des Autos. Turing wies dem Computerprogramm auch keinen linearen Speicher zu – Daten und Anweisungen konnten im Speicher nebeneinander existieren, da es sich lediglich um Zahlen handelte. Eine Anweisung wurde erst zu einer Anweisung, wenn sie als solche interpretiert wurde (Turings Aufsatz „Über berechenbare Zahlen“ von 1936 hatte bereits die Beziehung zwischen statischen Daten und dynamischen Anweisungen untersucht. Er beschrieb, was später als „Turing-Maschine“ bezeichnet wurde, und zeigte, wie es funktioniert könnte in eine Zahl umgewandelt und als Eingabe einer universellen Turing-Maschine zugeführt werden, die jede andere Turing-Maschine interpretieren und ausführen kann. Da Turing wusste, dass Zahlen jede Form genau spezifizierter Informationen darstellen können, nahm er in die Liste der auf diesem Computer zu lösenden Probleme nicht nur die Konstruktion von Artillerietabellen und die Lösung linearer Gleichungssysteme auf, sondern auch die Lösung von Rätseln und Schachstudien.

Die Automatic Turing Engine (ACE) wurde nie in ihrer ursprünglichen Form gebaut. Es war zu langsam und musste mit ehrgeizigeren britischen Computerprojekten um die besten Talente konkurrieren. Das Projekt stagnierte mehrere Jahre lang, dann verlor Turing das Interesse daran. 1950 stellte NPL den Pilot ACE her, eine kleinere Maschine mit einem etwas anderen Design, und mehrere andere Computerdesigns ließen sich in den frühen 1950er Jahren von der ACE-Architektur inspirieren. Doch es gelang ihr nicht, ihren Einfluss auszuweiten, und sie geriet schnell in Vergessenheit.

Aber all das schmälert Turings Verdienste nicht, es hilft lediglich, ihn in den richtigen Kontext einzuordnen. Die Bedeutung seines Einflusses auf die Geschichte der Computer beruht nicht auf den Computerentwürfen der 1950er Jahre, sondern auf der theoretischen Grundlage, die er für die in den 1960er Jahren entstandene Informatik lieferte. Seine frühen Arbeiten zur mathematischen Logik, die die Grenzen des Berechenbaren und Unberechenbaren erforschten, wurden zu grundlegenden Texten der neuen Disziplin.

Langsame Revolution

Als sich die Nachricht von ENIAC und dem EDVAC-Bericht verbreitete, wurde Moores Schule zu einem Wallfahrtsort. Viele Besucher kamen vor allem aus den USA und Großbritannien, um zu Füßen der Meister zu lernen. Um den Bewerberstrom zu rationalisieren, musste der Dekan der Schule 1946 auf Einladung eine Sommerschule zu automatischen Rechenmaschinen organisieren. Vorträge wurden von Größen wie Eckert, Mauchly, von Neumann, Burks, Goldstein und Howard Aiken (Entwickler des elektromechanischen Computers Harvard Mark I) gehalten.

Jetzt wollte fast jeder Maschinen nach den Anweisungen des EDVAC-Berichts bauen (ironischerweise war ENIAC selbst die erste Maschine, die ein im Speicher gespeichertes Programm ausführte, die 1948 auf die Verwendung von im Speicher gespeicherten Anweisungen umgestellt wurde. Erst dann begann es damit erfolgreich in seinem neuen Zuhause, dem Aberdeen Proving Ground, arbeiten). Sogar die Namen neuer Computerdesigns, die in den 1940er und 50er Jahren entwickelt wurden, wurden von ENIAC und EDVAC beeinflusst. Selbst wenn man UNIVAC und BINAC (entstanden im neuen Unternehmen von Eckert und Mauchly) und EDVAC selbst (das an der Moore School endete, nachdem ihre Gründer sie verlassen hatten) nicht berücksichtigt, gibt es immer noch AVIDAC, CSIRAC, EDSAC, FLAC, ILLIAC, JOHNNIAC, ORDVAC, SEAC, SILLIAC, SWAC und WEIZAC. Viele von ihnen kopierten direkt das frei veröffentlichte IAS-Design (mit geringfügigen Änderungen) und nutzten von Neumanns Politik der Offenheit in Bezug auf geistiges Eigentum.

Die elektronische Revolution entwickelte sich jedoch schrittweise und veränderte die bestehende Ordnung Schritt für Schritt. Die erste Maschine im EDVAC-Stil erschien erst 1948 und war nur ein kleines Proof-of-Concept-Projekt, ein „Baby“ aus Manchester, das die Funktionsfähigkeit des Speichers beweisen sollte Williams-Röhren (Die meisten Computer wechselten von Quecksilberröhren zu einem anderen Speichertyp, der ebenfalls seinen Ursprung in der Radartechnologie hat. Nur wurde anstelle von Röhren ein CRT-Bildschirm verwendet. Der britische Ingenieur Frederick Williams war der erste, der herausfand, wie man das Problem mit dem lösen kann Stabilität dieses Gedächtnisses, wodurch Laufwerke seinen Namen erhielten). Im Jahr 1949 entstanden vier weitere Maschinen: die vollwertige Manchester Mark I, EDSAC an der Universität Cambridge, CSIRAC in Sydney (Australien) und die amerikanische BINAC – letztere wurde jedoch nie in Betrieb genommen. Klein, aber stabil Computerfluss für die nächsten fünf Jahre fortgesetzt.

Einige Autoren haben ENIAC so beschrieben, als hätte es einen Vorhang hinter die Vergangenheit gezogen und uns sofort in die Ära des elektronischen Rechnens geführt. Aus diesem Grund wurden die tatsächlichen Beweise stark verfälscht. „Das Aufkommen des vollelektronischen ENIAC machte den Mark I fast sofort überflüssig (obwohl er danach noch fünfzehn Jahre lang erfolgreich funktionierte)“, schrieb Katherine Davis Fishman, The Computer Establishment (1982). Diese Aussage ist so offensichtlich widersprüchlich, dass man meinen könnte, Miss Fishmans linke Hand wisse nicht, was ihre rechte tat. Man kann dies natürlich auf die Notizen eines einfachen Journalisten zurückführen. Wir finden jedoch ein paar echte Historiker, die erneut den Mark I als ihren Prügelknaben wählen und schreiben: „Der Harvard Mark I war nicht nur eine technische Sackgasse, er hat während seiner fünfzehn Betriebsjahre überhaupt nichts wirklich Nützliches geleistet.“ Es wurde in mehreren Marineprojekten eingesetzt und dort erwies sich die Maschine als nützlich genug, damit die Marine weitere Computer für das Aiken-Labor bestellen konnte.“ [Aspray und Campbell-Kelly]. Wieder ein klarer Widerspruch.

Tatsächlich hatten Relaiscomputer ihre Vorteile und arbeiteten weiterhin neben ihren elektronischen Verwandten. Nach dem Zweiten Weltkrieg und sogar in den frühen 1950er Jahren wurden in Japan mehrere neue elektromechanische Computer entwickelt. Relaismaschinen waren einfacher zu konstruieren, zu bauen und zu warten und erforderten nicht so viel Strom und Klimaanlage (um die enorme Wärmemenge abzuleiten, die von Tausenden von Vakuumröhren abgegeben wird). ENIAC verbrauchte 150 kW Strom, 20 davon wurden für die Kühlung verwendet.

Das US-Militär war weiterhin der Hauptverbraucher von Rechenleistung und vernachlässigte „veraltete“ elektromechanische Modelle nicht. In den späten 1940er Jahren verfügte die Armee über vier Relaiscomputer und die Marine über fünf. Das Ballistics Research Laboratory in Aberdeen verfügte mit ENIAC, Relaisrechnern von Bell und IBM und einem alten Differentialanalysator über die größte Konzentration an Rechenleistung der Welt. Im Bericht vom September 1949 wurde jedem seine Stelle zugewiesen: ENIAC funktionierte am besten mit langen, einfachen Berechnungen; Der Modell-V-Rechner von Bell war dank seiner praktisch unbegrenzten Länge des Befehlsbands und der Gleitkommafunktionen besser in der Lage, komplexe Berechnungen zu verarbeiten, und IBM konnte sehr große Informationsmengen verarbeiten, die auf Lochkarten gespeichert waren. Bestimmte Vorgänge, beispielsweise das Ziehen von Kubikwurzeln, ließen sich immer noch einfacher manuell durchführen (mit einer Kombination aus Tabellenkalkulationen und Tischrechnern) und sparten Maschinenzeit.

Der beste Indikator für das Ende der Revolution der elektronischen Datenverarbeitung wäre nicht das Jahr 1945, als ENIAC geboren wurde, sondern das Jahr 1954, als die Computer IBM 650 und 704 auf den Markt kamen. Dies waren nicht die ersten kommerziellen elektronischen Computer, aber sie waren die ersten, die in hergestellt wurden die Hunderte und bestimmten IBMs Dominanz in der Computerindustrie, die dreißig Jahre anhielt. In der Terminologie Thomas Kuhn, elektronische Computer waren nicht länger die seltsame Anomalie der 1940er Jahre, die nur in den Träumen von Ausgestoßenen wie Atanasov und Mauchly existierte; Sie sind zur normalen Wissenschaft geworden.

Geschichte elektronischer Computer, Teil 4: Die elektronische Revolution
Einer von vielen IBM 650-Computern – in diesem Fall ein Beispiel der Texas A&M University. Der magnetische Trommelspeicher (unten) machte es relativ langsam, aber auch relativ kostengünstig.

Das Nest verlassen

Mitte der 1950er Jahre hatten sich Schaltung und Design digitaler Computergeräte von ihren Ursprüngen in analogen Schaltern und Verstärkern gelöst. Die Computerentwürfe der 1930er und frühen 40er Jahre stützten sich stark auf Ideen aus Physik- und Radarlabors und insbesondere auf Ideen von Telekommunikationsingenieuren und Forschungsabteilungen. Jetzt hatten Computer ihr eigenes Fachgebiet organisiert, und Experten auf diesem Gebiet entwickelten ihre eigenen Ideen, ihr eigenes Vokabular und ihre eigenen Werkzeuge, um ihre eigenen Probleme zu lösen.

Der Computer erschien in seinem modernen Sinne und daher in unserem Staffelgeschichte geht zu Ende. Die Welt der Telekommunikation hatte jedoch noch einen weiteren interessanten Trumpf im Ärmel. Die Vakuumröhre übertraf das Relais dadurch, dass sie keine beweglichen Teile enthielt. Und das letzte Relais in unserer Geschichte hatte den Vorteil, dass es keinerlei interne Teile enthielt. Der harmlos aussehende Materieklumpen, aus dem ein paar Drähte herausragen, ist dank eines neuen Zweigs der Elektronik entstanden, der als „Festkörper“ bekannt ist.

Obwohl Vakuumröhren schnell waren, waren sie dennoch teuer, groß, heiß und nicht besonders zuverlässig. Es war unmöglich, damit beispielsweise einen Laptop zu bauen. Von Neumann schrieb 1948: „Es ist unwahrscheinlich, dass wir die Zahl der Schalter von 10 (oder vielleicht mehreren Zehntausend) überschreiten können, solange wir gezwungen sind, die aktuelle Technologie und Philosophie anzuwenden.“ Das Halbleiterrelais gab Computern die Möglichkeit, diese Grenzen immer wieder zu überschreiten und sie immer wieder zu durchbrechen; kommen in kleinen Unternehmen, Schulen, Haushalten und Haushaltsgeräten zum Einsatz und passen in Taschen; ein magisches digitales Land zu schaffen, das unsere heutige Existenz durchdringt. Und um seinen Ursprung zu finden, müssen wir die Uhr vor fünfzig Jahren zurückdrehen und zu den interessanten Anfängen der drahtlosen Technologie zurückkehren.

Was gibt es sonst noch zu lesen:

  • David Anderson, „Wurde das Manchester Baby in Bletchley Park gezeugt?“, British Computer Society (4. Juni 2004)
  • William Aspray, John von Neumann und die Ursprünge des modernen Computing (1990)
  • Martin Campbell-Kelly und William Aspray, Computer: Eine Geschichte der Informationsmaschine (1996)
  • Thomas Haigh et. al., Eniac in Action (2016)
  • John von Neumann, „Erster Entwurf eines Berichts über EDVAC“ (1945)
  • Alan Turing, „Vorgeschlagener elektronischer Rechner“ (1945)

Source: habr.com

Kommentar hinzufügen