Historia komputerów elektronicznych, część 4: Rewolucja elektroniczna

Historia komputerów elektronicznych, część 4: Rewolucja elektroniczna

Inne artykuły z serii:

Jak dotąd przyjrzeliśmy się każdej z trzech pierwszych prób zbudowania cyfrowego komputera elektronicznego: komputerowi Atanasoff-Berry ABC, wymyślonemu przez Johna Atanasoffa; projekt British Colossus, kierowany przez Tommy'ego Flowersa i ENIAC, stworzony w Moore School na Uniwersytecie Pensylwanii. Wszystkie te projekty były w istocie niezależne. Chociaż John Mauchly, główna siła napędowa projektu ENIAC, był świadomy twórczości Atanasowa, projekt ENIAC w niczym nie przypominał ABC. Jeśli istniał wspólny przodek elektronicznego urządzenia obliczeniowego, był nim skromny licznik Wynne-Williamsa, pierwsze urządzenie, w którym wykorzystano lampy próżniowe do przechowywania danych cyfrowych i które skierowało Atanasoffa, Flowersa i Mauchly'ego na ścieżkę tworzenia komputerów elektronicznych.

Jednak tylko jedna z tych trzech maszyn odegrała rolę w następujących wydarzeniach. ABC nigdy nie stworzyło żadnej użytecznej pracy i, ogólnie rzecz biorąc, nieliczni ludzie, którzy o niej wiedzieli, zapomnieli o niej. Te dwie machiny wojenne okazały się zdolne do przewyższenia wszystkich innych istniejących komputerów, ale Colossus pozostał tajemnicą nawet po pokonaniu Niemiec i Japonii. Dopiero ENIAC stał się powszechnie znany i tym samym stał się posiadaczem standardu obliczeń elektronicznych. I teraz każdy, kto chciał stworzyć urządzenie obliczeniowe oparte na lampach próżniowych, mógł na potwierdzenie odnieść sukces szkoły Moore'a. Zniknął zakorzeniony sceptycyzm społeczności inżynieryjnej, która witała wszystkie tego typu projekty przed 1945 rokiem; sceptycy albo zmienili zdanie, albo milczeli.

Raport EDVAC

Wydany w 1945 roku dokument, bazujący na doświadczeniach tworzenia i użytkowania ENIAC-a, nadał ton kierunkowi technologii komputerowej w świecie po II wojnie światowej. Nazywano go „pierwszym projektem raportu na temat EDVAC” [Electronic Discrete Variable Automatic Computer] i dostarczył szablonu architektury pierwszych komputerów, które można było programować we współczesnym znaczeniu, czyli wykonujących instrukcje pobrane z szybkiej pamięci. I choć dokładne pochodzenie wymienionych w nim idei pozostaje przedmiotem dyskusji, zostało ono podpisane nazwiskiem matematyka Johna von Neumanna (ur. Janos Lajos Neumann). W artykule, typowo dla umysłu matematyka, dokonano także pierwszej próby wyodrębnienia projektu komputera ze specyfikacji konkretnej maszyny; próbował oddzielić samą istotę struktury komputera od jego różnych prawdopodobnych i przypadkowych wcieleń.

Von Neumann, urodzony na Węgrzech, przybył do ENIAC przez Princeton (New Jersey) i Los Alamos (Nowy Meksyk). W 1929 roku jako utalentowany młody matematyk ze znaczącym wkładem w teorię mnogości, mechanikę kwantową i teorię gier opuścił Europę, aby objąć stanowisko na Uniwersytecie Princeton. Cztery lata później pobliski Instytut Studiów Zaawansowanych (IAS) zaproponował mu stałą pracę. W związku z powstaniem nazizmu w Europie von Neumann z radością skorzystał z okazji, aby pozostać na czas nieokreślony po drugiej stronie Atlantyku – i ostatecznie stał się jednym z pierwszych żydowskich uchodźców intelektualnych z hitlerowskiej Europy. Po wojnie ubolewał: „Moje uczucia do Europy są przeciwieństwem nostalgii, ponieważ każdy zakątek, który znam, przypomina mi o zaginionym świecie i ruinach, które nie przynoszą pocieszenia” i wspominał „moje całkowite rozczarowanie człowieczeństwem ludzi w okres od 1933 do 1938 r.”.

Zniesmaczony utraconą wielonarodową Europą swojej młodości, von Neumann skierował cały swój intelekt, aby wspomóc machinę wojenną należącą do kraju, który go chronił. W ciągu następnych pięciu lat przemierzał kraj, doradzając i konsultując w sprawie szerokiej gamy nowych projektów zbrojeniowych, a jednocześnie udało mu się być współautorem płodnej książki o teorii gier. Jego najbardziej tajną i najważniejszą pracą jako konsultanta było stanowisko w Projekcie Manhattan – próbie stworzenia bomby atomowej – którego zespół badawczy znajdował się w Los Alamos (Nowy Meksyk). Robert Oppenheimer zwerbował go latem 1943 roku do pomocy przy modelowaniu matematycznym projektu, a jego obliczenia przekonały resztę grupy do skierowania się w stronę bomby strzelającej do wewnątrz. Taka eksplozja, dzięki materiałom wybuchowym przemieszczającym materiał rozszczepialny do wewnątrz, umożliwiłaby zajście samopodtrzymującej się reakcji łańcuchowej. W rezultacie konieczna była ogromna liczba obliczeń, aby uzyskać idealną kulistą eksplozję skierowaną do wewnątrz przy pożądanym ciśnieniu - a każdy błąd prowadziłby do przerwania reakcji łańcuchowej i fiaska bomby.

Historia komputerów elektronicznych, część 4: Rewolucja elektroniczna
Von Neumann podczas pracy w Los Alamos

W Los Alamos istniała grupa dwudziestu kalkulatorów, którzy mieli do dyspozycji kalkulatory stacjonarne, ale nie radzili sobie z obciążeniem obliczeniowym. Naukowcy dali im sprzęt IBM do pracy z kartami dziurkowanymi, ale i tak nie nadążali. Zażądali od IBM ulepszonego sprzętu, otrzymali go w 1944 roku, ale wciąż nie mogli nadążyć.

Do tego czasu von Neumann dodał kolejny zestaw miejsc do swojego regularnego rejsu przełajowego: odwiedził każde możliwe miejsce, w którym znajdował się sprzęt komputerowy, który mógł się przydać w Los Alamos. Napisał list do Warrena Weavera, szefa wydziału matematyki stosowanej Komitetu Badań nad Obroną Narodową (NDRC) i otrzymał kilka dobrych wskazówek. Udał się do Harvardu, aby przyjrzeć się Markowi I, ale był już całkowicie obciążony pracą dla marynarki wojennej. Rozmawiał z Georgem Stibitzem i rozważał zamówienie komputera przekaźnikowego Bell dla Los Alamos, ale porzucił ten pomysł, gdy dowiedział się, ile czasu to zajmie. Odwiedził grupę z Uniwersytetu Columbia, która pod kierunkiem Wallace’a Eckerta zintegrowała kilka komputerów IBM w większy zautomatyzowany system, ale nie zauważył żadnej zauważalnej poprawy w stosunku do komputerów IBM znajdujących się już w Los Alamos.

Jednak Weaver nie umieścił na liście, którą przekazał von Neumannowi, ani jednego projektu: ENIAC. Z pewnością o tym wiedział: na stanowisku dyrektora matematyki stosowanej odpowiadał za monitorowanie postępu wszystkich projektów informatycznych w kraju. Weaver i NDRC z pewnością mogli mieć wątpliwości co do wykonalności i harmonogramu ENIAC, ale dość zaskakujące jest to, że nawet nie wspomniał o jego istnieniu.

Jakikolwiek był powód, w rezultacie von Neumann dowiedział się o ENIACu jedynie poprzez przypadkowe spotkanie na peronie kolejowym. Tę historię opowiedział Herman Goldstein, łącznik w laboratorium testowym Moore School, w którym zbudowano ENIAC. Goldstein spotkał von Neumanna na stacji kolejowej w Aberdeen w czerwcu 1944 r. – von Neumann wyjeżdżał na jedną ze swoich konsultacji, których udzielał jako członek naukowego komitetu doradczego w Laboratorium Badań Balistycznych w Aberdeen. Goldstein znał reputację von Neumanna jako wielkiego człowieka i nawiązał z nim rozmowę. Chcąc zrobić wrażenie, nie mógł nie wspomnieć o nowym, ciekawym projekcie rozwijającym się w Filadelfii. Podejście Von Neumanna natychmiast zmieniło się z zadowolonego kolegi na podejście twardego kontrolera i zasypywał Goldsteina pytaniami dotyczącymi szczegółów nowego komputera. Znalazł interesujące nowe źródło potencjalnej mocy obliczeniowej dla Los Alamos.

Von Neumann po raz pierwszy odwiedził Prespera Eckerta, Johna Mauchly'ego i innych członków zespołu ENIAC we wrześniu 1944 roku. Od razu zakochał się w projekcie i dodał kolejną pozycję do swojej długiej listy organizacji, z którymi musiał się konsultować. Obie strony na tym skorzystały. Łatwo zrozumieć, dlaczego von Neumanna zainteresował potencjał szybkich obliczeń elektronicznych. ENIAC lub podobna maszyna była w stanie pokonać wszystkie ograniczenia obliczeniowe, które utrudniały postęp Projektu Manhattan i wielu innych istniejących lub potencjalnych projektów (jednak obowiązujące do dziś prawo Saya zapewniło, że nadejście możliwości obliczeniowe wkrótce stworzyłyby na nie równy popyt). Dla szkoły Moore’a błogosławieństwo tak uznanego specjalisty jak von Neumann oznaczało koniec sceptycyzmu wobec niej. Co więcej, biorąc pod uwagę jego bystrą inteligencję i rozległe doświadczenie zdobyte w całym kraju, jego rozległość i głębokość wiedzy w dziedzinie automatycznego przetwarzania danych nie miała sobie równych.

W ten sposób von Neumann zaangażował się w plan Eckerta i Mauchly’ego dotyczący stworzenia następcy ENIAC-a. Razem z Hermanem Goldsteinem i innym matematykiem ENIAC, Arthurem Burksem, rozpoczęli szkicowanie parametrów drugiej generacji komputera elektronicznego i to właśnie pomysły tej grupy von Neumann podsumował w „pierwszym projekcie” raportu. Nowa maszyna musiała być mocniejsza, mieć gładsze linie i co najważniejsze pokonać największą barierę w korzystaniu z ENIAC-a - wielogodzinne konfigurowanie do każdego nowego zadania, podczas których ten potężny i niezwykle drogi komputer po prostu stał bezczynnie. Projektanci najnowszej generacji maszyn elektromechanicznych, Harvard Mark I i Bell Relay Computer, uniknęli tego, wprowadzając instrukcje do komputera za pomocą taśmy papierowej z dziurkami, dzięki czemu operator mógł przygotować papier, podczas gdy maszyna wykonywała inne zadania . Jednakże takie wprowadzanie danych zniweczyłoby przewagę szybkości, jaką zapewnia elektronika; żadna gazeta nie była w stanie dostarczyć danych tak szybko, jak ENIAC mógł je otrzymać. („Kolos” pracował z papierem za pomocą czujników fotoelektrycznych, a każdy z jego pięciu modułów obliczeniowych pochłaniał dane z prędkością 5000 znaków na sekundę, ale było to możliwe tylko dzięki najszybszemu przewijaniu papierowej taśmy. Przejście w dowolne miejsce na taśma wymagała opóźnienia 0,5 s na każde 5000 linii).

Rozwiązaniem problemu, opisanym w „pierwszym projekcie”, było przeniesienie przechowywania instrukcji z „zewnętrznego nośnika zapisu” do „pamięci” – słowo to zostało użyte po raz pierwszy w odniesieniu do komputerowego przechowywania danych (von Neumann specjalnie zastosował w swojej pracy ten i inne terminy biologiczne – bardzo interesowała go praca mózgu i procesy zachodzące w neuronach). Pomysł ten nazwano później „przechowywaniem programów”. Jednak natychmiast doprowadziło to do innego problemu – który nawet Atanasowa zdumiał – nadmiernego wysokiego kosztu lamp elektronicznych. W „pierwszej wersji roboczej” oszacowano, że komputer zdolny do wykonywania szerokiego zakresu zadań obliczeniowych będzie wymagał pamięci składającej się z 250 000 liczb binarnych do przechowywania instrukcji i danych tymczasowych. Pamięci lampowe tej wielkości kosztowałyby miliony dolarów i byłyby całkowicie zawodne.

Rozwiązanie tego dylematu zaproponował Eckert, który na początku lat czterdziestych XX wieku zajmował się badaniami radarowymi w ramach kontraktu pomiędzy Moore School a Rad Lab of MIT, centralnym ośrodkiem badawczym technologii radarowej w Stanach Zjednoczonych. W szczególności Eckert pracował nad systemem radarowym zwanym „Wskaźnikiem ruchomego celu” (MTI), który rozwiązał problem „flary naziemnej”: wszelkich szumów na ekranie radaru wytwarzanych przez budynki, wzgórza i inne nieruchome obiekty, które utrudniały operatorowi wyodrębnienie ważnych informacji – rozmiaru, lokalizacji i prędkości poruszającego się statku powietrznego.

MTI rozwiązało problem flary za pomocą urządzenia o nazwie linia opóźnienia. Przekształcił impulsy elektryczne radaru w fale dźwiękowe, a następnie wysłał te fale do rurki rtęciowej, tak aby dźwięk dotarł na drugi koniec i został ponownie przekształcony w impuls elektryczny, gdy radar ponownie skanował ten sam punkt na niebie (linie opóźnienia do propagacji dźwięk może zostać wykorzystany także przez inne media: inne ciecze, stałe kryształy, a nawet powietrze (według niektórych źródeł ich pomysł wymyślił fizyk z Bell Labs William Shockley, o którym później). Każdy sygnał dochodzący z radaru w tym samym czasie co sygnał nad tubą był uznawany za sygnał z obiektu nieruchomego i usuwany.

Eckert zdał sobie sprawę, że impulsy dźwiękowe w linii opóźniającej można uznać za liczby binarne - 1 oznacza obecność dźwięku, 0 oznacza jego brak. Pojedyncza rurka rtęciowa może zawierać setki takich cyfr, a każda przechodzi przez linię kilka razy na milisekundę, co oznacza, że ​​komputer musiałby poczekać kilkaset mikrosekund, aby uzyskać dostęp do cyfry. W takim przypadku dostęp do kolejnych cyfr w słuchawce byłby szybszy, gdyż cyfry dzieliła zaledwie kilka mikrosekund.

Historia komputerów elektronicznych, część 4: Rewolucja elektroniczna
Linie opóźniające rtęci w brytyjskim komputerze EDSAC

Po rozwiązaniu głównych problemów związanych z konstrukcją komputera, wiosną 101 roku von Neumann zebrał pomysły całej grupy w 1945-stronicowy „pierwszy projekt” raportu i rozesłał go kluczowym osobistościom projektu EDVAC drugiej generacji. Dość szybko przeniknął do innych kręgów. Na przykład matematyk Leslie Comrie po wizycie w szkole Moore’a w 1946 r. zabrał egzemplarz do domu do Wielkiej Brytanii i udostępnił go swoim kolegom. Rozpowszechnienie raportu rozzłościło Eckerta i Mauchly'ego z dwóch powodów: po pierwsze, w dużej mierze przypisywało ono autorowi projektu, von Neumannowi. Po drugie, wszystkie główne idee zawarte w systemie zostały tak naprawdę opublikowane z punktu widzenia urzędu patentowego, co pokrzyżowało jego plany komercjalizacji komputera elektronicznego.

Już same podstawy niechęci Eckerta i Mauchly’ego wywołały z kolei oburzenie matematyków: von Neumanna, Goldsteina i Burksa. Ich zdaniem raport stanowił ważną nową wiedzę, którą należało jak najszerzej upowszechnić w duchu postępu naukowego. W dodatku całe to przedsięwzięcie było finansowane przez rząd, a więc kosztem amerykańskich podatników. Odrzucił ich komercjalizm prób Eckerta i Mauchly'ego zarobienia pieniędzy na wojnie. Von Neumann napisał: „Nigdy nie przyjąłbym stanowiska konsultanta uniwersyteckiego, wiedząc, że doradzam grupie komercyjnej”.

Frakcje rozeszły się w 1946 roku: Eckert i Mauchly otworzyli własną firmę w oparciu o pozornie bezpieczniejszy patent oparty na technologii ENIAC. Początkowo nazwali swoją firmę Electronic Control Company, ale w następnym roku zmienili jej nazwę na Eckert-Mauchly Computer Corporation. Von Neumann wrócił do IAS, aby zbudować komputer oparty na EDVAC, do którego dołączyli Goldstein i Burks. Aby zapobiec powtórzeniu się sytuacji Eckerta i Mauchly'ego, zadbano o to, aby cała własność intelektualna nowego projektu stała się domeną publiczną.

Historia komputerów elektronicznych, część 4: Rewolucja elektroniczna
Von Neumann przed komputerem IAS, zbudowanym w 1951 roku.

Rekolekcje poświęcone Alanowi Turingowi

Wśród osób, które w okrężny sposób zapoznały się z raportem EDVAC, był brytyjski matematyk Alan Turing. Turing nie był jednym z pierwszych naukowców, którzy stworzyli lub wyobrazili sobie automatyczny komputer, elektroniczny lub inny, a niektórzy autorzy znacznie wyolbrzymili jego rolę w historii informatyki. Musimy jednak przyznać mu uznanie, że jako pierwszy zdał sobie sprawę, że komputery mogą zrobić więcej niż tylko „obliczyć” coś, po prostu przetwarzając duże ciągi liczb. Jego główną ideą było to, że informacje przetwarzane przez ludzki umysł można przedstawić w postaci liczb, dzięki czemu każdy proces umysłowy można przekształcić w obliczenia.

Historia komputerów elektronicznych, część 4: Rewolucja elektroniczna
Alana Turinga w 1951 r

Pod koniec 1945 roku Turing opublikował własny raport, w którym wspomniano o von Neumannie, zatytułowany „Propozycja kalkulatora elektronicznego” i przeznaczony dla Brytyjskiego Narodowego Laboratorium Fizycznego (NPL). Nie zagłębiał się tak głęboko w szczegółowe szczegóły konstrukcji proponowanego komputera elektronicznego. Jego diagram odzwierciedlał umysł logika. Nie planowano posiadania specjalnego sprzętu dla funkcji wysokiego poziomu, ponieważ można je było składać z prymitywów niskiego poziomu; byłby to brzydki narośl na pięknej symetrii samochodu. Turing nie przydzielił także programowi komputerowemu żadnej pamięci liniowej – dane i instrukcje mogły współistnieć w pamięci, ponieważ były tylko liczbami. Instrukcja stała się instrukcją dopiero wtedy, gdy została zinterpretowana w ten sposób (w artykule Turinga z 1936 r. „na liczbach obliczalnych” badano już związek między danymi statycznymi a instrukcjami dynamicznymi. Opisał to, co później nazwano „maszyną Turinga” i pokazał, jak to działa można zamienić na liczbę i wprowadzić jako dane wejściowe do uniwersalnej maszyny Turinga, zdolnej do interpretowania i wykonywania dowolnej innej maszyny Turinga). Ponieważ Turing wiedział, że liczby mogą reprezentować dowolną formę ściśle określonej informacji, umieścił na liście problemów do rozwiązania na tym komputerze nie tylko budowę tablic artyleryjskich i rozwiązywanie układów równań liniowych, ale także rozwiązywanie zagadek i studia szachowe.

Automatyczny silnik Turinga (ACE) nigdy nie został zbudowany w swojej oryginalnej formie. Był zbyt wolny i musiał konkurować z bardziej chętnymi brytyjskimi projektami komputerowymi o najlepszych talentów. Projekt utknął w martwym punkcie na kilka lat, po czym Turing stracił nim zainteresowanie. W 1950 roku firma NPL wyprodukowała Pilot ACE, mniejszą maszynę o nieco innej konstrukcji, a kilka innych projektów komputerów czerpało inspirację z architektury ACE z początku lat pięćdziesiątych. Nie udało jej się jednak rozszerzyć swoich wpływów i szybko popadła w zapomnienie.

Ale to wszystko nie umniejsza zasług Turinga, a po prostu pomaga umieścić go we właściwym kontekście. Znaczenie jego wpływu na historię komputerów opiera się nie na projektach komputerów z lat pięćdziesiątych XX wieku, ale na podstawach teoretycznych, jakie zapewnił informatyki, która pojawiła się w latach sześćdziesiątych. Jego wczesne prace z zakresu logiki matematycznej, które badały granice tego, co obliczalne i niepoliczalne, stały się podstawowymi tekstami nowej dyscypliny.

Powolna rewolucja

Gdy rozeszły się wieści o ENIAC i raport EDVAC, szkoła Moore'a stała się miejscem pielgrzymek. Wielu gości przybyło, aby uczyć się u stóp mistrzów, zwłaszcza z USA i Wielkiej Brytanii. Aby usprawnić napływ kandydatów, dziekan szkoły w 1946 roku musiał zorganizować szkołę letnią na automatach liczących, pracującą na zaproszenie. Wykłady wygłaszali tacy luminarze jak Eckert, Mauchly, von Neumann, Burks, Goldstein i Howard Aiken (twórca komputera elektromechanicznego Harvard Mark I).

Teraz prawie wszyscy chcieli budować maszyny według instrukcji z raportu EDVAC (jak na ironię, pierwszą maszyną, która uruchomiła program zapisany w pamięci, był sam ENIAC, który w 1948 roku został przekonwertowany tak, aby korzystał z instrukcji przechowywanych w pamięci. Dopiero wtedy zaczął działać). z sukcesem pracować w swoim nowym domu, Aberdeen Proving Ground). Nawet nazwy nowych projektów komputerów powstałych w latach czterdziestych i pięćdziesiątych XX wieku były pod wpływem ENIAC i EDVAC. Nawet jeśli nie uwzględnić UNIVAC i BINAC (powstałego w nowej firmie Eckerta i Mauchly'ego) oraz samego EDVAC (ukończonego w Szkole Moore po odejściu jej założycieli), to nadal istnieją AVIDAC, CSIRAC, EDSAC, FLAC, ILLIAC, JOHNNIAC, ORDVAC, SEAC, SILLIAC, SWAC i WEIZAC. Wiele z nich bezpośrednio skopiowało swobodnie opublikowany projekt MSR (z niewielkimi zmianami), korzystając z polityki otwartości von Neumanna w zakresie własności intelektualnej.

Rewolucja elektroniczna rozwijała się jednak stopniowo, krok po kroku zmieniając dotychczasowy porządek. Pierwsza maszyna w stylu EDVAC pojawiła się dopiero w 1948 roku i był to tylko mały projekt weryfikujący koncepcję, „dziecko” Manchesteru zaprojektowane w celu udowodnienia żywotności pamięci na Rurki Williamsa (większość komputerów przeszła z lamp rtęciowych na inny rodzaj pamięci, co również swoje pochodzenie zawdzięcza technologii radarowej. Tyle że zamiast lamp zastosowano w nich ekran CRT. Brytyjski inżynier Frederick Williams jako pierwszy wpadł na pomysł rozwiązania problemu z stabilność tej pamięci, dzięki czemu dyski otrzymały jego imię). W 1949 roku powstały jeszcze cztery maszyny: pełnowymiarowa Manchester Mark I, EDSAC na Uniwersytecie w Cambridge, CSIRAC w Sydney (Australia) oraz amerykański BINAC – choć ten ostatni nigdy nie wszedł do użytku. Mały, ale stabilny przepływ komputera kontynuowano przez następne pięć lat.

Niektórzy autorzy opisali ENIAC tak, jakby zaciągnął zasłonę nad przeszłością i natychmiast wprowadził nas w erę komputerów elektronicznych. Z tego powodu prawdziwe dowody zostały znacznie zniekształcone. „Pojawienie się w pełni elektronicznego ENIAC-a niemal natychmiast sprawiło, że Mark I stał się przestarzały (chociaż działał z powodzeniem przez piętnaście lat później)” – napisała Katherine Davis Fishman w The Computer establishment (1982). To stwierdzenie jest tak oczywiste wewnętrznie sprzeczne, że można by pomyśleć, że lewa ręka panny Fishman nie wiedziała, co robi jej prawa ręka. Można to oczywiście przypisać notatkom prostego dziennikarza. Jednakże znajdujemy kilku prawdziwych historyków, którzy po raz kolejny wybrali Mark I na swojego chłopca do bicia, pisząc: „Harvard Mark I nie tylko był technicznym ślepym zaułkiem, ale w ciągu piętnastu lat eksploatacji nie zrobił nic szczególnie przydatnego. Wykorzystano go w kilku projektach Marynarki Wojennej i tam maszyna okazała się na tyle przydatna, że ​​Marynarka Wojenna zamówiła więcej maszyn obliczeniowych dla laboratorium Aiken.” [Aspray i Campbell-Kelly]. Znów wyraźna sprzeczność.

W rzeczywistości komputery przekaźnikowe miały swoje zalety i nadal współpracowały ze swoimi elektronicznymi kuzynami. Kilka nowych komputerów elektromechanicznych powstało po II wojnie światowej, a nawet na początku lat pięćdziesiątych w Japonii. Maszyny przekaźnikowe były łatwiejsze do zaprojektowania, zbudowania i utrzymania, a także nie wymagały tak dużej ilości energii elektrycznej i klimatyzacji (aby rozproszyć ogromną ilość ciepła emitowanego przez tysiące lamp próżniowych). ENIAC zużył 1950 kW energii elektrycznej, z czego 150 wykorzystano do chłodzenia.

Głównym odbiorcą mocy obliczeniowej w dalszym ciągu była armia amerykańska, która nie zaniedbywała „przestarzałych” modeli elektromechanicznych. Pod koniec lat czterdziestych armia miała cztery komputery przekaźnikowe, a marynarka wojenna pięć. Laboratorium Badań Balistycznych w Aberdeen dysponowało największą koncentracją mocy obliczeniowej na świecie, wyposażonym w ENIAC, kalkulatory przekaźnikowe firm Bell i IBM oraz stary analizator różnicowy. W raporcie z września 1940 r. każdemu z nich przypisano swoje miejsce: ENIAC najlepiej radził sobie z długimi i prostymi obliczeniami; Kalkulator Model V firmy Bell lepiej radził sobie ze złożonymi obliczeniami dzięki praktycznie nieograniczonej długości taśmy z instrukcjami i możliwościom zmiennoprzecinkowym, a IBM mógł przetwarzać bardzo duże ilości informacji przechowywanych na kartach dziurkowanych. Tymczasem niektóre operacje, takie jak obliczanie pierwiastków sześciennych, nadal można było łatwiej wykonać ręcznie (przy użyciu kombinacji arkuszy kalkulacyjnych i kalkulatorów stacjonarnych) i zaoszczędzić czas maszyny.

Najlepszym wyznacznikiem końca rewolucji w informatyce elektronicznej nie byłby rok 1945, kiedy narodził się ENIAC, ale rok 1954, kiedy pojawiły się komputery IBM 650 i 704. Nie były to pierwsze komercyjne komputery elektroniczne, ale pierwsze, wyprodukowane w setek i zadecydowało o trwającej trzydzieści lat dominacji IBM w branży komputerowej. W terminologii Tomasz Kuhnkomputery elektroniczne nie były już dziwną anomalią lat czterdziestych XX wieku, istniejącą jedynie w snach wyrzutków takich jak Atanasow i Mauchly; stały się normalną nauką.

Historia komputerów elektronicznych, część 4: Rewolucja elektroniczna
Jeden z wielu komputerów IBM 650 — w tym przypadku przykład z Texas A&M University. Pamięć bębna magnetycznego (na dole) sprawiła, że ​​był on stosunkowo powolny, ale także stosunkowo niedrogi.

Opuszczenie gniazda

W połowie lat pięćdziesiątych obwody i konstrukcja cyfrowego sprzętu komputerowego zostały rozwiązane od swoich początków w analogowych przełącznikach i wzmacniaczach. Projekty komputerów z lat trzydziestych i wczesnych czterdziestych XX wieku w dużej mierze opierały się na pomysłach z laboratoriów fizycznych i radarowych, a zwłaszcza na pomysłach inżynierów telekomunikacji i działów badawczych. Teraz komputery zorganizowały własną dziedzinę, a eksperci w tej dziedzinie opracowywali własne pomysły, słownictwo i narzędzia do rozwiązywania własnych problemów.

Komputer pojawił się w jego nowoczesnym znaczeniu, a zatem i naszym historia przekaźników dobiega końca. Świat telekomunikacji miał jednak jeszcze jednego ciekawego asa w rękawie. Rura próżniowa przewyższała przekaźnik, ponieważ nie miała ruchomych części. A ostatni przekaźnik w naszej historii miał tę zaletę, że całkowicie pozbawiony był jakichkolwiek części wewnętrznych. Niewinnie wyglądająca bryła materii z kilkoma wystającymi drutami powstała dzięki nowej gałęzi elektroniki zwanej „solid-state”.

Chociaż lampy próżniowe były szybkie, nadal były drogie, duże, gorące i niezbyt niezawodne. Nie dało się z nimi zrobić, powiedzmy, laptopa. Von Neumann napisał w 1948 r., że „jest mało prawdopodobne, abyśmy byli w stanie przekroczyć liczbę włączników wynoszącą 10 000 (a może kilkadziesiąt tysięcy), o ile będziemy zmuszeni zastosować obecną technologię i filozofię)”. Przekaźnik półprzewodnikowy dał komputerom możliwość ciągłego przekraczania tych granic, wielokrotnie je łamiąc; sprawdzają się w małych firmach, szkołach, domach, sprzęcie AGD i mieszczą się w kieszeniach; stworzyć magiczną cyfrową krainę, która przenika nasze dzisiejsze życie. Aby poznać jego początki, musimy cofnąć czas pięćdziesiąt lat temu i wrócić do interesujących początków technologii bezprzewodowej.

Co jeszcze warto przeczytać:

  • David Anderson, „Czy dziecko Manchesteru zostało poczęte w Bletchley Park?”, British Computer Society (4 czerwca 2004)
  • William Aspray, John von Neumann i początki współczesnej informatyki (1990)
  • Martin Campbell-Kelly i William Aspray, Komputer: historia maszyny informacyjnej (1996)
  • Thomas Haig i in. in., Eniak w akcji (2016)
  • John von Neumann, „Pierwszy projekt raportu na temat EDVAC” (1945)
  • Alan Turing, „Proponowany kalkulator elektroniczny” (1945)

Źródło: www.habr.com

Dodaj komentarz