Historia Internetu: odkrywanie interaktywności

Historia Internetu: odkrywanie interaktywności

Inne artykuły z serii:

Pierwsze komputery elektroniczne były unikalnymi urządzeniami stworzonymi do celów badawczych. Kiedy jednak stały się dostępne, organizacje szybko włączyły je do swojej istniejącej kultury danych — takiej, w której wszystkie dane i procesy były reprezentowane w stosach. karty perforowane.

Hermana Hollerita pod koniec XIX wieku opracował pierwszy tabulator zdolny do odczytywania i liczenia danych z dziur w kartach papierowych na potrzeby spisu ludności Stanów Zjednoczonych. W połowie następnego stulecia bardzo zróżnicowana menażeria potomków tej maszyny przeniknęła do dużych przedsiębiorstw i organizacji rządowych na całym świecie. Ich wspólnym językiem była karta składająca się z kilku kolumn, gdzie każda kolumna (zwykle) reprezentowała jedną liczbę, którą można było wbić w jedną z dziesięciu pozycji reprezentujących liczby od 0 do 9.

Do zapisywania danych wejściowych na kartach nie były potrzebne żadne skomplikowane urządzenia, a proces można było rozłożyć na wiele biur w organizacji, która wygenerowała dane. Gdy dane wymagały przetworzenia — na przykład w celu obliczenia przychodów na potrzeby kwartalnego raportu sprzedaży — odpowiednie karty można przenieść do centrum danych i ustawić w kolejce do przetworzenia przez odpowiednie maszyny, które wygenerowały zestaw danych wyjściowych na kartach lub wydrukowały je na papierze . Wokół centralnych maszyn przetwarzających — tabulatorów i kalkulatorów — skupiono urządzenia peryferyjne do dziurkowania, kopiowania, sortowania i interpretacji kart.

Historia Internetu: odkrywanie interaktywności
IBM 285 Tabulator, popularna maszyna do kart dziurkowanych w latach trzydziestych i czterdziestych XX wieku.

W drugiej połowie lat pięćdziesiątych prawie wszystkie komputery pracowały w oparciu o ten schemat „przetwarzania wsadowego”. Z perspektywy typowego końcowego użytkownika-sprzedaży niewiele się zmieniło. Przyniosłeś do obróbki stos kart dziurkowanych i w efekcie pracy otrzymałeś wydruk lub kolejny stos kart dziurkowanych. W trakcie tego procesu karty zmieniły się z dziur w papierze w sygnały elektroniczne i odwrotnie, ale nie przejmowałeś się tym zbytnio. IBM zdominował dziedzinę maszyn do przetwarzania kart dziurkowanych i pozostał jedną z dominujących sił w dziedzinie komputerów elektronicznych, w dużej mierze dzięki ugruntowanym relacjom i szerokiej gamie sprzętu peryferyjnego. Po prostu zastąpili mechaniczne tabulatory i kalkulatory klientów szybszymi i bardziej elastycznymi maszynami do przetwarzania danych.

Historia Internetu: odkrywanie interaktywności
Zestaw do przetwarzania kart dziurkowanych IBM 704. Na pierwszym planie dziewczyna pracuje z czytnikiem.

Ten system przetwarzania kart dziurkowanych działał doskonale przez dziesięciolecia i nie podupadł – wręcz przeciwnie. A jednak pod koniec lat pięćdziesiątych marginalna subkultura badaczy komputerów zaczęła argumentować, że cały ten przepływ pracy wymaga zmiany – argumentowali, że najlepiej używać komputera w trybie interaktywnym. Zamiast zostawiać ją z zadaniem i wracać po wyniki, użytkownik musi komunikować się bezpośrednio z maszyną i na żądanie korzystać z jej możliwości. W Kapitale Marks opisał, jak maszyny przemysłowe – którymi po prostu sterują ludzie – zastąpiły narzędzia pracy bezpośrednio kontrolowane przez ludzi. Jednak komputery zaczęły istnieć w postaci maszyn. Dopiero później niektórzy z ich użytkowników zamienili je w narzędzia.

A ta transformacja nie dokonała się w centrach danych takich jak US Census Bureau, firma ubezpieczeniowa MetLife czy United States Steel Corporation (wszystkie z nich jako jedne z pierwszych kupiły UNIVAC, jeden z pierwszych komputerów dostępnych na rynku). Jest mało prawdopodobne, aby organizacja uważająca cotygodniowe listy płac za najbardziej efektywny i niezawodny sposób chciała, aby ktoś zakłócał to przetwarzanie, bawiąc się komputerem. Wartość możliwości siedzenia przy konsoli i po prostu wypróbowania czegoś na komputerze była bardziej jasna dla naukowców i inżynierów, którzy chcieli zbadać problem, podejść do niego z różnych punktów widzenia, aż do odkrycia jego słabego punktu i szybko przełączać się między myśleć i robić.

Dlatego takie pomysły zrodziły się wśród badaczy. Jednakże pieniądze na opłacenie takiego marnotrawstwa komputera nie pochodziły od szefów ich wydziałów. Nowa subkultura (można nawet powiedzieć kultowa) interaktywnej pracy komputerowej zrodziła się z produktywnego partnerstwa między wojskiem a elitarnymi uniwersytetami w Stanach Zjednoczonych. Ta wzajemnie korzystna współpraca rozpoczęła się podczas II wojny światowej. Broń atomowa, radar i inna broń magiczna nauczyły dowódców wojskowych, że pozornie niezrozumiałe działania naukowców mogą mieć ogromne znaczenie dla wojska. Ten wygodny związek trwał około pokolenia, a następnie rozpadł się w wyniku politycznych perypetii innej wojny, Wietnamu. Ale w tym czasie amerykańscy naukowcy mieli dostęp do ogromnych sum pieniędzy, byli prawie niezakłóceni i mogli zrobić prawie wszystko, co choć trochę można było powiązać z obroną narodową.

Uzasadnienie komputerów interaktywnych zaczęło się od bomby.

Wicher i SAGE

29 sierpnia 1949 roku sowiecki zespół badawczy pomyślnie przeprowadził badania pierwszy test broni nuklearnej na Stanowisko testowe w Semipałatyńsku. Trzy dni później amerykański samolot zwiadowczy przelatujący nad Północnym Pacyfikiem odkrył ślady materiału radioaktywnego w atmosferze pozostałej po teście. ZSRR miał bombę, o czym dowiedzieli się ich amerykańscy rywale. Napięcia między obydwoma supermocarstwami utrzymywały się przez ponad rok, odkąd ZSRR odciął drogi lądowe do kontrolowanych przez Zachód obszarów Berlina w odpowiedzi na plany przywrócenia Niemcom dawnej świetności gospodarczej.

Blokada zakończyła się wiosną 1949 r., udaremniona masową operacją rozpoczętą przez Zachód w celu wsparcia miasta z powietrza. Napięcie nieco opadło. Jednak amerykańscy generałowie nie mogli zignorować istnienia potencjalnie wrogich sił mających dostęp do broni nuklearnej, zwłaszcza biorąc pod uwagę stale rosnące rozmiary i zasięg bombowców strategicznych. Stany Zjednoczone posiadały sieć stacji radarowych do wykrywania samolotów rozmieszczonych wzdłuż wybrzeży Atlantyku i Pacyfiku podczas II wojny światowej. Korzystały jednak z przestarzałej technologii, nie obejmowały północnych podejść przez Kanadę i nie były połączone centralnym systemem koordynującym obronę powietrzną.

Aby zaradzić tej sytuacji, Siły Powietrzne (od 1947 r. niezależna jednostka wojskowa USA) powołały Komitet Inżynierii Obrony Powietrznej (ADSEC). Został zapamiętany w historii jako „Komitet Walleya”, nazwany na cześć jego przewodniczącego, George'a Whalleya. Był fizykiem z MIT i weteranem wojskowej grupy badawczej Rad Lab, która po wojnie przekształciła się w Laboratorium Badawcze Elektroniki (RLE). Komisja badała problem przez rok, a raport końcowy Valli został opublikowany w październiku 1950 roku.

Można by się spodziewać, że takie sprawozdanie będzie nudną mieszaniną biurokracji, zakończoną ostrożnie sformułowaną i konserwatywną propozycją. Zamiast tego raport okazał się ciekawym elementem twórczej argumentacji, zawierającym radykalny i ryzykowny plan działania. To oczywista zasługa innego profesora z MIT, Norberta Wienera, który argumentował, że badanie istot żywych i maszyn można połączyć w jedną dyscyplinę cybernetyka. Valli i jego współautorzy zaczynali od założenia, że ​​system obrony powietrznej to żywy organizm, nie w przenośni, ale w rzeczywistości. Stacje radarowe służą jako narządy zmysłów, przechwytywacze, a rakiety są efektorami, za pośrednictwem których oddziałuje ze światem. Pracują pod kontrolą reżysera, który na podstawie informacji płynących ze zmysłów podejmuje decyzje dotyczące niezbędnych działań. Argumentowali dalej, że dyrektor składający się wyłącznie z człowieka nie byłby w stanie zatrzymać setek nadlatujących samolotów na milionach kilometrów kwadratowych w ciągu minut, dlatego jak najwięcej funkcji reżysera powinno zostać zautomatyzowanych.

Najbardziej niezwykłe z ich ustaleń jest takie, że najlepszym sposobem zautomatyzowania reżysera byłoby wykorzystanie cyfrowych komputerów elektronicznych, które mogą przejąć część procesu decyzyjnego człowieka: analizowanie nadchodzących zagrożeń, namierzanie broni przeciwko tym zagrożeniom (obliczanie kursów przechwytywania i przesyłanie ich do bojowników), a być może nawet opracowanie strategii optymalnych form reakcji. Nie było wtedy wcale oczywiste, że komputery nadają się do takiego celu. W całych Stanach Zjednoczonych działały wówczas dokładnie trzy działające komputery elektroniczne i żaden z nich nie był nawet w stanie spełnić wymagań niezawodności stawianych systemowi wojskowemu, od którego zależy życie milionów ludzi. Były to po prostu bardzo szybkie i programowalne maszyny do przetwarzania liczb.

Jednak Valli miał powody wierzyć w możliwość stworzenia cyfrowego komputera działającego w czasie rzeczywistym, ponieważ wiedział o projekcie Trąba powietrzna ["Wir"]. Zaczęło się podczas wojny w laboratorium serwomechanizmów MIT pod kierunkiem młodego studenta, Jaya Forrestera. Jego początkowym celem było stworzenie symulatora lotu ogólnego przeznaczenia, który można by ponownie skonfigurować tak, aby obsługiwał nowe modele samolotów, bez konieczności każdorazowego przebudowywania od zera. Kolega przekonał Forrestera, że ​​jego symulator powinien wykorzystywać elektronikę cyfrową do przetwarzania parametrów wejściowych z pilota i generowania stanów wyjściowych dla przyrządów. Stopniowo próba stworzenia szybkiego komputera cyfrowego przerosła i przyćmiła pierwotny cel. O symulatorze lotu zapomniano, wojna, która dała początek jego powstaniu, już dawno się zakończyła, a komisja inspektorów Biura Badań Marynarki Wojennej (ONR) stopniowo traciła złudzenia co do projektu ze względu na stale rosnący budżet i stale rosnące koszty -przesunięcie terminu zakończenia. W 1950 roku ONR krytycznie obciął budżet Forrestera na następny rok, zamierzając po tym czasie całkowicie zamknąć projekt.

Jednak dla George Valley „Trąba powietrzna” była objawieniem. Rzeczywisty komputer Whirlwind wciąż był daleki od działania. Jednak po tym miał pojawić się komputer, który nie byłby tylko umysłem bez ciała. Jest to komputer wyposażony w narządy zmysłów i efektory. Organizm. Forrester rozważał już plany rozszerzenia projektu na najważniejszy w kraju wojskowy system centrum dowodzenia i kontroli. Ekspertom komputerowym z ONR, którzy wierzyli, że komputery nadają się jedynie do rozwiązywania problemów matematycznych, takie podejście wydawało się imponujące i absurdalne. Jednak właśnie takiego pomysłu szukał Valli i pojawił się w samą porę, aby ocalić Trąbę Powietrzną od zapomnienia.

Pomimo (a może z powodu) swoich wielkich ambicji raport Valli przekonał Siły Powietrzne, które rozpoczęły nowy, masowy program badawczo-rozwojowy, aby najpierw zrozumieć, jak stworzyć system obrony powietrznej oparty na komputerach cyfrowych, a następnie go faktycznie zbudować. Siły Powietrzne rozpoczęły współpracę z MIT w celu przeprowadzenia podstawowych badań – co było naturalnym wyborem, biorąc pod uwagę doświadczenie tej instytucji w Whirlwind i RLE, a także historię udanej współpracy w zakresie obrony powietrznej sięgającą czasów Rad Lab i II wojny światowej. Nazwali nową inicjatywę „Projektem Lincoln” i zbudowali nowe laboratorium badawcze Lincolna w Hanscom Field, 25 km na północny zachód od Cambridge.

Siły Powietrzne nazwały projekt skomputeryzowanej obrony powietrznej SAGE - typowy dziwny akronim projektu wojskowego oznaczający „półautomatyczne środowisko naziemne”. Whirlwind miał być komputerem testowym, mającym wykazać wykonalność koncepcji przed rozpoczęciem produkcji sprzętu na pełną skalę i jego wdrożeniem - odpowiedzialność tę powierzono IBM. Działająca wersja komputera Whirlwind, który miał być produkowany w IBM, otrzymała znacznie mniej zapadającą w pamięć nazwę AN/FSQ-7 („Stały sprzęt specjalnego przeznaczenia dla armii i marynarki wojennej” – co w porównaniu z tym sprawia, że ​​SAGE wydaje się całkiem dokładny).

Zanim Siły Powietrzne sporządziły pełne plany systemu SAGE w 1954 roku, składały się one z różnych instalacji radarowych, baz lotniczych i broni przeciwlotniczej – a wszystko to kontrolowane było z dwudziestu trzech ośrodków kontroli i potężnych bunkrów zaprojektowanych tak, aby wytrzymać bombardowania. Aby obsadzić te centra, IBM musiałby dostarczyć czterdzieści sześć komputerów, a nie dwadzieścia trzy, co kosztowałoby wojsko wiele miliardów dolarów. Dzieje się tak dlatego, że firma nadal stosowała lampy próżniowe w obwodach logicznych, które przepalały się jak żarówki. Każda z dziesiątek tysięcy lamp w działającym komputerze może w każdej chwili ulec awarii. Byłoby oczywiście niedopuszczalne pozostawienie całego sektora przestrzeni powietrznej kraju bez ochrony podczas wykonywania napraw przez techników, dlatego trzeba było mieć pod ręką zapasowy samolot.

Historia Internetu: odkrywanie interaktywności
Centrum kontroli SAGE w bazie sił powietrznych Grand Forks w Północnej Dakocie, gdzie znajdowały się dwa komputery AN/FSQ-7

W każdym centrum kontroli kilkudziesięciu operatorów siedziało przed ekranami elektronopromieniowymi, a każdy monitorował wycinek przestrzeni powietrznej.

Historia Internetu: odkrywanie interaktywności

Komputer śledził wszelkie potencjalne zagrożenia powietrzne i rysował je jako ślady na ekranie. Operator mógł używać pistoletu świetlnego do wyświetlania dodatkowych informacji o szlaku i wydawania poleceń systemowi obronnemu, a komputer zamieniał je w drukowaną wiadomość o dostępnej baterii rakietowej lub bazie Sił Powietrznych.

Historia Internetu: odkrywanie interaktywności

Wirus interaktywności

Biorąc pod uwagę naturę systemu SAGE – bezpośrednią interakcję w czasie rzeczywistym pomiędzy ludźmi a cyfrowym komputerem CRT za pośrednictwem pistoletów świetlnych i konsoli – nie jest zaskakujące, że Lincoln Laboratory wychowało pierwszą grupę mistrzów interaktywnej interakcji z komputerami. Cała kultura komputerowa laboratorium istniała w izolowanej bańce, odciętej od norm przetwarzania wsadowego, które rozwijały się w świecie komercyjnym. Badacze wykorzystali Whirlwind i jego potomków do zarezerwowania okresów, w których mieli wyłączny dostęp do komputera. Są przyzwyczajeni do używania rąk, oczu i uszu do bezpośredniej interakcji za pomocą przełączników, klawiatur, jasno oświetlonych ekranów, a nawet głośników, bez pośredników papierowych.

Ta dziwna i mała subkultura rozprzestrzeniła się na świat zewnętrzny niczym wirus poprzez bezpośredni kontakt fizyczny. A jeśli uznamy to za wirusa, to pacjenta zero należy nazwać młodym mężczyzną o imieniu Wesley Clark. Clark opuścił szkołę podyplomową z fizyki w Berkeley w 1949 roku i został technikiem w elektrowni jądrowej. Jednak nie podobała mu się ta praca. Po przeczytaniu kilku artykułów w magazynach komputerowych zaczął szukać okazji do zagłębienia się w coś, co wydawało się nową i ekscytującą dziedziną pełną niewykorzystanego potencjału. O rekrutacji informatyków do Lincoln Laboratory dowiedział się z ogłoszenia, a w 1951 roku przeniósł się na Wschodnie Wybrzeże, aby pracować u Forrestera, który był już kierownikiem laboratorium komputerów cyfrowych.

Historia Internetu: odkrywanie interaktywności
Wesley Clark demonstruje swój komputer biomedyczny LINC, 1962

Clark dołączył do Advanced Development Group, podsekcji laboratorium, która uosabiała ówczesny swobodny stan współpracy wojskowo-uniwersyteckiej. Chociaż wydział był technicznie częścią wszechświata Lincoln Laboratory, zespół istniał w bańce w innej bańce, odizolowany od codziennych potrzeb projektu SAGE i mógł swobodnie zajmować się dowolną dziedziną komputerową, która mogła być w jakiś sposób powiązana z obrona powietrzna. Ich głównym celem na początku lat pięćdziesiątych było stworzenie komputera testującego pamięć (MTC), zaprojektowanego w celu wykazania wykonalności nowej, wysoce wydajnej i niezawodnej metody przechowywania informacji cyfrowych. pamięć z rdzeniem magnetycznym, który zastąpiłby wybredną pamięć opartą na CRT używaną w Whirlwind.

Ponieważ MTC nie miało innych użytkowników niż twórcy, Clark miał pełny dostęp do komputera przez wiele godzin każdego dnia. Modną wówczas cybernetyczną mieszanką fizyki, fizjologii i teorii informacji Clark zainteresował się modną wówczas cybernetyczną mieszanką fizyki, fizjologii i teorii informacji dzięki swojemu koledze Belmontowi Farleyowi, który komunikował się z grupą biofizyków z RLE w Cambridge. Clark i Farley spędzili długie godziny w MTC, tworząc modele oprogramowania sieci neuronowych do badania właściwości systemów samoorganizujących się. Na podstawie tych eksperymentów Clark zaczął wyprowadzać pewne aksjomatyczne zasady informatyki, od których nigdy nie odstąpił. W szczególności doszedł do wniosku, że „wygoda użytkownika jest najważniejszym czynnikiem projektowym”.

W 1955 roku Clark połączył siły z Kenem Olsenem, jednym z twórców MTC, aby opracować plan stworzenia nowego komputera, który mógłby utorować drogę nowej generacji wojskowych systemów kontroli. Wykorzystując bardzo dużą pamięć z rdzeniem magnetycznym do przechowywania i tranzystory do logiki, mógłby być znacznie bardziej kompaktowy, niezawodny i wydajny niż Whirlwind. Początkowo zaproponowali projekt, który nazwali TX-1 (komputer tranzystorowy i eksperymentalny, „eksperymentalny komputer tranzystorowy” - znacznie wyraźniejszy niż AN/FSQ-7). Jednak kierownictwo Lincoln Laboratory odrzuciło projekt jako zbyt kosztowny i ryzykowny. Tranzystory były na rynku zaledwie kilka lat wcześniej i bardzo niewiele komputerów zostało zbudowanych przy użyciu logiki tranzystorowej. Dlatego Clark i Olsen wrócili z mniejszą wersją samochodu, TX-0, która została zatwierdzona.

Historia Internetu: odkrywanie interaktywności
TX-0

Funkcjonalność komputera TX-0 jako narzędzia zarządzania bazami wojskowymi, choć pretekstem do jego powstania, była dla Clarka znacznie mniej interesująca niż możliwość promowania swoich pomysłów w zakresie projektowania komputerów. Jego zdaniem interaktywność komputerowa przestała być faktem w Lincoln Laboratories i stała się nową normą — właściwym sposobem budowania i używania komputerów, zwłaszcza w pracy naukowej. Dał dostęp do TX-0 biofizykom z MIT, chociaż ich praca nie miała nic wspólnego z PVO, i pozwolił im używać wyświetlacza urządzenia do analizy elektroencefalogramów z badań snu. I nikt nie miał nic przeciwko temu.

TX-0 odniósł na tyle sukces, że w 1956 roku Lincoln Laboratories zatwierdziło pełnowymiarowy komputer tranzystorowy TX-2 z ogromną pamięcią o pojemności dwóch milionów bitów. Realizacja projektu potrwa dwa lata. Następnie wirus ucieknie poza laboratorium. Po ukończeniu TX-2 laboratoria nie będą już musiały korzystać z wczesnego prototypu, dlatego zgodziły się wypożyczyć TX-0 firmie Cambridge firmie RLE. Zainstalowano go na drugim piętrze, nad centrum komputerowym przetwarzania wsadowego. I natychmiast zainfekował komputery i profesorów na kampusie MIT, którzy zaczęli walczyć o okresy, w których mogli uzyskać pełną kontrolę nad komputerem.

Było już jasne, że poprawne napisanie programu komputerowego za pierwszym razem jest prawie niemożliwe. Co więcej, badacze badający nowe zadanie często na początku nie mieli pojęcia, jakie powinno być prawidłowe zachowanie. A na wyniki z centrum komputerowego trzeba było czekać godzinami, a nawet do następnego dnia. Dla dziesiątek nowych programistów w kampusie możliwość wspinania się po drabinie, odkrywania błędów i natychmiastowego ich naprawiania, wypróbowywania nowego podejścia i natychmiastowego dostrzegania lepszych wyników była rewelacją. Niektórzy wykorzystywali swój czas na TX-0 do pracy nad poważnymi projektami naukowymi lub inżynieryjnymi, ale radość z interaktywności przyciągała także bardziej zabawne dusze. Jeden ze studentów napisał program do edycji tekstu, który nazwał „drogą maszyną do pisania”. Inny poszedł w jego ślady i napisał „drogi kalkulator biurkowy”, którego używał do odrabiania zadań domowych z rachunku różniczkowego.

Historia Internetu: odkrywanie interaktywności
Ivan Sutherland demonstruje swój program Sketchpad na TX-2

W międzyczasie Ken Olsen i inny inżynier TX-0, Harlan Anderson, sfrustrowani powolnym postępem projektu TX-2, postanowili wprowadzić na rynek mały interaktywny komputer dla naukowców i inżynierów. Opuścili laboratorium i założyli Digital Equipment Corporation, zakładając biuro w dawnej fabryce tekstyliów nad rzeką Assabet, dziesięć mil na zachód od Lincoln. Ich pierwszy komputer, PDP-1 (wydany w 1961 r.), był w zasadzie klonem TX-0.

TX-0 i Digital Equipment Corporation zaczęły rozpowszechniać dobrą wiadomość o nowym sposobie korzystania z komputerów poza Lincoln Laboratory. Jednak jak dotąd wirus interaktywności został zlokalizowany geograficznie we wschodnim Massachusetts. Ale to miało się wkrótce zmienić.

Co jeszcze warto przeczytać:

  • Lars Heide, Systemy kart dziurkowanych i wczesna eksplozja informacji, 1880-1945 (2009)
  • Joseph Listopad, Obliczenia biomedyczne (2012)
  • Kent C. Redmond i Thomas M. Smith, Od trąby powietrznej do MITER (2000)
  • M. Mitchell Waldrop, Maszyna snów (2001)

Źródło: www.habr.com

Dodaj komentarz