Historia Internetu: rozszerzanie interaktywności

Historia Internetu: rozszerzanie interaktywności

Inne artykuły z serii:

We wczesnych latach sześćdziesiątych interaktywne maszyny obliczeniowe, wyhodowane z delikatnych nasion wyhodowanych w Lincoln Laboratory i MIT, zaczęły stopniowo rozprzestrzeniać się wszędzie na dwa różne sposoby. Po pierwsze, same komputery wypuściły macki, które sięgały do ​​pobliskich budynków, kampusów i miast, umożliwiając użytkownikom interakcję z nimi na odległość, z wieloma użytkownikami jednocześnie. Te nowe systemy podziału czasu przekształciły się w platformy dla pierwszych wirtualnych społeczności internetowych. Po drugie, nasiona interaktywności rozprzestrzeniły się po całych stanach i zakorzeniły się w Kalifornii. Za tę pierwszą sadzonkę odpowiedzialna była jedna osoba, psycholog Josepha Carla Robnetta Licklidera.

Józef „nasienie jabłoni”*

*Aluzja do postaci z amerykańskiego folkloru, tzw Johnny'ego Appleseeda, czyli „Johnny Apple Seed”, słynący z aktywnego sadzenia jabłoni na Środkowym Zachodzie Stanów Zjednoczonych (nasiona jabłoni – nasiona jabłoni) / ok. tłumaczenie

Joseph Carl Robnett Licklider – „Lizać” swoim przyjaciołom – specjalizował się w psychoakustyka, dziedzina łącząca wyimaginowane stany świadomości, psychologię pomiaru i fizykę dźwięku. Wspomnieliśmy o nim krótko wcześniej – był konsultantem podczas przesłuchań FCC w sprawie Hush-a-Phone w latach pięćdziesiątych. Podczas wojny doskonalił swoje umiejętności w Harvard Psychoacoustic Laboratory, opracowując technologie poprawiające słyszalność transmisji radiowych w hałaśliwych bombowcach.

Historia Internetu: rozszerzanie interaktywności
Joseph Carl Robnett Licklider, znany również jako Lick

Podobnie jak wielu amerykańskich naukowców swojego pokolenia, po wojnie odkrył sposoby na połączenie swoich zainteresowań z potrzebami wojskowymi, ale nie dlatego, że szczególnie interesował się bronią czy obroną narodową. Istniały tylko dwa główne cywilne źródła finansowania badań naukowych – były to prywatne instytucje założone przez gigantów przemysłowych na przełomie wieków: Fundacja Rockefellera i Instytucja Carnegie. Narodowy Instytut Zdrowia miał zaledwie kilka milionów dolarów, a Narodowa Fundacja Nauki powstała dopiero w 1950 roku, przy równie skromnym budżecie. W latach pięćdziesiątych najlepszym miejscem poszukiwania środków na ciekawe projekty naukowo-technologiczne był Departament Obrony Narodowej.

Dlatego w latach pięćdziesiątych Lick dołączył do Laboratorium Akustycznego MIT, prowadzonego przez fizyków Leo Beranka i Richarda Bolta i otrzymującego prawie całe fundusze od Marynarki Wojennej Stanów Zjednoczonych. Następnie jego doświadczenie w łączeniu ludzkich zmysłów ze sprzętem elektronicznym uczyniło go głównym kandydatem do nowego projektu obrony powietrznej MIT. Uczestnictwo w grupie rozwojowej ”Projekt Charles”, zaangażowany w realizację raportu Komitetu Doliny dotyczącego obrony powietrznej, Leake nalegał na włączenie do projektu badań nad czynnikiem ludzkim, co zaowocowało mianowaniem go na jednego z dyrektorów ds. rozwoju wyświetlaczy radarowych w Lincoln Laboratory.

Tam, w połowie lat pięćdziesiątych, spotkał Wesa Clarka i TX-1950 i od razu został zarażony interaktywnością komputerową. Fascynowała go idea całkowitej kontroli nad potężną maszyną, zdolną do błyskawicznego rozwiązania każdego powierzonego jej zadania. Zaczął rozwijać ideę stworzenia „symbiozy człowieka i maszyny”, partnerstwa człowieka i komputera, zdolnego do zwiększenia mocy intelektualnej człowieka w taki sam sposób, w jaki maszyny przemysłowe zwiększają jego możliwości fizyczne (to warto zauważyć, że Leake uznał to za etap pośredni i że komputery później nauczą się myśleć samodzielnie). Zauważył, że 2% swojego czasu pracy

...poświęcano przede wszystkim czynnościom urzędniczym lub mechanicznym: szukaniu, obliczaniu, rysowaniu, przekształcaniu, ustalaniu logicznych lub dynamicznych konsekwencji zbioru założeń lub hipotez, przygotowaniu do podjęcia decyzji. Co więcej, moje wybory dotyczące tego, czego warto, a czego nie warto próbować, były w haniebnym stopniu zdeterminowane argumentami dotyczącymi możliwości duchownych, a nie zdolności intelektualnych. Operacje, które zajmują większość czasu rzekomo poświęconego myśleniu technicznemu, mogłyby być wykonywane lepiej przez maszyny niż przez ludzi.

Ogólna koncepcja nie odbiegała daleko od tego, co opisał Vannevar Bush „Memex„ – inteligentny wzmacniacz, którego obwód naszkicował w 1945 roku w książce As We May Think, choć zamiast mieszanki elementów elektromechanicznych i elektronicznych, jak Bush, doszliśmy do czysto elektronicznych komputerów cyfrowych. Taki komputer wykorzystałby swoją niesamowitą prędkość do pomocy w pracach biurowych związanych z dowolnym projektem naukowym lub technicznym. Ludzie mogliby uwolnić się od tej monotonnej pracy i całą swoją uwagę poświęcić na formułowaniu hipotez, budowaniu modeli i wyznaczaniu celów komputerowi. Takie partnerstwo zapewniłoby niesamowite korzyści zarówno badaniom, jak i obronie narodowej oraz pomogłoby amerykańskim naukowcom wyprzedzić sowieckich naukowców.

Historia Internetu: rozszerzanie interaktywności
Memex Vannevara Busha, wczesna koncepcja automatycznego systemu wyszukiwania informacji w celu zwiększenia inteligencji

Wkrótce po tym przełomowym spotkaniu Leak przeniósł swoją pasję do komputerów interaktywnych do nowej pracy w firmie konsultingowej prowadzonej przez jego starych kolegów, Bolta i Beranka. Spędzili lata, pracując w niepełnym wymiarze godzin jako konsultant, równolegle z pracą akademicką w dziedzinie fizyki; na przykład studiowali akustykę kina w Hoboken (New Jersey). Zadanie analizy akustyki nowego budynku ONZ w Nowym Jorku dostarczyło im dużo pracy, dlatego zdecydowali się opuścić MIT i zająć się konsultingiem na pełny etat. Wkrótce dołączył do nich trzeci wspólnik, architekt Robert Newman i nazwali się Bolt, Beranek i Newman (BBN). W 1957 roku rozwinęli się do średniej wielkości firmy zatrudniającej kilkudziesięciu pracowników, a Beranek uznał, że grozi im nasycenie rynku badań akustycznych. Chciał poszerzyć wiedzę firmy poza dźwięk, aby objąć pełne spektrum interakcji człowieka ze środowiskiem zabudowanym, od sal koncertowych po samochody, i na wszystkie zmysły.

I oczywiście odnalazł starego kolegę Licklidera i zatrudnił go na hojnych warunkach jako nowego wiceprezesa ds. psychoakustyki. Beranek nie wziął jednak pod uwagę dzikiego entuzjazmu Lika w stosunku do komputerów interaktywnych. Zamiast eksperta od psychoakustyki dostał nie do końca informatyka, ale komputerowego ewangelistę, który chce otwierać oczy innym. W ciągu roku przekonał Beranka, aby wydał dziesiątki tysięcy dolarów na zakup komputera – małego, energooszczędnego urządzenia LGP-30, wyprodukowanego przez firmę Librascope, wykonawcę Departamentu Obrony. Nie mając doświadczenia inżynierskiego, zatrudnił innego weterana SAGE, Edwarda Fredkina, aby pomógł w skonfigurowaniu maszyny. Chociaż komputer głównie odwracał Lika od jego codziennej pracy, gdy próbował uczyć się programowania, po półtora roku przekonał swoich partnerów, aby wydali więcej pieniędzy (150 000 dolarów, czyli około 1,25 miliona dolarów w dzisiejszych pieniądzach) na zakup mocniejszego komputera. : najnowszy PDP-1 z grudnia. Leak przekonał BBN, że informatyka cyfrowa to przyszłość i że pewnego dnia ich inwestycja w specjalistyczną wiedzę w tej dziedzinie się opłaci.

Niedługo potem Leake niemal przez przypadek znalazł się na stanowisku idealnie nadającym się do szerzenia kultury interaktywności w całym kraju, stając się szefem nowej rządowej agencji komputerowej.

ARPA

Podczas zimnej wojny każde działanie miało swoją reakcję. Tak jak pierwsza radziecka bomba atomowa doprowadziła do powstania SAGE, tak też jest pierwszy sztuczny satelita Ziemi, rozpoczęty przez ZSRR w październiku 1957 r., wywołał lawinę reakcji w rządzie amerykańskim. Sytuację pogarszał fakt, że choć ZSRR w kwestii zdetonowania bomby atomowej był cztery lata za Stanami Zjednoczonymi, to jednak zrobił krok naprzód w rakietach, wyprzedził Amerykanów w wyścigu na orbitę (okazało się, że około czterech miesięcy).

Jedną z odpowiedzi na pojawienie się Sputnika 1 w 1958 roku było utworzenie Agencji Zaawansowanych Projektów Badawczych Obrony (ARPA). W przeciwieństwie do skromnych kwot przeznaczonych na naukę obywatelską, ARPA otrzymała budżet w wysokości 520 milionów dolarów, czyli trzykrotność funduszy National Science Foundation, które z kolei zostały potrojone w odpowiedzi na Sputnik 1.

Chociaż Agencja mogła pracować nad szeroką gamą najnowocześniejszych projektów, które Sekretarz Obrony uznał za stosowne, początkowo miała skupić całą swoją uwagę na rakietach i przestrzeni kosmicznej – była to zdecydowana odpowiedź na Sputnik 1. ARPA podlegała bezpośrednio Sekretarzowi Obrony i dlatego była w stanie wznieść się ponad konkurencję przynoszącą efekt przeciwny do zamierzonego i wyniszczającą branżę, aby opracować jeden, rozsądny plan rozwoju amerykańskiego programu kosmicznego. Jednak tak naprawdę wszystkie jego projekty w tej dziedzinie zostały wkrótce przejęte przez rywali: Siły Powietrzne nie zamierzały rezygnować z kontroli nad rakietami wojskowymi, a podpisana w lipcu 1958 r. Narodowa ustawa o aeronautyce i przestrzeni kosmicznej utworzyła nową agencję cywilną który przejął wszystkie kwestie związane z kosmosem, a nie dotykaniem broni. Jednak po utworzeniu ARPA znalazła powody, aby przetrwać, ponieważ otrzymała duże projekty badawcze w obszarach obrony przeciwrakietowej i wykrywania prób nuklearnych. Jednak stał się także platformą roboczą dla małych projektów, którymi chciały się zająć różne agencje wojskowe. Zatem zamiast psa kontrola stała się ogonem.

Ostatnim wybranym projektem był „Projekt Oriona„, statek kosmiczny z silnikiem impulsowym jądrowym („samolot wybuchowy”). ARPA przestała go finansować w 1959 r., ponieważ nie postrzegała go jako niczego innego niż czysto cywilny projekt podlegający kompetencjom NASA. Z kolei NASA nie chciała zszarganić swojej czystej reputacji angażując się w prace nad bronią nuklearną. Siły Powietrzne niechętnie przeznaczały trochę gotówki na kontynuację projektu, ale ostatecznie upadły po porozumieniu z 1963 r., które zakazało testowania broni nuklearnej w atmosferze i przestrzeni kosmicznej. I choć pomysł był technicznie bardzo interesujący, trudno sobie wyobrazić, aby jakikolwiek rząd dał zielone światło wystrzeleniu rakiety wypełnionej tysiącami bomb nuklearnych.

Pierwsza wyprawa ARPA na komputery wynikała po prostu z potrzeby posiadania czegoś, czym można by zarządzać. W 1961 roku Siły Powietrzne miały w rękach dwa nieaktywne zasoby, które należało czymś załadować. Gdy zbliżało się rozmieszczenie pierwszych ośrodków wykrywania SAGE, Siły Powietrzne zatrudniły firmę RAND Corporation z Santa Monica w Kalifornii do przeszkolenia personelu i wyposażenia dwudziestu skomputeryzowanych ośrodków obrony powietrznej w programy kontrolne. Aby wykonać tę pracę, RAND stworzył zupełnie nowy podmiot, Korporację Rozwoju Systemów (SDC). Doświadczenie w zakresie oprogramowania zdobyte przez SDC było cenne dla Sił Powietrznych, ale projekt SAGE dobiegał końca i nie mieli nic lepszego do roboty. Drugim niewykorzystanym aktywem był niezwykle drogi, nadwyżkowy komputer AN/FSQ-32, który został zarekwirowany od IBM na potrzeby projektu SAGE, ale później uznano go za niepotrzebny. Departament Obrony rozwiązał oba problemy, przyznając ARPA nową misję badawczą związaną z centrami dowodzenia oraz grant w wysokości 6 milionów dolarów dla SDC na badanie problemów centrów dowodzenia przy użyciu Q-32.

ARPA wkrótce zdecydowała się uregulować ten program badawczy w ramach nowego Wydziału Badań nad Przetwarzaniem Informacji. Mniej więcej w tym samym czasie wydział otrzymał nowe zadanie - stworzenie programu z zakresu nauk behawioralnych. Nie jest obecnie jasne, z jakich powodów, ale kierownictwo zdecydowało się zatrudnić Licklidera na stanowisko dyrektora obu programów. Być może był to pomysł Gene’a Fubiniego, dyrektora ds. badań w Departamencie Obrony, który znał Leake’a z jego pracy nad SAGE.

Podobnie jak za czasów Beranka, Jack Ruina, ówczesny szef ARPA, nie miał pojęcia, co go czeka, zapraszając Lika na rozmowę. Sądził, że pozyskuje eksperta behawioralnego z pewną wiedzą z zakresu informatyki. Zamiast tego zetknął się z pełną mocą idei symbiozy człowiek-komputer. Leake argumentował, że skomputeryzowane centrum kontroli wymagałoby komputerów interaktywnych, a zatem głównym motorem programu badawczego ARPA musiałby być przełom w najnowocześniejszych technologiach interaktywnego przetwarzania danych. A dla Lika oznaczało to dzielenie czasu.

Podział czasu

Systemy z podziałem czasu wyłoniły się z tej samej podstawowej zasady, co seria TX Wesa Clarka: komputery powinny być przyjazne dla użytkownika. Jednak w przeciwieństwie do Clarka zwolennicy podziału czasu uważali, że jedna osoba nie jest w stanie efektywnie korzystać z całego komputera. Badacz może przez kilka minut studiować wyniki działania programu, zanim dokona w nim niewielkiej zmiany i uruchomi go ponownie. W tym czasie komputer nie będzie miał nic do roboty, jego największa moc będzie bezczynna i będzie kosztowna. Nawet odstępy między naciśnięciami klawiszy trwające setki milisekund wydawały się ogromną otchłanią zmarnowanego czasu komputerowego, w którym można było wykonać tysiące obliczeń.

Cała ta moc obliczeniowa nie musi się marnować, jeśli można ją udostępnić wielu użytkownikom. Dzieląc uwagę komputera tak, aby służył on kolejno każdemu użytkownikowi, projektant komputera mógłby upiec dwie pieczenie na jednym ogniu — tworząc iluzję interaktywnego komputera całkowicie pod kontrolą użytkownika, bez marnowania dużej części mocy obliczeniowej drogiego sprzętu.

Koncepcja ta została ujęta w SAGE, który mógłby obsługiwać jednocześnie kilkudziesięciu różnych operatorów, przy czym każdy z nich monitorowałby swój własny sektor przestrzeni powietrznej. Po spotkaniu z Clarkiem Leake natychmiast dostrzegł potencjał połączenia separacji użytkowników w SAGE z interaktywną swobodą TX-0 i TX-2 w celu stworzenia nowej, potężnej mieszanki, która stała się podstawą jego propagowania symbiozy człowiek-komputer, która przedstawił Departamentowi Obrony w swoim artykule z 1957 r. Naprawdę mądry system, czyli Naprzód do hybrydowych systemów myślenia maszyna/człowiek” [sage English. – szałwia / ok. przeł.]. W artykule tym opisał system komputerowy dla naukowców o strukturze bardzo podobnej do SAGE, z wejściem za pośrednictwem pistoletu świetlnego i „jednoczesnym wykorzystaniem (szybkim podziałem czasu) możliwości obliczeniowych i pamięci masowej maszyny przez wiele osób”.

Jednak sam Leake nie miał umiejętności inżynieryjnych, aby zaprojektować lub zbudować taki system. Podstaw programowania uczył się od BBN, ale to był zakres jego możliwości. Pierwszą osobą, która zastosowała teorię podziału czasu w praktyce, był John McCarthy, matematyk z MIT. McCarthy potrzebował stałego dostępu do komputera, aby tworzyć narzędzia i modele do manipulowania logiką matematyczną – co jego zdaniem stanowiło pierwszy krok w stronę sztucznej inteligencji. W 1959 roku zbudował prototyp składający się z modułu interaktywnego przykręconego do uniwersyteckiego komputera IBM 704 przetwarzającego wsadowo. Jak na ironię, pierwsze „urządzenie z podziałem czasu” miało tylko jedną interaktywną konsolę – dalekopisową maszynę do pisania Flexowriter.

Jednak na początku lat sześćdziesiątych wydział inżynierii MIT doszedł do konieczności znacznych inwestycji w interaktywne obliczenia. Każdy uczeń i nauczyciel, który interesował się programowaniem, uzależnił się od komputerów. Wsadowe przetwarzanie danych bardzo efektywnie wykorzystywało czas komputera, ale marnowało dużo czasu badaczy – średni czas przetwarzania zadania na 1960 wynosił ponad jeden dzień.

Aby zbadać długoterminowe plany zaspokojenia rosnącego zapotrzebowania na zasoby obliczeniowe, MIT powołał komitet uniwersytecki zdominowany przez zwolenników podziału czasu. Clark argumentował, że przejście w stronę interaktywności nie oznacza dzielenia czasu. W praktyce, powiedział, dzielenie czasu oznacza wyeliminowanie interaktywnych wyświetlaczy wideo i interakcji w czasie rzeczywistym – kluczowych aspektów projektu, nad którym pracował w laboratorium biofizycznym MIT. Jednak na bardziej podstawowym poziomie wydaje się, że Clark miał głęboki filozoficzny sprzeciw wobec pomysłu dzielenia się przestrzenią do pracy. Do 1990 roku odmawiał podłączenia swojego komputera do Internetu, twierdząc, że sieci to „błąd” i „nie działają”.

On i jego uczniowie utworzyli „subkulturę”, niewielki wyrostek w i tak już ekscentrycznej kulturze akademickiej interaktywnego przetwarzania danych. Jednak ich argumenty za małymi stanowiskami pracy, którymi nie trzeba się z nikim dzielić, nie przekonały ich kolegów. Biorąc pod uwagę koszt nawet najmniejszego pojedynczego komputera w tamtym czasie, innym inżynierom takie podejście wydawało się nieuzasadnione ekonomicznie. Co więcej, większość ludzi wierzyła wówczas, że komputery – inteligentne elektrownie nadchodzącej ery informacyjnej – odniosą korzyści z efektu skali, tak samo jak elektrownie. Wiosną 1961 roku raport końcowy komisji zezwolił na utworzenie dużych systemów podziału czasu w ramach rozwoju MIT.

W tym czasie Fernando Corbato, znany swoim współpracownikom jako „Corby”, już pracował nad zwiększeniem skali eksperymentu McCarthy’ego. Z wykształcenia był fizykiem, a o komputerach uczył się pracując w Whirlwind w 1951 roku, będąc jeszcze studentem MIT (jedyny ze wszystkich uczestników tej historii przeżył – w styczniu 2019 roku miał 92 lata). Po uzyskaniu doktoratu został administratorem w nowo utworzonym Centrum Obliczeniowym MIT, zbudowanym na komputerze IBM 704. Corbato i jego zespół (pierwotnie Marge Merwin i Bob Daly, dwaj najlepsi programiści centrum) nazwali swój system podziału czasu CTSS (ang. Zgodny system podziału czasu, „kompatybilny system podziału czasu”) – ponieważ mógł działać równolegle z normalnym przepływem pracy 704, automatycznie przejmując cykle komputerowe dla użytkowników w razie potrzeby. Bez tej kompatybilności projekt nie mógłby zostać zrealizowany, ponieważ Corby nie miał środków finansowych na zakup nowego komputera, na którym można by od podstaw zbudować system z podziałem czasu, a istniejące operacje przetwarzania wsadowego nie mogły zostać zakończone.

Pod koniec 1961 roku CTSS mógł obsługiwać cztery terminale. Do 1963 roku MIT umieścił dwie kopie CTSS na tranzystorowych maszynach IBM 7094, które kosztowały 3,5 miliona dolarów, czyli około 10 razy więcej pojemności pamięci i mocy procesora w porównaniu z poprzednimi modelami 704. Oprogramowanie monitorujące przełączało się między aktywnymi użytkownikami, obsługując każdego z nich przez ułamek sekundy, zanim przeszło do następnego. Użytkownicy mogą zapisywać programy i dane do późniejszego wykorzystania we własnym, chronionym hasłem obszarze pamięci dyskowej.

Historia Internetu: rozszerzanie interaktywności
Corbato w swojej charakterystycznej muszce w sali komputerowej z IBM 7094


Corby wyjaśnia, jak działa podział czasu, w tym dwupoziomowa kolejka, w audycji telewizyjnej z 1963 roku

Każdy komputer może obsługiwać około 20 terminali. To wystarczyło nie tylko do obsługi kilku małych pomieszczeń terminali, ale także do dystrybucji dostępu do komputerów w całym Cambridge. Corby i inni kluczowi inżynierowie mieli w biurze własne terminale, a w pewnym momencie MIT zaczął udostępniać personelowi technicznemu terminale domowe, aby mogli pracować nad systemem po godzinach, bez konieczności dojeżdżania do pracy. Wszystkie wczesne terminale składały się z przerobionej maszyny do pisania, która mogła odczytywać dane i wysyłać je przez linię telefoniczną, oraz dziurkowanego papieru podawanego w trybie ciągłym. Modemy podłączyły terminale telefoniczne do prywatnej centrali telefonicznej na terenie kampusu MIT, za pośrednictwem której mogły komunikować się z komputerem CTSS. W ten sposób komputer rozszerzył swoje zmysły za pośrednictwem telefonu i sygnałów, które zmieniały się z cyfrowego na analogowy i z powrotem. Był to pierwszy etap integracji komputerów z siecią telekomunikacyjną. Integrację ułatwiło kontrowersyjne otoczenie regulacyjne AT&T. Rdzeń sieci nadal podlegał regulacjom, a firma była zobowiązana do udostępniania łączy dzierżawionych po stałych stawkach, ale kilka decyzji FCC osłabiło kontrolę firmy nad brzegiem sieci i firma miała niewiele do powiedzenia w kwestii podłączania urządzeń do swoich linii. Dlatego MIT nie wymagał pozwolenia na terminale.

Historia Internetu: rozszerzanie interaktywności
Typowy terminal komputerowy z połowy lat 1960. XX wieku: IBM 2741.

Ostatecznym celem Licklidera, McCarthy’ego i Corbato było zwiększenie dostępności mocy obliczeniowej dla indywidualnych badaczy. Narzędzia i podział czasu wybrali ze względów ekonomicznych: nikt nie wyobrażał sobie kupna własnego komputera dla każdego badacza z MIT. Jednakże wybór ten doprowadził do niezamierzonych skutków ubocznych, które nie zostałyby zrealizowane w paradygmacie Clarka dotyczącym jednego człowieka i jednego komputera. Wspólny system plików i wzajemne odniesienia do kont użytkowników umożliwiły im dzielenie się, współpracę i wzajemne uzupełnianie swojej pracy. W 1965 roku Noel Morris i Tom van Vleck przyspieszyli współpracę i komunikację, tworząc program MAIL, który umożliwiał użytkownikom wymianę wiadomości. Gdy użytkownik wysłał wiadomość, program przypisał ją do specjalnego pliku skrzynki pocztowej w obszarze plików odbiorcy. Jeżeli plik ten nie byłby pusty, program LOGIN wyświetliłby komunikat "MASZ POCZTĘ". Zawartość maszyny stała się wyrazem działań społeczności użytkowników, a ten społeczny aspekt dzielenia czasu w MIT został doceniony tak samo wysoko, jak pierwotna idea interaktywnego korzystania z komputera.

Opuszczone nasiona

Leake, przyjmując ofertę ARPA i pozostawiając BBN, aby w 1962 roku stanąć na czele nowego Biura Technik Przetwarzania Informacji (IPTO) ARPA, szybko zaczął robić to, co obiecał: skoncentrować wysiłki firmy w zakresie badań informatycznych na rozpowszechnianiu i ulepszaniu sprzętu i oprogramowania z podziałem czasu. Porzucił zwykłą praktykę przetwarzania propozycji badawczych, które trafiały na jego biurko i sam udał się w teren, przekonując inżynierów do tworzenia propozycji badawczych, które sam chciałby zatwierdzić.

Jego pierwszym krokiem była rekonfiguracja istniejącego projektu badawczego w centrach dowodzenia SDC w Santa Monica. Z biura Licka w SDC nadeszło polecenie ograniczenia wysiłków włożonych w badania i skoncentrowania ich na przekształceniu nadmiarowego komputera SAGE w system z podziałem czasu. Leake uważał, że najpierw należy położyć podwaliny pod interakcję człowiek-maszyna z podziałem czasu, a centra dowodzenia pojawią się później. To, że takie ustalenie priorytetów zbiegło się z jego zainteresowaniami filozoficznymi, było tylko szczęśliwym zbiegiem okoliczności. Jules Schwartz, weteran projektu SAGE, opracowywał nowy system podziału czasu. Podobnie jak jego współczesny CTSS, stał się wirtualnym miejscem spotkań, a jego polecenia obejmowały funkcję DIAL do wysyłania prywatnych wiadomości tekstowych od jednego użytkownika do drugiego - jak w poniższym przykładzie wymiany między Jonem Jonesem a użytkownikiem o identyfikatorze 9.

WYBIERZ 9, TO JEST JOHN JONES, POTRZEBUJĘ 20 XNUMX, ABY ZAŁADUĆ MOJ PROG
OD 9:5 DOJDZIEMY W XNUMX MINUT.
OD 9 JEDŹ I ŁADUJ

WYBIERZ 9, TO JOHN JONES. POTRZEBUJĘ 20 XNUMX, ABY ROZPOCZĄĆ PROGRAM
OD 9:5 MOŻEMY JE CI ODDAĆ W XNUMX MINUT
OD 9. URUCHOMIENIA DO PRZODU

Następnie, aby zabezpieczyć fundusze na przyszłe projekty z podziałem czasu na MIT, Licklider zatrudnił Roberta Fano do poprowadzenia jego flagowego projektu: Project MAC, który przetrwał do lat 1970. XX wieku (MAC miał wiele skrótów – „matematyka i obliczenia”, „komputer o wielokrotnym dostępie”), „poznawanie za pomocą maszyny” [matematyka i liczenie, komputer wielodostępny, poznanie wspomagane maszynowo]). Choć twórcy liczyli, że nowy system będzie w stanie obsłużyć co najmniej 200 jednoczesnych użytkowników, nie wzięli pod uwagę stale rosnącej złożoności oprogramowania użytkownika, które z łatwością wchłaniało wszelkie ulepszenia szybkości i wydajności sprzętu. Po uruchomieniu na MIT w 1969 r. system mógł obsługiwać około 60 użytkowników korzystających z dwóch jednostek centralnych, co stanowiło mniej więcej taką samą liczbę użytkowników na procesor jak CTSS. Ogólna liczba użytkowników była jednak znacznie większa niż maksymalne możliwe obciążenie – w czerwcu 1970 r. zarejestrowanych było już 408 użytkowników.

Oprogramowanie systemowe projektu, zwane Multics, mogło pochwalić się kilkoma znaczącymi ulepszeniami, a niektóre z nich nadal są uważane za nowatorskie w dzisiejszych systemach operacyjnych: hierarchiczny system plików o strukturze drzewa z folderami, które mogą zawierać inne foldery; oddzielenie wykonywania poleceń od użytkownika i od systemu na poziomie sprzętowym; dynamiczne łączenie programów z ładowaniem modułów programu w trakcie wykonywania, w zależności od potrzeb; możliwość dodawania lub usuwania procesorów, banków pamięci lub dysków bez wyłączania systemu. Ken Thompson i Dennis Ritchie, programiści projektu Multics, stworzyli później system operacyjny Unix (którego nazwa nawiązuje do jego poprzednika), aby przenieść niektóre z tych koncepcji do prostszych systemów komputerowych na mniejszą skalę [Nazwa „UNIX” (pierwotnie „Unics” ) pochodzi od „Multics”. Litera „U” w systemie UNIX oznaczała „Uniplexed” w przeciwieństwie do „Multiplexed” leżącego u podstaw nazwy Multics, aby podkreślić próbę twórców UNIX-a odejścia od złożoności systemu Multics w celu stworzenia prostszego i bardziej wydajnego podejścia.] .

Lick zasiał swoje ostatnie ziarno w Berkeley, na Uniwersytecie Kalifornijskim. Rozpoczęty w 1963 roku projekt Genie12 dał początek Berkeley Timesharing System, mniejszej, komercyjnej kopii Projektu MAC. Chociaż nominalnie prowadzony był przez kilku pracowników uniwersytetu, w rzeczywistości był prowadzony przez studenta Mela Peirtle’a z pomocą innych studentów – zwłaszcza Chucka Tuckera, Petera Deutscha i Butlera Lampsona. Niektórzy z nich zarazili się wirusem interaktywności w Cambridge, zanim dotarli do Berkeley. Deutsch, syn profesora fizyki z MIT i entuzjasta prototypowania komputerów, jako nastolatek wdrożył język programowania Lisp na cyfrowym PDP-1, zanim zaczął studia w Berkeley. Lampson zaprogramował PDP-1 w Cambridge Electron Accelerator podczas studiów na Harvardzie. Pairtle i jego zespół stworzyli system podziału czasu na dysku SDS 930 stworzony przez Scientific Data Systems, nową firmę komputerową założoną w Santa Monica w 1961 roku (postęp techniczny zachodzący w Santa Monica w tamtym czasie mógłby być tematem zupełnie osobnego artykułu). artykuł Wkład w zaawansowaną technologię komputerową w latach sześćdziesiątych XX w. wniosły RAND Corporation, SDC i SDS (wszystkie miały tam swoje siedziby).

Firma SDS zintegrowała oprogramowanie Berkeley ze swoim nowym projektem, SDS 940. Pod koniec lat sześćdziesiątych stało się ono jednym z najpopularniejszych systemów komputerowych z podziałem czasu. Tymshare i Comshare, które skomercjalizowały dzielenie czasu, sprzedając usługi zdalnego przetwarzania danych, kupiły dziesiątki SDS 1960. Pyrtle i jego zespół również postanowili spróbować swoich sił na rynku komercyjnym i założyli Berkeley Computer Corporation (BCC) w 940 r., ale podczas recesji latach 1968-1969 ogłosiła upadłość. Większość zespołu Peirtle'a trafiła do Centrum badawczego Palo Alto (PARC) firmy Xerox, gdzie Tucker, Deutsch i Lampson przyczynili się do powstania przełomowych projektów, w tym osobistej stacji roboczej Alto, sieci lokalnych i drukarki laserowej.

Historia Internetu: rozszerzanie interaktywności
Mel Peirtle (w środku) obok systemu podziału czasu w Berkeley

Oczywiście nie każdy projekt timeshare z lat 1960. był dziełem Licklidera. Wiadomości o tym, co działo się w MIT i Lincoln Laboratories, rozeszły się poprzez literaturę techniczną, konferencje, kontakty akademickie i zmiany pracy. Dzięki tym kanałom zapuściły korzenie inne nasiona niesione przez wiatr. Na Uniwersytecie Illinois Don Bitzer sprzedał swój system PLATO Departamentowi Obrony, co miało obniżyć koszty szkolenia technicznego personelu wojskowego. Clifford Shaw stworzył finansowany przez Siły Powietrzne system JOHNNIAC Open Shop System (JOSS), aby poprawić zdolność personelu RAND do szybkiego przeprowadzania analiz numerycznych. System podziału czasu w Dartmouth był bezpośrednio powiązany z wydarzeniami na MIT, ale poza tym był to projekt zupełnie wyjątkowy, w całości sfinansowany przez cywilów z National Science Foundation przy założeniu, że doświadczenie komputerowe stanie się niezbędną częścią edukacji amerykańskich przywódców. następne pokolenie.

W połowie lat sześćdziesiątych współdzielenie czasu nie opanowało jeszcze w pełni ekosystemu komputerowego. Tradycyjne firmy zajmujące się przetwarzaniem wsadowym dominowały zarówno pod względem sprzedaży, jak i popularności, zwłaszcza poza kampusami uniwersyteckimi. Ale i tak znalazł swoją niszę.

Biuro Taylora

Latem 1964 roku, około dwa lata po przybyciu do ARPA, Licklider ponownie zmienił pracę, tym razem przenosząc się do centrum badawczego IBM na północ od Nowego Jorku. Zszokowany utratą kontraktu w ramach projektu MAC z konkurencyjnym producentem komputerów General Electric po latach dobrych stosunków z MIT, Leake musiał podzielić się z IBM swoim doświadczeniem z pierwszej ręki na temat trendu, który zdawał się omijać firmę. Dla Leake’a nowa praca dawała możliwość przekształcenia ostatniego bastionu tradycyjnego przetwarzania wsadowego w nową wiarę w interaktywność (ale to nie wyszło – Leake został zepchnięty na dalszy plan, a jego żona cierpiała, odizolowana na Yorktown Heights Przeniósł się do biura IBM w Cambridge, a następnie w 1967 wrócił do MIT, aby kierować Projektem MAC).

Zastąpił go na stanowisku szefa IPTO Ivan Sutherland, młody ekspert w dziedzinie grafiki komputerowej, którego z kolei w 1966 roku zastąpił Robert Taylor. Artykuł Licka z 1960 r. „Symbiosis of Man and Machine” uczynił Taylora zwolennikiem informatyki interaktywnej, a rekomendacja Licka sprowadziła go do ARPA po krótkiej pracy nad programem badawczym w NASA. Jego osobowość i doświadczenie sprawiły, że bardziej przypominał Leake'a niż Sutherlanda. Z wykształcenia psycholog, brakowało mu wiedzy technicznej w dziedzinie komputerów, ale nadrabiał ten brak entuzjazmem i pewnym siebie przywództwem.

Pewnego dnia, gdy Taylor był w swoim biurze, nowo mianowany szef IPTO wpadł na pomysł. Siedział przy biurku z trzema różnymi terminalami, które umożliwiały mu komunikację z trzema finansowanymi przez ARPA systemami z podziałem czasu, zlokalizowanymi w Cambridge, Berkeley i Santa Monica. Jednocześnie nie były one ze sobą połączone – aby przenieść informację z jednego systemu do drugiego, musiał tego dokonać sam, fizycznie, wykorzystując swoje ciało i umysł.

Nasiona rzucone przez Licklidera zaowocowały. Stworzył społeczność społeczną pracowników IPTO, która rozrosła się do wielu innych centrów komputerowych, z których każde utworzyło małą społeczność ekspertów komputerowych skupionych wokół serca komputera dzielącego czas. Taylor uznał, że nadszedł czas, aby połączyć te ośrodki. Ich indywidualne struktury społeczne i techniczne, po połączeniu, będą mogły stworzyć rodzaj superorganizmu, którego kłącza rozprzestrzenią się po całym kontynencie, odtwarzając społeczne korzyści wynikające z dzielenia czasu na wyższą skalę. I z tą myślą rozpoczęły się techniczne i polityczne bitwy, które doprowadziły do ​​​​powstania ARPANET.

Co jeszcze przeczytać

  • Richard J. Barber Associates, Agencja Zaawansowanych Projektów Badawczych, 1958-1974 (1975)
  • Katie Hafner i Matthew Lyon, Gdzie czarodzieje nie śpią do późna: początki Internetu (1996)
  • Severo M. Ornstein, Informatyka w średniowieczu: widok z okopów, 1955-1983 (2002)
  • M. Mitchell Waldrop, Maszyna marzeń: JCR Licklider i rewolucja, która uczyniła informatykę osobistą (2001)

Źródło: www.habr.com

Dodaj komentarz