Internetts historie: Oppdage interaktivitet

Internetts historie: Oppdage interaktivitet

Andre artikler i serien:

De aller første elektroniske datamaskinene var unike enheter laget for forskningsformål. Men når de ble tilgjengelige, inkorporerte organisasjoner dem raskt i sin eksisterende datakultur – en der alle data og prosesser var representert i stabler. hullkort.

Herman Hollerith utviklet den første tabulatoren som var i stand til å lese og telle data fra hull i papirkort for US Census på slutten av 0-tallet. Ved midten av neste århundre hadde et svært broket menasjeri av etterkommere av denne maskinen trengt inn i store bedrifter og statlige organisasjoner rundt om i verden. Deres vanlige språk var et kort bestående av flere kolonner, der hver kolonne (vanligvis) representerte ett tall, som kunne slås i en av ti posisjoner som representerte tallene 9 til XNUMX.

Ingen kompliserte enheter var nødvendig for å stanse inndataene inn i kortene, og prosessen kunne distribueres på tvers av flere kontorer i organisasjonen som genererte dataene. Når data måtte behandles - for eksempel for å beregne inntekter for en kvartalsvis salgsrapport - kunne de tilsvarende kortene bringes inn i datasenteret og settes i kø for behandling av egnede maskiner som produserte et sett med utdata på kort eller skrev det ut på papir . Rundt sentralbehandlingsmaskinene - tabulatorer og kalkulatorer - var det grupperte perifere enheter for stansing, kopiering, sortering og tolkning av kort.

Internetts historie: Oppdage interaktivitet
IBM 285 Tabulator, en populær hullkortmaskin på 1930- og 40-tallet.

I andre halvdel av 1950-årene arbeidet nesten alle datamaskiner ved å bruke denne "batch-behandlingsordningen". Fra perspektivet til den typiske salgssluttbrukeren har ikke mye endret seg. Du tok med en bunke hullkort til behandling og fikk en utskrift eller en annen bunke hullkort som resultat av arbeidet. Og i prosessen snudde kortene seg fra hull i papiret til elektroniske signaler og tilbake igjen, men du brydde deg ikke så mye om det. IBM dominerte feltet for hullkortbehandlingsmaskiner, og forble en av de dominerende kreftene innen elektroniske datamaskiner, i stor grad på grunn av dets etablerte relasjoner og brede utvalg av perifert utstyr. De erstattet ganske enkelt kundenes mekaniske tabulatorer og kalkulatorer med raskere og mer fleksible databehandlingsmaskiner.

Internetts historie: Oppdage interaktivitet
IBM 704 Punch Card Processing Kit. I forgrunnen jobber en jente med en leser.

Dette hullkortbehandlingssystemet fungerte perfekt i flere tiår og avviste ikke - snarere tvert imot. Og likevel, på slutten av 1950-tallet, begynte en utkant-subkultur av dataforskere å hevde at hele denne arbeidsflyten måtte endres – de hevdet at datamaskinen best ble brukt interaktivt. I stedet for å forlate den med en oppgave og deretter komme tilbake for å få resultatene, må brukeren kommunisere direkte med maskinen og bruke dens evner på forespørsel. I Kapitalen beskrev Marx hvordan industrielle maskiner – som folk rett og slett driver – erstattet arbeidsverktøyene som folk direkte kontrollerte. Imidlertid begynte datamaskiner å eksistere i form av maskiner. Det var først senere at noen av brukerne deres gjorde dem om til verktøy.

Og denne transformasjonen fant ikke sted i datasentre som US Census Bureau, forsikringsselskapet MetLife eller United States Steel Corporation (som alle var blant de første som kjøpte UNIVAC, en av de første kommersielt tilgjengelige datamaskinene). Det er usannsynlig at en organisasjon som anser ukelønn som den mest effektive og pålitelige måten, vil at noen skal forstyrre denne behandlingen ved å leke med datamaskinen. Verdien av å kunne sette seg ned ved en konsoll og bare prøve noe på en datamaskin var mer tydelig for forskere og ingeniører, som ønsket å studere et problem, nærme seg det fra forskjellige vinkler til dets svake punkt ble oppdaget, og raskt bytte mellom tenker og gjør.

Derfor oppsto slike ideer blant forskere. Pengene til å betale for slik sløsing med datamaskinen kom imidlertid ikke fra avdelingslederne deres. En ny subkultur (man kan til og med si en kult) av interaktivt dataarbeid oppsto fra et produktivt partnerskap mellom militæret og eliteuniversiteter i USA. Dette gjensidig fordelaktige samarbeidet begynte under andre verdenskrig. Atomvåpen, radar og andre magiske våpen lærte militære ledere at de tilsynelatende uforståelige aktivitetene til forskere kan være av utrolig betydning for militæret. Dette komfortable forholdet varte i omtrent en generasjon og falt deretter fra hverandre i de politiske omskiftelsene til en annen krig, Vietnam. Men på dette tidspunktet hadde amerikanske forskere tilgang til enorme pengesummer, var nesten uforstyrret og kunne gjøre nesten hva som helst som til og med fjernt kunne assosieres med nasjonalt forsvar.

Begrunnelsen for interaktive datamaskiner begynte med en bombe.

Virvelvind og SAGE

Den 29. august 1949 gjennomførte et sovjetisk forskerteam vellykket første atomvåpentestSemipalatinsk teststed. Tre dager senere oppdaget et amerikansk rekognoseringsfly som fløy over det nordlige Stillehavet spor av radioaktivt materiale i atmosfæren som var igjen fra testen. USSR hadde en bombe, og deres amerikanske rivaler fant ut om det. Spenningen mellom de to supermaktene hadde vedvart i mer enn ett år, helt siden Sovjetunionen kuttet av landveier til vestlig kontrollerte områder av Berlin som svar på planene om å gjenopprette Tyskland til sin tidligere økonomiske storhet.

Blokaden ble avsluttet våren 1949, hindret av en massiv operasjon iverksatt av Vesten for å støtte byen fra luften. Spenningen avtok noe. Amerikanske generaler kunne imidlertid ikke ignorere eksistensen av en potensielt fiendtlig styrke med tilgang til atomvåpen, spesielt gitt den stadig økende størrelsen og rekkevidden til strategiske bombefly. USA hadde en kjede av radarstasjoner for flydeteksjon etablert langs Atlanterhavs- og Stillehavskysten under andre verdenskrig. Imidlertid brukte de utdatert teknologi, dekket ikke de nordlige tilnærmingene gjennom Canada, og var ikke koblet sammen av et sentralt system for å koordinere luftforsvaret.

For å bøte på situasjonen, sammenkalte Air Force (en uavhengig amerikansk militærgren siden 1947) Air Defense Engineering Committee (ADSEC). Det huskes i historien som "Walley Committee", oppkalt etter formannen, George Whalley. Han var en MIT-fysiker og en veteran fra den militære radarforskningsgruppen Rad Lab, som ble Research Laboratory of Electronics (RLE) etter krigen. Komiteen studerte problemet i et år, og Vallis endelige rapport ble utgitt i oktober 1950.

Man skulle forvente at en slik rapport ville være et kjedelig virvar av byråkrati, som ender med et forsiktig formulert og konservativt forslag. I stedet viste rapporten seg å være et interessant stykke kreativ argumentasjon, og inneholdt en radikal og risikabel handlingsplan. Dette er den åpenbare fortjenesten til en annen professor fra MIT, Norbert Wiener, som hevdet at studiet av levende vesener og maskiner kan kombineres til en enkelt disiplin kybernetikk. Valli og hans medforfattere begynte med antagelsen om at luftvernsystemet er en levende organisme, ikke metaforisk, men i virkeligheten. Radarstasjoner fungerer som sanseorganer, avskjærere og missiler er effektorene som den samhandler med verden. De jobber under kontroll av en regissør, som bruker informasjon fra sansene for å ta beslutninger om nødvendige handlinger. De hevdet videre at en helt menneskelig direktør ikke ville være i stand til å stoppe hundrevis av innkommende fly over millioner av kvadratkilometer i løpet av minutter, så så mange av direktørens funksjoner som mulig bør automatiseres.

Det mest uvanlige av funnene deres er at den beste måten å automatisere regissøren på ville være gjennom digitale elektroniske datamaskiner som kan ta over noe av den menneskelige beslutningsprosessen: analysere innkommende trusler, målrette våpen mot disse truslene (beregne avskjæringskurs og overføre dem til jagerfly), og kanskje til og med utvikle en strategi for optimale former for respons. Da var det slett ikke åpenbart at datamaskiner var egnet til et slikt formål. Det var nøyaktig tre fungerende elektroniske datamaskiner i hele USA på den tiden, og ingen av dem var i nærheten av å oppfylle pålitelighetskravene til et militært system som millioner av liv er avhengig av. De var rett og slett veldig raske og programmerbare tallknusere.

Valli hadde imidlertid grunn til å tro på muligheten for å lage en digital sanntidsdatamaskin, siden han kjente til prosjektet Whirlwind ["Vortex"]. Det begynte under krigen i MIT servomekanisme-laboratoriet under ledelse av en ung doktorgradsstudent, Jay Forrester. Hans første mål var å lage en generell flysimulator som kunne rekonfigureres for å støtte nye flymodeller uten å måtte bygges om fra bunnen av hver gang. En kollega overbeviste Forrester om at simulatoren hans burde bruke digital elektronikk for å behandle inngangsparametere fra piloten og produsere utgangstilstander for instrumentene. Gradvis vokste forsøket på å lage en høyhastighets digital datamaskin ut og overskredet det opprinnelige målet. Flysimulatoren ble glemt og krigen som hadde gitt opphav til dens utvikling var for lengst over, og en komité av inspektører fra Office of Naval Research (ONR) ble gradvis desillusjonert over prosjektet på grunn av et stadig økende budsjett og et stadig økende budsjett. - pushing fullføringsdato. I 1950 kuttet ONR kritisk i Forresters budsjett for det påfølgende året, og hadde til hensikt å legge ned prosjektet fullstendig etter det.

For George Valley var Whirlwind imidlertid en åpenbaring. Selve Whirlwind-datamaskinen var fortsatt langt fra å fungere. Men etter dette skulle det dukke opp en datamaskin, som ikke bare var et sinn uten kropp. Det er en datamaskin med sanseorganer og effektorer. Organisme. Forrester vurderte allerede planer om å utvide prosjektet til landets fremste militære kommando- og kontrollsentersystem. For dataekspertene ved ONR, som mente at datamaskiner kun var egnet til å løse matematiske problemer, virket denne tilnærmingen storslått og absurd. Dette var imidlertid akkurat ideen Valli var ute etter, og han dukket opp akkurat i tide for å redde Whirlwind fra glemselen.

Til tross for (eller kanskje på grunn av) hans store ambisjoner, overbeviste Vallis rapport Luftforsvaret, og de lanserte et massivt nytt forsknings- og utviklingsprogram for først å forstå hvordan man kan lage et luftvernsystem basert på digitale datamaskiner, og så faktisk bygge det. Luftforsvaret begynte å samarbeide med MIT for å utføre kjerneforskning – et naturlig valg gitt institusjonens Whirlwind- og RLE-bakgrunn, samt en historie med vellykkede luftvernsamarbeid som dateres tilbake til Rad Lab og andre verdenskrig. De kalte det nye initiativet "Project Lincoln", og bygde et nytt Lincoln Research Laboratory ved Hanscom Field, 25 km nordvest for Cambridge.

Luftforsvaret kalt datastyrt luftvernprosjekt SAGE - et typisk merkelig militærprosjekt-akronym som betyr "halvautomatisk bakkemiljø". Whirlwind skulle være en testdatamaskin for å bevise levedyktigheten til konseptet før fullskala produksjon av maskinvaren og dens utrulling ble utført - dette ansvaret ble tildelt IBM. Arbeidsversjonen av Whirlwind-datamaskinen, som skulle lages hos IBM, fikk det mye mindre minneverdige navnet AN/FSQ-7 ("Army-Navy Fixed Special Purpose Equipment" - som får SAGE til å virke ganske nøyaktig i sammenligning).

Da Luftforsvaret utarbeidet fullstendige planer for SAGE-systemet i 1954, besto det av ulike radarinstallasjoner, flybaser, luftvernvåpen – alt styrt fra tjuetre kontrollsentre, massive bunkere designet for å tåle bombardement. For å fylle disse sentrene måtte IBM levere førtiseks datamaskiner, i stedet for de tjuetre som ville ha kostet militæret mange milliarder dollar. Dette er fordi selskapet fortsatt brukte vakuumrør i logiske kretser, og de brant ut som glødepærer. Enhver av de titusenvis av lampene i en fungerende datamaskin kan svikte når som helst. Det ville åpenbart være uakseptabelt å la en hel del av landets luftrom være ubeskyttet mens teknikere utførte reparasjoner, så et reservefly måtte holdes for hånden.

Internetts historie: Oppdage interaktivitet
SAGE-kontrollsenteret ved Grand Forks Air Force Base i North Dakota, hvor to AN/FSQ-7-datamaskiner var plassert

Hvert kontrollsenter hadde dusinvis av operatører som satt foran katodestråleskjermer, som hver overvåket en del av luftrommet.

Internetts historie: Oppdage interaktivitet

Datamaskinen sporet alle potensielle lufttrusler og tegnet dem som spor på skjermen. Operatøren kunne bruke lyspistolen til å vise tilleggsinformasjon om sporet og gi kommandoer til forsvarssystemet, og datamaskinen ville gjøre dem om til en utskrevet melding for et tilgjengelig missilbatteri eller flyvåpenbase.

Internetts historie: Oppdage interaktivitet

Virus av interaktivitet

Gitt naturen til SAGE-systemet – direkte, sanntidsinteraksjon mellom menneskelige operatører og en digital CRT-datamaskin via lyspistoler og konsoll – er det ikke overraskende at Lincoln Laboratory fostret den første kohorten av forkjempere for interaktiv interaksjon med datamaskiner. Hele datakulturen i laboratoriet eksisterte i en isolert boble, avskåret fra batchbehandlingsnormene som utviklet seg i den kommersielle verden. Forskere brukte Whirlwind og dens etterkommere til å reservere perioder hvor de hadde eksklusiv tilgang til datamaskinen. De er vant til å bruke hender, øyne og ører til å samhandle direkte gjennom brytere, tastaturer, sterkt opplyste skjermer og til og med høyttalere, uten papirmellomledd.

Denne merkelige og lille subkulturen spredte seg til omverdenen som et virus, gjennom direkte fysisk kontakt. Og hvis vi anser det som et virus, bør pasient null kalles en ung mann ved navn Wesley Clark. Clark forlot forskerskolen i fysikk ved Berkeley i 1949 for å bli tekniker ved et atomvåpenanlegg. Han likte imidlertid ikke arbeidet. Etter å ha lest flere artikler fra datamagasiner, begynte han å se etter en mulighet til å fordype seg i det som virket som et nytt og spennende felt fullt av uutnyttet potensial. Han lærte om rekruttering av dataspesialister ved Lincoln Laboratory fra en annonse, og i 1951 flyttet han til østkysten for å jobbe under Forrester, som allerede hadde blitt leder av det digitale datalaboratoriet.

Internetts historie: Oppdage interaktivitet
Wesley Clark demonstrerer sin LINC biomedisinske datamaskin, 1962

Clark ble med i Advanced Development Group, en underseksjon av laboratoriet som symboliserte datidens avslappede tilstand av militær-universitetssamarbeid. Selv om avdelingen teknisk sett var en del av Lincoln Laboratory-universet, eksisterte teamet i en boble i en annen boble, isolert fra de daglige behovene til SAGE-prosjektet og fritt til å forfølge ethvert datafelt som på en eller annen måte kunne knyttes til luftvern. Hovedmålet deres på begynnelsen av 1950-tallet var å lage Memory Test Computer (MTC), designet for å demonstrere levedyktigheten til en ny, svært effektiv og pålitelig metode for lagring av digital informasjon. magnetisk kjerneminne, som ville erstatte det kresne CRT-baserte minnet som ble brukt i Whirlwind.

Siden MTC ikke hadde andre brukere enn skaperne, hadde Clark full tilgang til datamaskinen i mange timer hver dag. Clark ble interessert i den da fasjonable kybernetiske blandingen av fysikk, fysiologi og informasjonsteori takket være sin kollega Belmont Farley, som kommuniserte med en gruppe biofysikere fra RLE i Cambridge. Clark og Farley tilbrakte lange timer på MTC, og laget programvaremodeller av nevrale nettverk for å studere egenskapene til selvorganiserende systemer. Fra disse eksperimentene begynte Clark å utlede visse aksiomatiske prinsipper for databehandling, som han aldri avvek fra. Spesielt kom han til å tro at "brukervennlighet er den viktigste designfaktoren."

I 1955 slo Clark seg sammen med Ken Olsen, en av utviklerne av MTC, for å formulere en plan for å lage en ny datamaskin som kunne bane vei for neste generasjon militære kontrollsystemer. Ved å bruke veldig stort magnetisk kjerneminne for lagring, og transistorer for logikk, kan det gjøres mye mer kompakt, pålitelig og kraftig enn Whirlwind. Opprinnelig foreslo de et design de kalte TX-1 (transistorisert og eksperimentell datamaskin, "eksperimentell transistordatamaskin" - mye klarere enn AN/FSQ-7). Lincoln Laboratory-ledelsen avviste imidlertid prosjektet som for dyrt og risikabelt. Transistorer hadde bare vært på markedet noen få år tidligere, og svært få datamaskiner hadde blitt bygget med transistorlogikk. Så Clark og Olsen kom tilbake med en mindre versjon av bilen, TX-0, som ble godkjent.

Internetts historie: Oppdage interaktivitet
TX-0

Funksjonaliteten til TX-0-datamaskinen som et verktøy for å administrere militærbaser, selv om påskuddet for opprettelsen, var mye mindre interessant for Clark enn muligheten til å promotere ideene hans om datadesign. Etter hans syn hadde datainteraktivitet sluttet å være et faktum ved Lincoln Laboratories og hadde blitt den nye normen - den riktige måten å bygge og bruke datamaskiner på, spesielt for vitenskapelig arbeid. Han ga tilgang til TX-0 til biofysikere ved MIT, selv om arbeidet deres ikke hadde noe med PVO å gjøre, og tillot dem å bruke maskinens visuelle display til å analysere elektroencefalogrammer fra søvnstudier. Og ingen protesterte mot dette.

TX-0 var vellykket nok til at Lincoln Laboratories i 1956 godkjente en fullskala transistordatamaskin, TX-2, med et enormt to-millioner-bits minne. Prosjektet vil ta to år å fullføre. Etter dette vil viruset rømme utenfor laboratoriet. Når TX-2 er fullført, trenger ikke laboratoriene lenger å bruke den tidlige prototypen, så de ble enige om å låne TX-0 til Cambridge til RLE. Den ble installert i andre etasje, over datasenteret for batchbehandling. Og det infiserte umiddelbart datamaskiner og professorer på MIT-campus, som begynte å kjempe i perioder hvor de kunne få full kontroll over datamaskinen.

Det var allerede klart at det var nesten umulig å skrive et dataprogram riktig første gang. Dessuten hadde forskere som studerte en ny oppgave ofte ingen anelse om hva den riktige oppførselen skulle være. Og for å få resultater fra datasenteret måtte du vente i timevis, eller til og med til neste dag. For dusinvis av nye programmerere på campus var det en åpenbaring å kunne klatre opp stigen, oppdage en feil og fikse den umiddelbart, prøve en ny tilnærming og umiddelbart se forbedrede resultater. Noen brukte tiden sin på TX-0 til å jobbe med seriøse vitenskaps- eller ingeniørprosjekter, men gleden ved interaktivitet tiltrakk seg også mer lekne sjeler. En student skrev et tekstredigeringsprogram som han kalte «en dyr skrivemaskin». En annen fulgte etter og skrev en "dyr skrivebordskalkulator" som han brukte til å gjøre kalkuleksene sine.

Internetts historie: Oppdage interaktivitet
Ivan Sutherland demonstrerer Sketchpad-programmet sitt på TX-2

I mellomtiden bestemte Ken Olsen og en annen TX-0-ingeniør, Harlan Anderson, frustrert over den langsomme fremdriften til TX-2-prosjektet, å markedsføre en småskala interaktiv datamaskin for forskere og ingeniører. De forlot laboratoriet for å grunnlegge Digital Equipment Corporation, og satte opp et kontor i en tidligere tekstilfabrikk ved Assabet-elven, ti mil vest for Lincoln. Deres første datamaskin, PDP-1 (utgitt i 1961), var egentlig en klone av TX-0.

TX-0 og Digital Equipment Corporation begynte å spre de gode nyhetene om en ny måte å bruke datamaskiner på utenfor Lincoln Laboratory. Og likevel, så langt, har interaktivitetsviruset blitt lokalisert geografisk, i det østlige Massachusetts. Men dette skulle snart endre seg.

Hva annet å lese:

  • Lars Heide, Punched-Card Systems and the Early Information Explosion, 1880-1945 (2009)
  • Joseph November, biomedisinsk databehandling (2012)
  • Kent C. Redmond og Thomas M. Smith, From Whirlwind to MITER (2000)
  • M. Mitchell Waldrop, The Dream Machine (2001)

Kilde: www.habr.com

Legg til en kommentar