Altri articoli della serie:
- Storia della staffetta
- Storia dei computer elettronici
- Storia del transistor
- Storia di Internet
I primissimi computer elettronici erano dispositivi unici creati per scopi di ricerca. Ma una volta resi disponibili, le organizzazioni li hanno rapidamente incorporati nella loro cultura dei dati esistente, in cui tutti i dati e i processi erano rappresentati in stack.
Non erano necessari dispositivi complessi per inserire i dati di input nelle carte e il processo poteva essere distribuito tra più uffici dell'organizzazione che generava i dati. Quando i dati dovevano essere elaborati, ad esempio per calcolare le entrate per un rapporto di vendita trimestrale, le carte corrispondenti potevano essere portate nel data center e messe in coda per l'elaborazione da macchine idonee che producevano una serie di dati di output su carte o li stampavano su carta. . Intorno alle macchine centrali di elaborazione – tabulatori e calcolatrici – erano raggruppati dispositivi periferici per perforare, copiare, smistare e interpretare le carte.
Tabulatore IBM 285, una popolare macchina per schede perforate negli anni '1930 e '40.
Nella seconda metà degli anni Cinquanta, quasi tutti i computer funzionavano utilizzando questo schema di “elaborazione batch”. Dal punto di vista del tipico utente finale delle vendite, non è cambiato molto. Hai portato una pila di schede perforate per l'elaborazione e come risultato del lavoro hai ricevuto una stampa o un'altra pila di schede perforate. E nel processo, le carte si trasformavano da buchi nella carta a segnali elettronici e viceversa, ma non ti importava molto. IBM ha dominato il campo delle macchine per l'elaborazione delle schede perforate ed è rimasta una delle forze dominanti nel campo dei computer elettronici, in gran parte grazie alle sue relazioni consolidate e all'ampia gamma di apparecchiature periferiche. Hanno semplicemente sostituito i tabulatori e i calcolatori meccanici dei clienti con macchine per l'elaborazione dei dati più veloci e flessibili.
Kit di elaborazione schede perforate IBM 704. In primo piano, una ragazza lavora con un lettore.
Questo sistema di elaborazione delle schede perforate ha funzionato perfettamente per decenni e non è mai decaduto, anzi. Eppure, alla fine degli anni Cinquanta, una sottocultura marginale di ricercatori informatici iniziò a sostenere che l’intero flusso di lavoro doveva cambiare: sostenevano che il computer fosse meglio utilizzato in modo interattivo. Invece di abbandonare un compito e poi tornare indietro per ottenere i risultati, l’utente deve comunicare direttamente con la macchina e utilizzare le sue capacità su richiesta. Nel Capitale, Marx descrisse come le macchine industriali – che le persone semplicemente azionano – sostituissero gli strumenti di lavoro che le persone controllavano direttamente. Tuttavia, i computer iniziarono ad esistere sotto forma di macchine. Solo più tardi alcuni dei loro utenti li hanno trasformati in strumenti.
E questa trasformazione non è avvenuta in data center come l’US Census Bureau, la compagnia assicurativa MetLife o la United States Steel Corporation (tutti tra i primi ad acquistare UNIVAC, uno dei primi computer disponibili in commercio). È improbabile che un'organizzazione che considera il libro paga settimanale il modo più efficiente e affidabile voglia che qualcuno interrompa questa elaborazione giocando con il computer. Il valore di potersi sedere davanti a una console e provare qualcosa su un computer era più chiaro agli scienziati e agli ingegneri, che volevano studiare un problema, affrontarlo da diverse angolazioni finché non ne veniva scoperto il punto debole e passare rapidamente dall'una all'altra. pensare e fare.
Pertanto, tali idee sono sorte tra i ricercatori. Tuttavia, i soldi per pagare un uso così dispendioso del computer non provenivano dai capi dipartimento. Una nuova sottocultura (si potrebbe anche dire un culto) del lavoro informatico interattivo è nata da una collaborazione produttiva tra l’esercito e le università d’élite degli Stati Uniti. Questa cooperazione reciprocamente vantaggiosa è iniziata durante la seconda guerra mondiale. Le armi atomiche, i radar e altre armi magiche insegnarono ai leader militari che le attività apparentemente incomprensibili degli scienziati potevano essere di incredibile importanza per l'esercito. Questo rapporto confortevole durò per circa una generazione e poi andò in pezzi nelle vicissitudini politiche di un'altra guerra, quella del Vietnam. Ma a quel tempo, gli scienziati americani avevano accesso a ingenti somme di denaro, erano quasi indisturbati e potevano fare quasi tutto ciò che poteva essere anche lontanamente associato alla difesa nazionale.
La giustificazione per i computer interattivi è iniziata con una bomba.
Turbine e SALVIA
Il 29 agosto 1949 un gruppo di ricerca sovietico condusse con successo
Il blocco terminò nella primavera del 1949, ostacolato da una massiccia operazione lanciata dall’Occidente per sostenere la città dal cielo. La tensione si è un po' calmata. Tuttavia, i generali americani non potevano ignorare l’esistenza di una forza potenzialmente ostile con accesso alle armi nucleari, soprattutto considerando le dimensioni e la portata sempre crescenti dei bombardieri strategici. Gli Stati Uniti avevano una catena di stazioni radar per il rilevamento di aerei stabilita lungo le coste dell'Atlantico e del Pacifico durante la seconda guerra mondiale. Tuttavia, utilizzavano una tecnologia obsoleta, non coprivano gli approcci settentrionali attraverso il Canada e non erano collegati da un sistema centrale per coordinare la difesa aerea.
Per porre rimedio alla situazione, l’Air Force (un ramo militare indipendente degli Stati Uniti dal 1947) convocò l’Air Defense Engineering Committee (ADSEC). È ricordato nella storia come il "Comitato Walley", dal nome del suo presidente, George Whalley. Era un fisico del MIT e un veterano del gruppo di ricerca radar militare Rad Lab, che dopo la guerra divenne il Laboratorio di ricerca di elettronica (RLE). Il comitato studiò il problema per un anno e il rapporto finale di Valli fu pubblicato nell'ottobre 1950.
Ci si aspetterebbe che una relazione del genere fosse un noioso guazzabuglio di burocrazia, che si concluderebbe con una proposta formulata con cautela e conservatrice. Invece, il rapporto si è rivelato un’interessante argomentazione creativa e conteneva un piano d’azione radicale e rischioso. Questo è l’ovvio merito di un altro professore del MIT,
La più insolita delle loro scoperte è che il modo migliore per automatizzare il direttore sarebbe attraverso computer elettronici digitali che possono assumere il controllo di parte del processo decisionale umano: analizzare le minacce in arrivo, puntare le armi contro quelle minacce (calcolare i percorsi di intercettazione e trasmetterli a combattenti) e forse anche sviluppando una strategia per forme di risposta ottimali. Allora non era affatto ovvio che i computer fossero adatti a tale scopo. A quel tempo c'erano esattamente tre computer elettronici funzionanti in tutti gli Stati Uniti, e nessuno di loro si avvicinava a soddisfare i requisiti di affidabilità di un sistema militare da cui dipendono milioni di vite. Erano semplicemente dei cruncher di numeri molto veloci e programmabili.
Tuttavia Valli aveva motivo di credere nella possibilità di creare un computer digitale in tempo reale, poiché era a conoscenza del progetto
Per George Valley, tuttavia, Whirlwind è stata una rivelazione. Il vero computer Whirlwind era ancora lungi dall'essere funzionante. Tuttavia, in seguito sarebbe dovuto apparire un computer, che non era solo una mente senza corpo. È un computer con organi di senso ed effettori. Organismo. Forrester stava già valutando i piani per espandere il progetto nel principale sistema di comando e controllo militare della nazione. Agli esperti informatici dell’ONR, che credevano che i computer fossero adatti solo per risolvere problemi matematici, questo approccio sembrava grandioso e assurdo. Tuttavia, questa era proprio l'idea che Valli stava cercando, e si presentò giusto in tempo per salvare Whirlwind dall'oblio.
Nonostante (o forse proprio a causa) delle sue grandi ambizioni, il rapporto di Valli convinse l'Aeronautica Militare, che lanciò un nuovo massiccio programma di ricerca e sviluppo per capire prima come creare un sistema di difesa aerea basato su computer digitali, e poi costruirlo effettivamente. L'Air Force iniziò a collaborare con il MIT per condurre ricerche di base, una scelta naturale dato il background Whirlwind e RLE dell'istituzione, nonché una storia di collaborazioni di successo nella difesa aerea risalenti al Rad Lab e alla Seconda Guerra Mondiale. Chiamarono la nuova iniziativa "Progetto Lincoln" e costruirono un nuovo laboratorio di ricerca Lincoln a Hanscom Field, 25 km a nord-ovest di Cambridge.
L'Air Force ha nominato progetto di difesa aerea computerizzata
Quando l'Air Force elaborò i piani completi per il sistema SAGE nel 1954, esso consisteva di varie installazioni radar, basi aeree, armi di difesa aerea, tutte controllate da ventitré centri di controllo, enormi bunker progettati per resistere ai bombardamenti. Per riempire questi centri, l’IBM avrebbe dovuto fornire quarantasei computer, invece dei ventitré che sarebbero costati all’esercito molti miliardi di dollari. Questo perché l'azienda utilizzava ancora i tubi a vuoto nei circuiti logici e si bruciavano come lampadine a incandescenza. Ognuna delle decine di migliaia di lampade presenti in un computer funzionante potrebbe guastarsi in qualsiasi momento. Sarebbe ovviamente inaccettabile lasciare un intero settore dello spazio aereo del paese senza protezione mentre i tecnici effettuavano le riparazioni, quindi è stato necessario tenere a disposizione un aereo di riserva.
Il centro di controllo SAGE presso la base aeronautica di Grand Forks nel Nord Dakota, dove si trovavano due computer AN/FSQ-7
Ogni centro di controllo aveva dozzine di operatori seduti davanti a schermi a raggi catodici, ciascuno dei quali monitorava una sezione dello spazio aereo.
Il computer tracciava ogni potenziale minaccia aerea e la disegnava come scie sullo schermo. L'operatore potrebbe utilizzare la pistola leggera per visualizzare ulteriori informazioni sulla traccia e impartire comandi al sistema di difesa, e il computer li trasformerebbe in un messaggio stampato per una batteria missilistica disponibile o una base aeronautica.
Virus dell'interattività
Data la natura del sistema SAGE – interazione diretta e in tempo reale tra operatori umani e un computer CRT digitale tramite pistole leggere e console – non sorprende che il Lincoln Laboratory abbia allevato la prima schiera di campioni dell’interazione interattiva con i computer. L'intera cultura informatica del laboratorio esisteva in una bolla isolata, tagliata fuori dalle norme di elaborazione batch che si stavano sviluppando nel mondo commerciale. I ricercatori utilizzavano Whirlwind e i suoi discendenti per riservare periodi di tempo durante i quali avevano accesso esclusivo al computer. Sono abituati a usare le mani, gli occhi e le orecchie per interagire direttamente tramite interruttori, tastiere, schermi ben illuminati e persino altoparlanti, senza intermediari cartacei.
Questa strana e piccola sottocultura si è diffusa nel mondo esterno come un virus, attraverso il contatto fisico diretto. E se lo consideriamo un virus, allora il paziente zero dovrebbe essere chiamato un giovane di nome Wesley Clark. Clark lasciò la scuola di specializzazione in fisica a Berkeley nel 1949 per diventare tecnico in un impianto di armi nucleari. Tuttavia, il lavoro non gli piaceva. Dopo aver letto diversi articoli di riviste di informatica, iniziò a cercare un'opportunità per approfondire quello che sembrava un campo nuovo ed entusiasmante, pieno di potenziale non sfruttato. Venne a sapere del reclutamento di specialisti informatici presso il Lincoln Laboratory da un annuncio pubblicitario e nel 1951 si trasferì sulla costa orientale per lavorare sotto Forrester, che era già diventato il capo del laboratorio di informatica digitale.
Wesley Clark mostra il suo computer biomedico LINC, 1962
Clark si unì all'Advanced Development Group, una sottosezione del laboratorio che incarnava lo stato rilassato della collaborazione militare-universitaria dell'epoca. Anche se tecnicamente il dipartimento faceva parte dell'universo del Lincoln Laboratory, il team viveva in una bolla dentro un'altra bolla, isolato dalle necessità quotidiane del progetto SAGE e libero di dedicarsi a qualsiasi campo informatico che potesse essere legato in qualche modo al progetto SAGE. difesa aerea. Il loro obiettivo principale all'inizio degli anni '1950 era creare il Memory Test Computer (MTC), progettato per dimostrare la fattibilità di un nuovo metodo altamente efficiente e affidabile per archiviare le informazioni digitali.
Poiché MTC non aveva utenti oltre ai suoi creatori, Clark aveva pieno accesso al computer per molte ore ogni giorno. Clark si interessò alla miscela cibernetica allora di moda di fisica, fisiologia e teoria dell'informazione grazie al suo collega Belmont Farley, che stava comunicando con un gruppo di biofisici della RLE di Cambridge. Clark e Farley trascorsero lunghe ore all'MTC, creando modelli software di reti neurali per studiare le proprietà dei sistemi auto-organizzanti. Da questi esperimenti Clark iniziò a derivare alcuni principi assiomatici dell'informatica, dai quali non si discostò mai. In particolare, è arrivato a credere che “la comodità dell’utente è il fattore di progettazione più importante”.
Nel 1955, Clark collaborò con Ken Olsen, uno degli sviluppatori dell'MTC, per formulare un piano per creare un nuovo computer che potesse aprire la strada alla prossima generazione di sistemi di controllo militare. Utilizzando una memoria a nucleo magnetico molto grande per l'archiviazione e transistor per la logica, potrebbe essere reso molto più compatto, affidabile e potente del Whirlwind. Inizialmente, hanno proposto un progetto che hanno chiamato TX-1 (computer transistorizzato ed eXperimental, "computer a transistor sperimentale" - molto più chiaro di AN/FSQ-7). Tuttavia, la direzione del Lincoln Laboratory rifiutò il progetto perché troppo costoso e rischioso. I transistor erano stati immessi sul mercato solo pochi anni prima e pochissimi computer erano stati costruiti utilizzando la logica dei transistor. Così Clark e Olsen tornarono con una versione più piccola dell'auto, la TX-0, che fu omologata.
TX-0
La funzionalità del computer TX-0 come strumento per la gestione delle basi militari, nonostante il pretesto per la sua creazione, era per Clark molto meno interessante dell'opportunità di promuovere le sue idee sulla progettazione dei computer. A suo avviso, l’interattività informatica aveva cessato di essere una realtà quotidiana ai Lincoln Laboratories ed era diventata la nuova norma: il modo corretto di costruire e utilizzare i computer, soprattutto per il lavoro scientifico. Ha dato accesso al TX-0 ai biofisici del MIT, sebbene il loro lavoro non avesse nulla a che fare con il PVO, e ha permesso loro di utilizzare il display visivo della macchina per analizzare gli elettroencefalogrammi degli studi sul sonno. E nessuno si è opposto a questo.
Il TX-0 ebbe un tale successo che nel 1956 i Lincoln Laboratories approvarono un computer a transistor su larga scala, il TX-2, con un'enorme memoria da due milioni di bit. Il progetto richiederà due anni per essere completato. Successivamente, il virus fuggirà fuori dal laboratorio. Una volta completato TX-2, i laboratori non avranno più bisogno di utilizzare il prototipo iniziale, quindi hanno accettato di prestare TX-0 a Cambridge a RLE. È stato installato al secondo piano, sopra il centro informatico di elaborazione batch. E infettò immediatamente computer e professori del campus del MIT, che iniziarono a lottare per periodi di tempo in cui avrebbero potuto ottenere il pieno controllo del computer.
Era già chiaro che scrivere correttamente un programma per computer la prima volta era quasi impossibile. Inoltre, i ricercatori che studiavano un nuovo compito spesso inizialmente non avevano idea di quale dovesse essere il comportamento corretto. E per ottenere i risultati dal centro informatico dovevi aspettare ore, o addirittura fino al giorno successivo. Per decine di nuovi programmatori nel campus, essere in grado di fare carriera, scoprire un bug e risolverlo immediatamente, provare un nuovo approccio e vedere immediatamente risultati migliori è stata una rivelazione. Alcuni hanno utilizzato il tempo trascorso su TX-0 per lavorare su seri progetti scientifici o ingegneristici, ma la gioia dell'interattività ha attirato anche anime più giocose. Uno studente ha scritto un programma di editing di testi che ha definito "una macchina da scrivere costosa". Un altro seguì l'esempio e scrisse una "costosa calcolatrice da tavolo" che usava per fare i compiti di calcolo.
Ivan Sutherland mostra il suo programma Sketchpad sul TX-2
Nel frattempo, Ken Olsen e un altro ingegnere TX-0, Harlan Anderson, frustrati dalla lentezza dei progressi del progetto TX-2, decisero di commercializzare un computer interattivo su piccola scala per scienziati e ingegneri. Lasciarono il laboratorio per fondare la Digital Equipment Corporation, aprendo un ufficio in un ex stabilimento tessile sul fiume Assabet, dieci miglia a ovest di Lincoln. Il loro primo computer, il PDP-1 (rilasciato nel 1961), era essenzialmente un clone del TX-0.
TX-0 e Digital Equipment Corporation iniziarono a diffondere la buona notizia di un nuovo modo di utilizzare i computer oltre il Lincoln Laboratory. Eppure, finora, il virus dell’interattività è stato localizzato geograficamente, nel Massachusetts orientale. Ma la situazione sarebbe presto cambiata.
Cos'altro leggere:
- Lars Heide, I sistemi a schede perforate e l'esplosione precoce dell'informazione, 1880-1945 (2009)
- Joseph November, Informatica biomedica (2012)
- Kent C. Redmond e Thomas M. Smith, Da Whirlwind a MITRE (2000)
- M. Mitchell Waldrop, La macchina dei sogni (2001)
Fonte: habr.com