Histoire d'Internet : à la découverte de l'interactivité

Histoire d'Internet : à la découverte de l'interactivité

Autres articles de la série :

Les tout premiers ordinateurs électroniques étaient des appareils uniques créés à des fins de recherche. Mais une fois disponibles, les organisations les ont rapidement intégrés à leur culture de données existante, dans laquelle toutes les données et tous les processus étaient représentés dans des piles. cartes perforées.

Herman Hollerith a développé la première tabulatrice capable de lire et de compter les données provenant des trous dans les cartes papier pour le recensement américain à la fin du 0e siècle. Au milieu du siècle suivant, une ménagerie très hétéroclite de descendants de cette machine avait pénétré dans les grandes entreprises et les organisations gouvernementales du monde entier. Leur langage commun était une carte composée de plusieurs colonnes, où chaque colonne représentait (généralement) un chiffre, qui pouvait être perforé dans l'une des dix positions représentant les nombres de 9 à XNUMX.

Aucun appareil complexe n'était nécessaire pour saisir les données d'entrée dans les cartes, et le processus pouvait être réparti entre plusieurs bureaux de l'organisation qui générait les données. Lorsque des données devaient être traitées (par exemple, pour calculer les revenus d'un rapport de ventes trimestriel), les cartes correspondantes pouvaient être introduites dans le centre de données et mises en file d'attente pour être traitées par des machines appropriées qui produisaient un ensemble de données de sortie sur des cartes ou les imprimaient sur papier. . Autour des machines centrales de traitement – ​​tabulatrices et calculatrices – se trouvaient des périphériques regroupés pour perforer, copier, trier et interpréter les cartes.

Histoire d'Internet : à la découverte de l'interactivité
IBM 285 Tabulator, une machine à cartes perforées populaire dans les années 1930 et 40.

Dans la seconde moitié des années 1950, presque tous les ordinateurs fonctionnaient selon ce système de « traitement par lots ». Du point de vue de l’utilisateur final type, peu de choses ont changé. Vous avez apporté une pile de cartes perforées pour le traitement et avez reçu un imprimé ou une autre pile de cartes perforées à la suite de votre travail. Et au cours du processus, les cartes passaient de trous dans le papier à des signaux électroniques et vice-versa, mais cela ne vous intéressait pas beaucoup. IBM a dominé le domaine des machines de traitement de cartes perforées et est resté l'une des forces dominantes dans le domaine des ordinateurs électroniques, en grande partie grâce à ses relations établies et à sa large gamme d'équipements périphériques. Ils ont simplement remplacé les tabulatrices et calculatrices mécaniques des clients par des machines de traitement de données plus rapides et plus flexibles.

Histoire d'Internet : à la découverte de l'interactivité
Kit de traitement de cartes perforées IBM 704. Au premier plan, une fille travaille avec un lecteur.

Ce système de traitement de cartes perforées a parfaitement fonctionné pendant des décennies et n’a pas décliné, bien au contraire. Et pourtant, à la fin des années 1950, une sous-culture marginale de chercheurs en informatique a commencé à affirmer que l’ensemble de ce flux de travail devait changer – ils affirmaient qu’il était préférable d’utiliser l’ordinateur de manière interactive. Au lieu de lui laisser une tâche et de revenir ensuite chercher les résultats, l'utilisateur doit communiquer directement avec la machine et utiliser ses capacités à la demande. Dans Le Capital, Marx décrit comment les machines industrielles – que les gens utilisent simplement – ​​ont remplacé les outils de travail que les gens contrôlaient directement. Cependant, les ordinateurs ont commencé à exister sous forme de machines. Ce n’est que plus tard que certains de leurs utilisateurs en ont fait des outils.

Et cette transformation n’a pas eu lieu dans les centres de données tels que le US Census Bureau, la compagnie d’assurance MetLife ou la United States Steel Corporation (qui ont tous été parmi les premiers à acheter UNIVAC, l’un des premiers ordinateurs disponibles dans le commerce). Il est peu probable qu'une organisation qui considère la paie hebdomadaire comme le moyen le plus efficace et le plus fiable souhaite que quelqu'un perturbe ce traitement en jouant avec l'ordinateur. L'intérêt de pouvoir s'asseoir devant une console et simplement essayer quelque chose sur un ordinateur était plus clair pour les scientifiques et les ingénieurs, qui voulaient étudier un problème, l'aborder sous différents angles jusqu'à ce que son point faible soit découvert et passer rapidement d'un problème à l'autre. penser et faire.

C’est pourquoi de telles idées sont apparues parmi les chercheurs. Cependant, l’argent nécessaire à une telle utilisation inutile de l’ordinateur ne provenait pas des chefs de département. Une nouvelle sous-culture (on pourrait même dire un culte) du travail interactif sur ordinateur est née d’un partenariat productif entre l’armée et les universités d’élite aux États-Unis. Cette coopération mutuellement bénéfique a commencé pendant la Seconde Guerre mondiale. Les armes atomiques, les radars et autres armes magiques ont enseigné aux chefs militaires que les activités apparemment incompréhensibles des scientifiques pouvaient revêtir une importance incroyable pour l’armée. Cette relation confortable a duré environ une génération, puis s'est effondrée dans les vicissitudes politiques d'une autre guerre, celle du Vietnam. Mais à cette époque, les scientifiques américains avaient accès à d’énormes sommes d’argent, n’étaient pratiquement pas dérangés et pouvaient faire presque tout ce qui pouvait être associé, même de loin, à la défense nationale.

La justification des ordinateurs interactifs a commencé par une bombe.

Tourbillon et SAGE

Le 29 août 1949, une équipe de recherche soviétique mena avec succès premier essai d'armes nucléaires sur Site d'essai de Semipalatinsk. Trois jours plus tard, un avion de reconnaissance américain survolant le Pacifique Nord a découvert dans l'atmosphère des traces de matières radioactives résultant du test. L’URSS possédait une bombe et ses rivaux américains l’ont découvert. Les tensions entre les deux superpuissances persistaient depuis plus d’un an, depuis que l’URSS avait coupé les routes terrestres vers les zones de Berlin contrôlées par l’Occident en réponse aux projets visant à redonner à l’Allemagne son ancienne grandeur économique.

Le blocus prit fin au printemps 1949, bloqué par une opération massive lancée par l’Occident pour soutenir la ville depuis les airs. La tension s'est quelque peu apaisée. Cependant, les généraux américains ne pouvaient ignorer l’existence d’une force potentiellement hostile ayant accès aux armes nucléaires, surtout compte tenu de la taille et de la portée toujours croissantes des bombardiers stratégiques. Les États-Unis disposaient d’une chaîne de stations radar de détection d’avions établies le long des côtes de l’Atlantique et du Pacifique pendant la Seconde Guerre mondiale. Cependant, ils utilisaient une technologie désuète, ne couvraient pas les approches nord du Canada et n'étaient pas reliés par un système central de coordination de la défense aérienne.

Pour remédier à la situation, l’Air Force (branche militaire américaine indépendante depuis 1947) a convoqué l’Air Defence Engineering Committee (ADSEC). On se souvient de lui dans l'histoire sous le nom de « Comité Walley », du nom de son président, George Whalley. Il était physicien au MIT et vétéran du groupe de recherche sur les radars militaires Rad Lab, devenu après la guerre le Laboratoire de recherche en électronique (RLE). Le comité étudia le problème pendant un an et le rapport final de Valli fut publié en octobre 1950.

On pourrait s’attendre à ce qu’un tel rapport soit un fatras bureaucratique ennuyeux, se terminant par une proposition prudente et conservatrice. Au lieu de cela, le rapport s’est avéré être une argumentation créative intéressante et contenait un plan d’action radical et risqué. C'est le mérite évident d'un autre professeur du MIT, Norbert Wiener, qui soutenait que l'étude des êtres vivants et des machines pouvait être combinée en une seule discipline cybernétique. Valli et ses co-auteurs sont partis de l’hypothèse que le système de défense aérienne est un organisme vivant, non pas métaphoriquement, mais en réalité. Les stations radar servent d'organes sensoriels, les intercepteurs et les missiles sont les effecteurs par lesquels ils interagissent avec le monde. Ils travaillent sous le contrôle d'un directeur, qui utilise les informations provenant des sens pour prendre des décisions sur les actions nécessaires. Ils ont en outre fait valoir qu'un directeur entièrement humain ne serait pas en mesure d'arrêter des centaines d'avions entrants sur des millions de kilomètres carrés en quelques minutes, et qu'autant de fonctions du directeur que possible devraient être automatisées.

La plus inhabituelle de leurs découvertes est que la meilleure façon d'automatiser le directeur serait d'utiliser des ordinateurs électroniques numériques capables de prendre en charge une partie de la prise de décision humaine : analyser les menaces entrantes, cibler les armes contre ces menaces (calculer les trajectoires d'interception et les transmettre à combattants), et peut-être même développer une stratégie pour des formes de réponse optimales. Il n’était alors pas du tout évident que les ordinateurs soient adaptés à un tel usage. À cette époque, il y avait exactement trois ordinateurs électroniques fonctionnels aux États-Unis, et aucun d’entre eux ne répondait aux exigences de fiabilité d’un système militaire dont dépendent des millions de vies. C’étaient simplement des calculateurs de chiffres très rapides et programmables.

Cependant, Valli avait des raisons de croire à la possibilité de créer un ordinateur numérique en temps réel, puisqu'il connaissait le projet. tourbillon ["Vortex"]. Tout a commencé pendant la guerre dans le laboratoire de servomécanismes du MIT sous la direction d'un jeune étudiant diplômé, Jay Forrester. Son objectif initial était de créer un simulateur de vol à usage général qui pourrait être reconfiguré pour prendre en charge de nouveaux modèles d'avions sans avoir à reconstruire à partir de zéro à chaque fois. Un collègue a convaincu Forrester que son simulateur devait utiliser l'électronique numérique pour traiter les paramètres d'entrée du pilote et produire les états de sortie pour les instruments. Peu à peu, la tentative de créer un ordinateur numérique à grande vitesse a dépassé et éclipsé l'objectif initial. Le simulateur de vol était oublié et la guerre qui avait donné lieu à son développement était terminée depuis longtemps, et un comité d'inspecteurs de l'Office de Recherches Navales (ONR) commençait peu à peu à déchanter sur le projet en raison d'un budget toujours plus important et d'un coût toujours plus élevé. -pousser la date d'achèvement. En 1950, l'ONR réduisit considérablement le budget de Forrester pour l'année suivante, avec l'intention d'arrêter complètement le projet par la suite.

Pour George Valley, cependant, Whirlwind a été une révélation. L’ordinateur Whirlwind actuel était encore loin de fonctionner. Cependant, après cela, un ordinateur était censé apparaître, qui n'était pas seulement un esprit sans corps. C'est un ordinateur doté d'organes sensoriels et d'effecteurs. Organisme. Forrester envisageait déjà d'étendre le projet au premier système de centre de commandement et de contrôle militaire du pays. Pour les informaticiens de l’ONR, qui pensaient que les ordinateurs ne convenaient qu’à la résolution de problèmes mathématiques, cette approche semblait grandiose et absurde. Cependant, c'était exactement l'idée que Valli recherchait, et il est arrivé juste à temps pour sauver Whirlwind de l'oubli.

Malgré (ou peut-être à cause de) ses grandes ambitions, le rapport de Valli a convaincu l'armée de l'air, qui a lancé un nouveau programme massif de recherche et développement pour comprendre d'abord comment créer un système de défense aérienne basé sur des ordinateurs numériques, puis le construire réellement. L'Air Force a commencé à collaborer avec le MIT pour mener des recherches de base - un choix naturel compte tenu de l'expérience Whirlwind et RLE de l'institution, ainsi que d'un historique de collaborations réussies en matière de défense aérienne remontant au Rad Lab et à la Seconde Guerre mondiale. Ils ont appelé la nouvelle initiative « Projet Lincoln » et ont construit un nouveau laboratoire de recherche Lincoln à Hanscom Field, à 25 km au nord-ouest de Cambridge.

L'Armée de l'Air nommée projet de défense aérienne informatisée SAUGE - un étrange acronyme typique d'un projet militaire signifiant "environnement terrestre semi-automatique". Whirlwind était censé être un ordinateur de test pour prouver la viabilité du concept avant que la production à grande échelle du matériel et son déploiement ne soient effectués - cette responsabilité a été confiée à IBM. La version fonctionnelle de l'ordinateur Whirlwind, qui devait être fabriquée chez IBM, a reçu le nom beaucoup moins mémorable AN/FSQ-7 (« Army-Navy Fixed Special Purpose Equipment » - ce qui fait que SAGE semble assez précis en comparaison).

Au moment où l'Armée de l'Air élabora les plans complets du système SAGE en 1954, celui-ci se composait de diverses installations radar, bases aériennes, armes de défense aérienne - le tout contrôlé depuis vingt-trois centres de contrôle, des bunkers massifs conçus pour résister aux bombardements. Pour remplir ces centres, IBM devrait fournir quarante-six ordinateurs, au lieu des vingt-trois qui auraient coûté aux militaires plusieurs milliards de dollars. En effet, l'entreprise utilisait encore des tubes à vide dans les circuits logiques et ils brûlaient comme des ampoules à incandescence. N'importe laquelle des dizaines de milliers de lampes d'un ordinateur en état de marche peut tomber en panne à tout moment. Il serait évidemment inacceptable de laisser sans protection tout un secteur de l'espace aérien du pays pendant que des techniciens effectuaient des réparations. Il fallait donc garder un avion de rechange à disposition.

Histoire d'Internet : à la découverte de l'interactivité
Le centre de contrôle SAGE de la base aérienne de Grand Forks dans le Dakota du Nord, où se trouvaient deux ordinateurs AN/FSQ-7

Chaque centre de contrôle comptait des dizaines d'opérateurs assis devant des écrans cathodiques, chacun surveillant une partie de l'espace aérien.

Histoire d'Internet : à la découverte de l'interactivité

L'ordinateur a suivi toutes les menaces aériennes potentielles et les a dessinées sous forme de traces sur l'écran. L'opérateur pourrait utiliser le pistolet léger pour afficher des informations supplémentaires sur la piste et émettre des commandes au système de défense, et l'ordinateur les transformerait en message imprimé pour une batterie de missiles ou une base aérienne disponible.

Histoire d'Internet : à la découverte de l'interactivité

Virus d'interactivité

Compte tenu de la nature du système SAGE – interaction directe en temps réel entre des opérateurs humains et un ordinateur CRT numérique via des pistolets optiques et une console – il n’est pas surprenant que le Laboratoire Lincoln ait nourri la première cohorte de champions de l’interaction interactive avec les ordinateurs. Toute la culture informatique du laboratoire existait dans une bulle isolée, coupée des normes de traitement par lots qui se développaient dans le monde commercial. Les chercheurs ont utilisé Whirlwind et ses descendants pour réserver des périodes pendant lesquelles ils avaient un accès exclusif à l'ordinateur. Ils sont habitués à utiliser leurs mains, leurs yeux et leurs oreilles pour interagir directement via des interrupteurs, des claviers, des écrans bien éclairés et même des haut-parleurs, sans intermédiaires papier.

Cette étrange et petite sous-culture s’est propagée au monde extérieur comme un virus, par contact physique direct. Et si nous le considérons comme un virus, alors le patient zéro devrait s'appeler un jeune homme nommé Wesley Clark. Clark a quitté ses études supérieures en physique à Berkeley en 1949 pour devenir technicien dans une usine d'armes nucléaires. Cependant, ce travail ne lui plaisait pas. Après avoir lu plusieurs articles dans des magazines informatiques, il a commencé à chercher une opportunité de se plonger dans ce qui semblait être un domaine nouveau et passionnant, plein de potentiel inexploité. Il a appris le recrutement d'informaticiens au Lincoln Laboratory grâce à une annonce et, en 1951, il a déménagé sur la côte Est pour travailler sous Forrester, qui était déjà devenu le chef du laboratoire d'informatique numérique.

Histoire d'Internet : à la découverte de l'interactivité
Wesley Clark faisant la démonstration de son ordinateur biomédical LINC, 1962

Clark a rejoint l'Advanced Development Group, une sous-section du laboratoire qui incarnait l'état détendu de la collaboration militaro-universitaire de l'époque. Bien que le département fasse techniquement partie de l'univers du Lincoln Laboratory, l'équipe existait dans une bulle au sein d'une autre bulle, isolée des besoins quotidiens du projet SAGE et libre de poursuivre n'importe quel domaine informatique qui pourrait être lié d'une manière ou d'une autre à celui-ci. défense aérienne. Leur objectif principal au début des années 1950 était de créer l'ordinateur de test de mémoire (MTC), conçu pour démontrer la viabilité d'une nouvelle méthode hautement efficace et fiable de stockage d'informations numériques. mémoire à noyau magnétique, qui remplacerait la mémoire CRT capricieuse utilisée dans Whirlwind.

Comme MTC n'avait aucun utilisateur autre que ses créateurs, Clark avait un accès complet à l'ordinateur pendant plusieurs heures chaque jour. Clark s'est intéressé au mélange cybernétique alors à la mode de physique, de physiologie et de théorie de l'information grâce à son collègue Belmont Farley, qui communiquait avec un groupe de biophysiciens du RLE à Cambridge. Clark et Farley ont passé de longues heures au MTC, créant des modèles logiciels de réseaux neuronaux pour étudier les propriétés des systèmes auto-organisés. De ces expériences, Clark commença à déduire certains principes axiomatiques de l'informatique, dont il ne s'écarta jamais. En particulier, il en est venu à croire que « la commodité pour l’utilisateur est le facteur de conception le plus important ».

En 1955, Clark s'est associé à Ken Olsen, l'un des développeurs du MTC, pour formuler un plan visant à créer un nouvel ordinateur qui pourrait ouvrir la voie à la prochaine génération de systèmes de contrôle militaires. En utilisant une très grande mémoire à noyau magnétique pour le stockage et des transistors pour la logique, il pourrait être rendu beaucoup plus compact, fiable et puissant que le Whirlwind. Initialement, ils ont proposé une conception qu'ils ont appelée TX-1 (ordinateur transistorisé et expérimental, « ordinateur à transistor expérimental » - beaucoup plus clair que l'AN/FSQ-7). Cependant, la direction du Lincoln Laboratory a rejeté le projet, le jugeant trop coûteux et risqué. Les transistors n'étaient sur le marché que quelques années plus tôt et très peu d'ordinateurs avaient été construits à l'aide de la logique des transistors. Clark et Olsen revinrent donc avec une version plus petite de la voiture, la TX-0, qui fut approuvée.

Histoire d'Internet : à la découverte de l'interactivité
TX-0

La fonctionnalité de l'ordinateur TX-0 en tant qu'outil de gestion de bases militaires, bien que prétexte à sa création, était beaucoup moins intéressante pour Clark que l'opportunité de promouvoir ses idées sur la conception informatique. Selon lui, l'interactivité informatique avait cessé d'être une réalité aux laboratoires Lincoln et était devenue la nouvelle norme, la manière appropriée de construire et d'utiliser des ordinateurs, en particulier pour le travail scientifique. Il a donné accès au TX-0 aux biophysiciens du MIT, bien que leur travail n'ait rien à voir avec le PVO, et leur a permis d'utiliser l'écran visuel de la machine pour analyser les électroencéphalogrammes issus d'études sur le sommeil. Et personne ne s’y est opposé.

Le TX-0 a connu un tel succès qu'en 1956, les laboratoires Lincoln ont approuvé un ordinateur à transistors à grande échelle, le TX-2, doté d'une énorme mémoire de deux millions de bits. Le projet durera deux ans. Après cela, le virus s’échappera hors du laboratoire. Une fois le TX-2 terminé, les laboratoires n'auront plus besoin d'utiliser le premier prototype, ils ont donc accepté de prêter le TX-0 à Cambridge à RLE. Il a été installé au deuxième étage, au-dessus du centre informatique de traitement par lots. Et il a immédiatement infecté les ordinateurs et les professeurs du campus du MIT, qui ont commencé à se battre pour obtenir des délais pendant lesquels ils pourraient prendre le contrôle total de l'ordinateur.

Il était déjà clair qu’il était presque impossible d’écrire correctement un programme informatique du premier coup. De plus, les chercheurs qui étudient une nouvelle tâche n’avaient souvent aucune idée au départ de ce que devrait être le comportement correct. Et pour obtenir les résultats du centre informatique, il fallait attendre des heures, voire jusqu'au lendemain. Pour des dizaines de nouveaux programmeurs sur le campus, pouvoir gravir les échelons, découvrir un bug et le corriger immédiatement, essayer une nouvelle approche et constater immédiatement des résultats améliorés a été une révélation. Certains ont utilisé leur temps sur TX-0 pour travailler sur des projets scientifiques ou d'ingénierie sérieux, mais la joie de l'interactivité a également attiré des âmes plus enjouées. Un étudiant a écrit un programme d'édition de texte qu'il a appelé « une machine à écrire coûteuse ». Un autre a emboîté le pas et a écrit une « calculatrice de bureau coûteuse » qu’il utilisait pour faire ses devoirs de calcul.

Histoire d'Internet : à la découverte de l'interactivité
Ivan Sutherland présente son programme Sketchpad sur le TX-2

Pendant ce temps, Ken Olsen et un autre ingénieur du TX-0, Harlan Anderson, frustrés par la lenteur des progrès du projet TX-2, décidèrent de commercialiser un ordinateur interactif à petite échelle destiné aux scientifiques et aux ingénieurs. Ils ont quitté le laboratoire pour fonder Digital Equipment Corporation, ouvrant un bureau dans une ancienne usine textile sur la rivière Assabet, à dix miles à l'ouest de Lincoln. Leur premier ordinateur, le PDP-1 (sorti en 1961), était essentiellement un clone du TX-0.

TX-0 et Digital Equipment Corporation ont commencé à diffuser la bonne nouvelle d'une nouvelle façon d'utiliser les ordinateurs au-delà du laboratoire Lincoln. Et pourtant, jusqu’à présent, le virus de l’interactivité a été localisé géographiquement, dans l’est du Massachusetts. Mais cela allait bientôt changer.

Que lire d'autre :

  • Lars Heide, Les systèmes de cartes perforées et les premières explosions d'informations, 1880-1945 (2009)
  • Joseph Novembre, Informatique biomédicale (2012)
  • Kent C. Redmond et Thomas M. Smith, Du tourbillon à MITRE (2000)
  • M. Mitchell Waldrop, La Machine à rêves (2001)

Source: habr.com

Ajouter un commentaire