Historia de Internet: descubriendo la interactividad

Historia de Internet: descubriendo la interactividad

Otros artículos de la serie:

Las primeras computadoras electrónicas fueron dispositivos únicos creados con fines de investigación. Pero una vez que estuvieron disponibles, las organizaciones los incorporaron rápidamente a su cultura de datos existente, una en la que todos los datos y procesos estaban representados en pilas. tarjetas perforadas.

Herman Hollerith desarrolló el primer tabulador capaz de leer y contar datos de los agujeros en tarjetas de papel para el censo de EE. UU. a finales del siglo XIX. A mediados del siglo siguiente, una colección muy variada de descendientes de esta máquina había penetrado en grandes empresas y organizaciones gubernamentales de todo el mundo. Su lenguaje común era una tarjeta que constaba de varias columnas, donde cada columna (normalmente) representaba un número, que podía perforarse en una de las diez posiciones que representaban los números del 0 al 9.

No se requirieron dispositivos complejos para introducir los datos de entrada en las tarjetas y el proceso se pudo distribuir entre varias oficinas de la organización que generó los datos. Cuando era necesario procesar datos (por ejemplo, para calcular los ingresos de un informe de ventas trimestral), las tarjetas correspondientes podían llevarse al centro de datos y ponerse en cola para su procesamiento en máquinas adecuadas que producían un conjunto de datos de salida en tarjetas o los imprimían en papel. . Alrededor de las máquinas de procesamiento central (tabuladores y calculadoras) se agrupaban dispositivos periféricos para perforar, copiar, clasificar e interpretar tarjetas.

Historia de Internet: descubriendo la interactividad
IBM 285 Tabulator, una popular máquina de tarjetas perforadas de las décadas de 1930 y 40.

En la segunda mitad de la década de 1950, casi todas las computadoras funcionaban utilizando este esquema de "procesamiento por lotes". Desde la perspectiva del típico usuario final de ventas, no ha cambiado mucho. Trajo una pila de tarjetas perforadas para su procesamiento y recibió una copia impresa u otra pila de tarjetas perforadas como resultado del trabajo. Y en el proceso, las tarjetas pasaron de ser agujeros en el papel a señales electrónicas y viceversa, pero eso no te importaba mucho. IBM dominó el campo de las máquinas procesadoras de tarjetas perforadas y siguió siendo una de las fuerzas dominantes en el campo de las computadoras electrónicas, en gran parte debido a sus relaciones establecidas y su amplia gama de equipos periféricos. Simplemente reemplazaron las calculadoras y tabuladores mecánicos de los clientes por máquinas de procesamiento de datos más rápidas y flexibles.

Historia de Internet: descubriendo la interactividad
Kit de procesamiento de tarjetas perforadas IBM 704. En primer plano, una niña trabaja con un lector.

Este sistema de procesamiento de tarjetas perforadas funcionó perfectamente durante décadas y no decayó, sino todo lo contrario. Y, sin embargo, a finales de la década de 1950, una subcultura marginal de investigadores informáticos comenzó a argumentar que todo este flujo de trabajo necesitaba cambiar: argumentaban que la mejor forma de utilizar la computadora era de forma interactiva. En lugar de dejarle una tarea y luego regresar para obtener los resultados, el usuario debe comunicarse directamente con la máquina y utilizar sus capacidades según sea necesario. En El capital, Marx describió cómo las máquinas industriales (que la gente simplemente maneja) reemplazaron las herramientas de trabajo que la gente controlaba directamente. Sin embargo, las computadoras comenzaron a existir en forma de máquinas. Sólo más tarde algunos de sus usuarios los convirtieron en herramientas.

Y esta transformación no tuvo lugar en centros de datos como la Oficina del Censo de Estados Unidos, la compañía de seguros MetLife o la United States Steel Corporation (todas las cuales estuvieron entre las primeras en comprar UNIVAC, una de las primeras computadoras disponibles comercialmente). Es poco probable que una organización que considera que la nómina semanal es la forma más eficiente y confiable quiera que alguien interrumpa este procesamiento jugando con la computadora. El valor de poder sentarse frente a una consola y simplemente probar algo en una computadora era más claro para los científicos e ingenieros, que querían estudiar un problema, abordarlo desde diferentes ángulos hasta descubrir su punto débil y cambiar rápidamente entre ellos. pensando y haciendo.

Por lo tanto, surgieron tales ideas entre los investigadores. Sin embargo, el dinero para pagar por el uso despilfarrador de la computadora no provino de los jefes de departamento. Una nueva subcultura (incluso se podría decir un culto) de trabajo interactivo con computadoras surgió de una asociación productiva entre el ejército y las universidades de élite de los Estados Unidos. Esta cooperación mutuamente beneficiosa comenzó durante la Segunda Guerra Mundial. Las armas atómicas, los radares y otras armas mágicas enseñaron a los líderes militares que las actividades aparentemente incomprensibles de los científicos podrían ser de increíble importancia para los militares. Esta cómoda relación duró aproximadamente una generación y luego se vino abajo en las vicisitudes políticas de otra guerra, la de Vietnam. Pero en ese momento, los científicos estadounidenses tenían acceso a enormes sumas de dinero, casi no eran molestados y podían hacer casi cualquier cosa que pudiera estar remotamente asociada con la defensa nacional.

La justificación de las computadoras interactivas comenzó con una bomba.

Torbellino y SABIO

El 29 de agosto de 1949, un equipo de investigación soviético realizó con éxito primera prueba de armas nucleares en Sitio de prueba Semipalatinsk. Tres días después, un avión de reconocimiento estadounidense que sobrevolaba el Pacífico Norte descubrió restos de material radiactivo en la atmósfera que quedaron de la prueba. La URSS tenía una bomba y sus rivales estadounidenses se enteraron. Las tensiones entre las dos superpotencias habían persistido durante más de un año, desde que la URSS cortó las rutas terrestres a las zonas de Berlín controladas por Occidente en respuesta a los planes para devolver a Alemania su antigua grandeza económica.

El bloqueo terminó en la primavera de 1949, obstaculizado por una operación masiva lanzada por Occidente para apoyar a la ciudad desde el aire. La tensión disminuyó un poco. Sin embargo, los generales estadounidenses no podían ignorar la existencia de una fuerza potencialmente hostil con acceso a armas nucleares, especialmente teniendo en cuenta el tamaño y alcance cada vez mayores de los bombarderos estratégicos. Estados Unidos tenía una cadena de estaciones de radar de detección de aeronaves establecidas a lo largo de las costas del Atlántico y el Pacífico durante la Segunda Guerra Mundial. Sin embargo, utilizaron tecnología obsoleta, no cubrieron los accesos del norte a través de Canadá y no estaban conectados por un sistema central para coordinar la defensa aérea.

Para remediar la situación, la Fuerza Aérea (una rama militar estadounidense independiente desde 1947) convocó al Comité de Ingeniería de Defensa Aérea (ADSEC). Se le recuerda en la historia como el "Comité Walley", que lleva el nombre de su presidente, George Whalley. Era físico del MIT y veterano del grupo de investigación de radares militares Rad Lab, que se convirtió en el Laboratorio de Investigación de Electrónica (RLE) después de la guerra. El comité estudió el problema durante un año y el informe final de Valli se publicó en octubre de 1950.

Uno esperaría que un informe así fuera un aburrido revoltijo de trámites burocráticos, que terminaría con una propuesta conservadora y redactada con cautela. En cambio, el informe resultó ser una interesante pieza de argumentación creativa y contenía un plan de acción radical y arriesgado. Este es el mérito obvio de otro profesor del MIT, Norberto Wiener, quien argumentó que el estudio de los seres vivos y las máquinas se puede combinar en una sola disciplina cibernética. Valli y sus coautores comenzaron con la suposición de que el sistema de defensa aérea es un organismo vivo, no metafóricamente, sino en la realidad. Las estaciones de radar sirven como órganos sensoriales, los interceptores y los misiles son los efectores a través de los cuales interactúa con el mundo. Trabajan bajo el control de un director, que utiliza la información de los sentidos para tomar decisiones sobre las acciones necesarias. Argumentaron además que un director totalmente humano no sería capaz de detener cientos de aviones entrantes a lo largo de millones de kilómetros cuadrados en cuestión de minutos, por lo que se deberían automatizar tantas funciones del director como sea posible.

El más inusual de sus hallazgos es que la mejor manera de automatizar al director sería a través de computadoras electrónicas digitales que puedan hacerse cargo de algunas de las decisiones humanas: analizar las amenazas entrantes, apuntar armas contra esas amenazas (calcular cursos de intercepción y transmitirlas a combatientes), y tal vez incluso desarrollar una estrategia para formas óptimas de respuesta. Entonces no era del todo obvio que los ordenadores fueran adecuados para tal fin. Había exactamente tres computadoras electrónicas en funcionamiento en todo Estados Unidos en ese momento, y ninguna de ellas estuvo cerca de cumplir con los requisitos de confiabilidad para un sistema militar del que dependen millones de vidas. Eran simplemente analizadores de números muy rápidos y programables.

Sin embargo, Valli tenía motivos para creer en la posibilidad de crear una computadora digital en tiempo real, ya que conocía el proyecto. torbellino ["Vórtice"]. Comenzó durante la guerra en el laboratorio de servomecanismos del MIT bajo la dirección de un joven estudiante de posgrado, Jay Forrester. Su objetivo inicial era crear un simulador de vuelo de uso general que pudiera reconfigurarse para admitir nuevos modelos de aviones sin tener que reconstruir desde cero cada vez. Un colega convenció a Forrester de que su simulador debería utilizar electrónica digital para procesar los parámetros de entrada del piloto y producir estados de salida para los instrumentos. Poco a poco, el intento de crear una computadora digital de alta velocidad superó y eclipsó el objetivo original. El simulador de vuelo había caído en el olvido y la guerra que había dado lugar a su desarrollo hacía tiempo que había terminado, y un comité de inspectores de la Oficina de Investigación Naval (ONR) se iba desilusionando poco a poco del proyecto debido a un presupuesto cada vez mayor y a unas necesidades cada vez mayores. -empujar la fecha de finalización. En 1950, la ONR recortó drásticamente el presupuesto de Forrester para el año siguiente, con la intención de cerrar el proyecto por completo después de eso.

Para George Valley, sin embargo, Whirlwind fue una revelación. La computadora Whirlwind real todavía estaba lejos de funcionar. Sin embargo, después de esto, se suponía que aparecería una computadora, que no era solo una mente sin cuerpo. Es una computadora con órganos sensoriales y efectores. Organismo. Forrester ya estaba considerando planes para expandir el proyecto al sistema de centro de control y comando militar más importante del país. A los expertos en informática de la ONR, que creían que los ordenadores sólo servían para resolver problemas matemáticos, este enfoque les parecía grandioso y absurdo. Sin embargo, esta era exactamente la idea que Valli estaba buscando y apareció justo a tiempo para salvar a Whirlwind del olvido.

A pesar de (o quizás debido a) sus grandes ambiciones, el informe de Valli convenció a la Fuerza Aérea, y lanzaron un nuevo y masivo programa de investigación y desarrollo para comprender primero cómo crear un sistema de defensa aérea basado en computadoras digitales y luego construirlo. La Fuerza Aérea comenzó a colaborar con el MIT para realizar investigaciones básicas, una elección natural dada la experiencia de la institución en Whirlwind y RLE, así como una historia de colaboraciones exitosas en defensa aérea que se remontan a Rad Lab y la Segunda Guerra Mundial. Llamaron a la nueva iniciativa "Proyecto Lincoln" y construyeron un nuevo Laboratorio de Investigación Lincoln en Hanscom Field, 25 km al noroeste de Cambridge.

La Fuerza Aérea nombra proyecto de defensa aérea computarizada SAGE - un acrónimo típico y extraño de un proyecto militar que significa "entorno terrestre semiautomático". Se suponía que Whirlwind sería una computadora de prueba para demostrar la viabilidad del concepto antes de que se llevara a cabo la producción a gran escala del hardware y su implementación; esta responsabilidad fue asignada a IBM. La versión funcional de la computadora Whirlwind, que se iba a fabricar en IBM, recibió el nombre mucho menos memorable AN/FSQ-7 ("Equipo fijo de propósito especial del Ejército y la Marina", lo que hace que SAGE parezca bastante preciso en comparación).

Cuando la Fuerza Aérea elaboró ​​los planes completos para el sistema SAGE en 1954, éste constaba de varias instalaciones de radar, bases aéreas y armas de defensa aérea, todo ello controlado desde veintitrés centros de control y enormes búnkeres diseñados para resistir los bombardeos. Para llenar estos centros, IBM necesitaría suministrar cuarenta y seis computadoras, en lugar de las veintitrés que habrían costado a los militares muchos miles de millones de dólares. Esto se debe a que la empresa todavía utilizaba tubos de vacío en los circuitos lógicos y se quemaban como bombillas incandescentes. Cualquiera de las decenas de miles de lámparas de una computadora en funcionamiento podría fallar en cualquier momento. Evidentemente, sería inaceptable dejar desprotegido todo un sector del espacio aéreo del país mientras los técnicos realizaban las reparaciones, por lo que había que tener a mano un avión de repuesto.

Historia de Internet: descubriendo la interactividad
El centro de control SAGE en la Base de la Fuerza Aérea de Grand Forks en Dakota del Norte, donde se ubicaron dos computadoras AN/FSQ-7.

Cada centro de control tenía docenas de operadores sentados frente a pantallas de rayos catódicos, cada uno monitoreando una sección del espacio aéreo.

Historia de Internet: descubriendo la interactividad

La computadora rastreó cualquier posible amenaza aérea y la dibujó como rastros en la pantalla. El operador podría usar el arma ligera para mostrar información adicional sobre el rastro y emitir comandos al sistema de defensa, y la computadora los convertiría en un mensaje impreso para una batería de misiles disponible o una base de la Fuerza Aérea.

Historia de Internet: descubriendo la interactividad

virus de interactividad

Dada la naturaleza del sistema SAGE (interacción directa en tiempo real entre operadores humanos y una computadora CRT digital a través de pistolas luminosas y una consola), no sorprende que el Laboratorio Lincoln haya formado la primera cohorte de defensores de la interacción interactiva con computadoras. Toda la cultura informática del laboratorio existía en una burbuja aislada, aislada de las normas de procesamiento por lotes que se estaban desarrollando en el mundo comercial. Los investigadores utilizaron Whirlwind y sus descendientes para reservar períodos de tiempo durante los cuales tenían acceso exclusivo a la computadora. Están acostumbrados a utilizar las manos, los ojos y los oídos para interactuar directamente a través de interruptores, teclados, pantallas muy iluminadas e incluso parlantes, sin intermediarios de papel.

Esta extraña y pequeña subcultura se extendió al mundo exterior como un virus, a través del contacto físico directo. Y si lo consideramos un virus, entonces el paciente cero debería llamarse un joven llamado Wesley Clark. Clark dejó la escuela de posgrado en física en Berkeley en 1949 para convertirse en técnico en una planta de armas nucleares. Sin embargo, no le gustó el trabajo. Después de leer varios artículos de revistas de informática, empezó a buscar una oportunidad para profundizar en lo que parecía un campo nuevo y apasionante lleno de potencial sin explotar. Se enteró de la contratación de especialistas en informática en el Laboratorio Lincoln a través de un anuncio, y en 1951 se mudó a la costa este para trabajar con Forrester, quien ya se había convertido en el jefe del laboratorio de informática digital.

Historia de Internet: descubriendo la interactividad
Wesley Clark demostrando su computadora biomédica LINC, 1962

Clark se unió al Grupo de Desarrollo Avanzado, una subsección del laboratorio que personificaba el estado relajado de la colaboración entre el ejército y la universidad de la época. Aunque el departamento era técnicamente parte del universo del Laboratorio Lincoln, el equipo existía en una burbuja dentro de otra burbuja, aislado de las necesidades diarias del proyecto SAGE y libre para dedicarse a cualquier campo informático que pudiera estar vinculado de alguna manera a defensa aérea. Su principal objetivo a principios de la década de 1950 era crear la computadora de prueba de memoria (MTC), diseñada para demostrar la viabilidad de un método nuevo, altamente eficiente y confiable para almacenar información digital. memoria de núcleo magnético, que reemplazaría la delicada memoria basada en CRT utilizada en Whirlwind.

Como MTC no tenía más usuarios que sus creadores, Clark tenía acceso total a la computadora durante muchas horas todos los días. Clark se interesó en la entonces de moda mezcla cibernética de física, fisiología y teoría de la información gracias a su colega Belmont Farley, que se comunicaba con un grupo de biofísicos del RLE en Cambridge. Clark y Farley pasaron largas horas en MTC creando modelos de software de redes neuronales para estudiar las propiedades de los sistemas autoorganizados. A partir de estos experimentos, Clark comenzó a derivar ciertos principios axiomáticos de la informática, de los que nunca se desvió. En particular, llegó a creer que "la comodidad del usuario es el factor de diseño más importante".

En 1955, Clark se asoció con Ken Olsen, uno de los desarrolladores del MTC, para formular un plan para crear una nueva computadora que podría allanar el camino para la próxima generación de sistemas de control militar. Utilizando una memoria de núcleo magnético muy grande para el almacenamiento y transistores para la lógica, podría hacerse mucho más compacto, confiable y potente que el Whirlwind. Inicialmente, propusieron un diseño al que llamaron TX-1 (computadora transistorizada y experimental, “computadora de transistores experimental”, mucho más claro que AN/FSQ-7). Sin embargo, la dirección del Laboratorio Lincoln rechazó el proyecto por considerarlo demasiado caro y arriesgado. Los transistores habían estado en el mercado sólo unos años antes y muy pocas computadoras se habían construido utilizando lógica de transistores. Entonces Clark y Olsen regresaron con una versión más pequeña del automóvil, el TX-0, que fue aprobada.

Historia de Internet: descubriendo la interactividad
TX-0

La funcionalidad de la computadora TX-0 como herramienta para administrar bases militares, aunque fue el pretexto para su creación, fue mucho menos interesante para Clark que la oportunidad de promover sus ideas sobre el diseño de computadoras. En su opinión, la interactividad informática había dejado de ser una realidad en los Laboratorios Lincoln y se había convertido en la nueva norma: la forma adecuada de construir y utilizar computadoras, especialmente para trabajos científicos. Dio acceso al TX-0 a biofísicos del MIT, aunque su trabajo no tenía nada que ver con PVO, y les permitió utilizar la pantalla visual de la máquina para analizar electroencefalogramas de estudios del sueño. Y nadie se opuso a esto.

El TX-0 tuvo tanto éxito que en 1956 los Laboratorios Lincoln aprobaron una computadora de transistores a gran escala, la TX-2, con una enorme memoria de dos millones de bits. El proyecto tardará dos años en completarse. Después de esto, el virus escapará fuera del laboratorio. Una vez que se complete TX-2, los laboratorios ya no necesitarán utilizar el prototipo inicial, por lo que acordaron prestar TX-0 a Cambridge a RLE. Fue instalado en el segundo piso, encima del centro de computación de procesamiento por lotes. E inmediatamente infectó a las computadoras y a los profesores del campus del MIT, quienes comenzaron a luchar por períodos de tiempo en los que pudieran obtener el control total de la computadora.

Ya estaba claro que era casi imposible escribir correctamente un programa de ordenador la primera vez. Además, los investigadores que estudiaban una nueva tarea a menudo no tenían idea al principio de cuál debería ser el comportamiento correcto. Y para obtener resultados del centro de cómputo había que esperar horas, o incluso hasta el día siguiente. Para docenas de nuevos programadores en el campus, poder subir la escalera, descubrir un error y corregirlo de inmediato, probar un nuevo enfoque y ver inmediatamente resultados mejorados fue una revelación. Algunos usaron su tiempo en TX-0 para trabajar en proyectos científicos o de ingeniería serios, pero el placer de la interactividad también atrajo a almas más juguetonas. Un estudiante escribió un programa de edición de textos al que llamó "una máquina de escribir cara". Otro hizo lo mismo y escribió una "calculadora de escritorio costosa" que usó para hacer su tarea de cálculo.

Historia de Internet: descubriendo la interactividad
Ivan Sutherland demuestra su programa Sketchpad en el TX-2

Mientras tanto, Ken Olsen y otro ingeniero de TX-0, Harlan Anderson, frustrados por el lento avance del proyecto TX-2, decidieron comercializar una computadora interactiva a pequeña escala para científicos e ingenieros. Dejaron el laboratorio para fundar Digital Equipment Corporation y establecieron una oficina en una antigua fábrica textil en el río Assabet, diez millas al oeste de Lincoln. Su primera computadora, la PDP-1 (lanzada en 1961), era esencialmente un clon del TX-0.

TX-0 y Digital Equipment Corporation comenzaron a difundir la buena noticia de una nueva forma de utilizar las computadoras más allá del Laboratorio Lincoln. Y, sin embargo, hasta ahora, el virus de la interactividad se ha localizado geográficamente, en el este de Massachusetts. Pero esto pronto cambiaría.

Qué más leer:

  • Lars Heide, Los sistemas de tarjetas perforadas y la primera explosión de información, 1880-1945 (2009)
  • Joseph noviembre, Computación biomédica (2012)
  • Kent C. Redmond y Thomas M. Smith, Del torbellino a MITRE (2000)
  • M. Mitchell Waldrop, La máquina de los sueños (2001)

Fuente: habr.com

Añadir un comentario