História da Internet: descobrindo a interatividade

História da Internet: descobrindo a interatividade

Outros artigos da série:

Os primeiros computadores eletrônicos foram dispositivos exclusivos criados para fins de pesquisa. Mas assim que ficaram disponíveis, as organizações rapidamente os incorporaram à sua cultura de dados existente – uma cultura em que todos os dados e processos eram representados em pilhas. cartões perfurados.

Herman Hollerith desenvolveu o primeiro tabulador capaz de ler e contar dados de furos em cartões de papel para o Censo dos EUA no final do século XIX. Em meados do século seguinte, uma coleção muito heterogénea de descendentes desta máquina penetrou em grandes empresas e organizações governamentais em todo o mundo. A linguagem comum deles era um cartão composto por várias colunas, onde cada coluna (geralmente) representava um número, que poderia ser perfurado em uma das dez posições que representavam os números de 0 a 9.

Não foram necessários dispositivos complexos para inserir os dados de entrada nos cartões e o processo pôde ser distribuído entre vários escritórios da organização que gerou os dados. Quando os dados precisassem ser processados ​​– por exemplo, para calcular a receita de um relatório trimestral de vendas – os cartões correspondentes poderiam ser trazidos para o data center e colocados em fila para processamento por máquinas adequadas que produzissem um conjunto de dados de saída em cartões ou os imprimissem em papel. . Em torno das máquinas de processamento central – tabuladores e calculadoras – havia dispositivos periféricos agrupados para perfurar, copiar, classificar e interpretar cartões.

História da Internet: descobrindo a interatividade
IBM 285 Tabulator, uma máquina de cartão perfurado popular nas décadas de 1930 e 40.

Na segunda metade da década de 1950, quase todos os computadores funcionavam usando esse esquema de “processamento em lote”. Da perspectiva do usuário final de vendas típico, pouca coisa mudou. Você trouxe uma pilha de cartões perfurados para processamento e recebeu uma impressão ou outra pilha de cartões perfurados como resultado do trabalho. E, no processo, os cartões passaram de buracos no papel a sinais eletrônicos e vice-versa, mas você não se importou muito com isso. A IBM dominou o campo das máquinas de processamento de cartões perfurados e continuou sendo uma das forças dominantes no campo dos computadores eletrônicos, em grande parte devido aos seus relacionamentos estabelecidos e à ampla gama de equipamentos periféricos. Eles simplesmente substituíram os tabuladores e calculadoras mecânicas dos clientes por máquinas de processamento de dados mais rápidas e flexíveis.

História da Internet: descobrindo a interatividade
Kit de processamento de cartões perfurados IBM 704. Em primeiro plano, uma garota está trabalhando com um leitor.

Este sistema de processamento de cartões perfurados funcionou perfeitamente durante décadas e não diminuiu – muito pelo contrário. E, no entanto, no final da década de 1950, uma subcultura marginal de investigadores da computação começou a argumentar que todo este fluxo de trabalho precisava de mudar - argumentavam que o computador era melhor utilizado de forma interativa. Em vez de sair com uma tarefa e depois voltar para obter os resultados, o usuário deve se comunicar diretamente com a máquina e usar seus recursos sob demanda. Em O Capital, Marx descreveu como as máquinas industriais – que as pessoas simplesmente dirigem – substituíram as ferramentas de trabalho que as pessoas controlavam diretamente. No entanto, os computadores começaram a existir na forma de máquinas. Só mais tarde alguns de seus usuários os transformaram em ferramentas.

E esta transformação não ocorreu em centros de dados como o US Census Bureau, a companhia de seguros MetLife ou a United States Steel Corporation (todos os quais estiveram entre os primeiros a comprar o UNIVAC, um dos primeiros computadores disponíveis comercialmente). É improvável que uma organização que considere a folha de pagamento semanal a forma mais eficiente e confiável queira que alguém interrompa esse processamento brincando com o computador. O valor de poder sentar-se diante de um console e simplesmente experimentar algo em um computador era mais claro para cientistas e engenheiros, que queriam estudar um problema, abordá-lo de diferentes ângulos até que seu ponto fraco fosse descoberto e alternar rapidamente entre eles. pensando e fazendo.

Portanto, tais ideias surgiram entre os pesquisadores. No entanto, o dinheiro para pagar esse desperdício de uso do computador não veio dos chefes de departamento. Uma nova subcultura (pode-se até dizer um culto) de trabalho interativo com computadores surgiu de uma parceria produtiva entre as universidades militares e de elite nos Estados Unidos. Esta cooperação mutuamente benéfica começou durante a Segunda Guerra Mundial. As armas atômicas, o radar e outras armas mágicas ensinaram aos líderes militares que as atividades aparentemente incompreensíveis dos cientistas poderiam ser de incrível importância para os militares. Esta relação confortável durou cerca de uma geração e depois desmoronou-se nas vicissitudes políticas de outra guerra, a do Vietname. Mas nesta altura, os cientistas americanos tinham acesso a enormes somas de dinheiro, quase não eram perturbados e podiam fazer quase tudo que pudesse ser associado, mesmo remotamente, à defesa nacional.

A justificativa para computadores interativos começou com uma bomba.

Redemoinho e SAGE

Em 29 de agosto de 1949, uma equipe de pesquisa soviética conduziu com sucesso primeiro teste de armas nucleares em Local de teste de Semipalatinsk. Três dias depois, um avião de reconhecimento dos EUA sobrevoando o Pacífico Norte descobriu vestígios de material radioativo na atmosfera que sobraram do teste. A URSS tinha uma bomba e seus rivais americanos descobriram isso. As tensões entre as duas superpotências persistiram durante mais de um ano, desde que a URSS cortou as rotas terrestres para as áreas de Berlim controladas pelo Ocidente, em resposta aos planos para restaurar a Alemanha à sua antiga grandeza económica.

O bloqueio terminou na primavera de 1949, frustrado por uma operação massiva lançada pelo Ocidente para apoiar a cidade desde o ar. A tensão diminuiu um pouco. Contudo, os generais americanos não podiam ignorar a existência de uma força potencialmente hostil com acesso a armas nucleares, especialmente tendo em conta o tamanho e o alcance cada vez maiores dos bombardeiros estratégicos. Os Estados Unidos tinham uma cadeia de estações de radar de detecção de aeronaves estabelecidas ao longo das costas do Atlântico e do Pacífico durante a Segunda Guerra Mundial. No entanto, utilizavam tecnologia ultrapassada, não cobriam as abordagens ao norte através do Canadá e não estavam ligados por um sistema central para coordenar a defesa aérea.

Para remediar a situação, a Força Aérea (um ramo militar independente dos EUA desde 1947) convocou o Comité de Engenharia de Defesa Aérea (ADSEC). É lembrado na história como o "Comitê Walley", em homenagem ao seu presidente, George Whalley. Ele era um físico do MIT e veterano do grupo de pesquisa de radar militar Rad Lab, que se tornou o Laboratório de Pesquisa de Eletrônica (RLE) após a guerra. A comissão estudou o problema durante um ano, e o relatório final de Valli foi divulgado em outubro de 1950.

Seria de esperar que tal relatório fosse uma chata confusão de burocracia, terminando com uma proposta cautelosa e conservadora. Em vez disso, o relatório revelou-se uma peça interessante de argumentação criativa e continha um plano de acção radical e arriscado. Este é o mérito óbvio de outro professor do MIT, Norberto Wiener, que argumentou que o estudo dos seres vivos e das máquinas pode ser combinado em uma única disciplina cibernética. Valli e seus coautores começaram com a suposição de que o sistema de defesa aérea é um organismo vivo, não metaforicamente, mas na realidade. As estações de radar servem como órgãos sensoriais, os interceptadores e os mísseis são os efetores através dos quais interage com o mundo. Eles trabalham sob o controle de um diretor, que utiliza informações dos sentidos para tomar decisões sobre as ações necessárias. Eles argumentaram ainda que um diretor totalmente humano não seria capaz de parar centenas de aeronaves que se aproximavam em milhões de quilômetros quadrados em minutos, portanto, tantas funções do diretor quanto possível deveriam ser automatizadas.

A mais incomum de suas descobertas é que a melhor maneira de automatizar o diretor seria através de computadores eletrônicos digitais que podem assumir parte da tomada de decisão humana: analisar ameaças recebidas, direcionar armas contra essas ameaças (calcular cursos de interceptação e transmiti-los para combatentes) e, talvez, até mesmo desenvolver uma estratégia para formas óptimas de resposta. Não era nada óbvio então que os computadores fossem adequados para tal propósito. Naquela época, havia exatamente três computadores eletrônicos em funcionamento em todos os Estados Unidos, e nenhum deles chegou perto de atender aos requisitos de confiabilidade de um sistema militar do qual dependem milhões de vidas. Eles eram simplesmente trituradores de números muito rápidos e programáveis.

Porém, Valli tinha motivos para acreditar na possibilidade de criar um computador digital em tempo real, pois conhecia o projeto redemoinho de vento ["Vórtice"]. Tudo começou durante a guerra, no laboratório de servomecanismo do MIT, sob a direção de um jovem estudante de graduação, Jay Forrester. Seu objetivo inicial era criar um simulador de vôo de uso geral que pudesse ser reconfigurado para suportar novos modelos de aeronaves sem a necessidade de reconstruí-los do zero a cada vez. Um colega convenceu Forrester de que seu simulador deveria usar eletrônica digital para processar parâmetros de entrada do piloto e produzir estados de saída para os instrumentos. Gradualmente, a tentativa de criar um computador digital de alta velocidade superou e eclipsou o objetivo original. O simulador de voo foi esquecido e a guerra que deu origem ao seu desenvolvimento já terminou há muito tempo, e uma comissão de inspectores do Gabinete de Investigação Naval (ONR) foi gradualmente ficando desiludida com o projecto devido a um orçamento cada vez maior e a uma necessidade cada vez maior. - empurrando a data de conclusão. Em 1950, a ONR cortou criticamente o orçamento da Forrester para o ano seguinte, pretendendo encerrar completamente o projeto depois disso.

Para George Valley, entretanto, Whirlwind foi uma revelação. O computador Whirlwind real ainda estava longe de funcionar. Porém, depois disso, deveria aparecer um computador, que não era apenas uma mente sem corpo. É um computador com órgãos sensoriais e efetores. Organismo. A Forrester já estava considerando planos para expandir o projeto para o principal sistema de comando e centro de controle militar do país. Para os especialistas em informática da ONR, que acreditavam que os computadores só eram adequados para resolver problemas matemáticos, esta abordagem parecia grandiosa e absurda. No entanto, essa era exatamente a ideia que Valli procurava e ele apareceu bem a tempo de salvar Whirlwind do esquecimento.

Apesar (ou talvez por causa) das suas grandes ambições, o relatório de Valli convenceu a Força Aérea, e eles lançaram um novo e massivo programa de investigação e desenvolvimento para primeiro compreender como criar um sistema de defesa aérea baseado em computadores digitais, e depois realmente construí-lo. A Força Aérea começou a colaborar com o MIT para conduzir pesquisas básicas – uma escolha natural dada a experiência da instituição em Whirlwind e RLE, bem como um histórico de colaborações bem-sucedidas em defesa aérea que remonta ao Rad Lab e à Segunda Guerra Mundial. Eles chamaram a nova iniciativa de "Projeto Lincoln" e construíram um novo Laboratório de Pesquisa Lincoln em Hanscom Field, 25 km a noroeste de Cambridge.

Força Aérea nomeia projeto computadorizado de defesa aérea SAGE - um típico e estranho acrônimo de projeto militar que significa "ambiente terrestre semiautomático". O Whirlwind deveria ser um computador de teste para provar a viabilidade do conceito antes da produção em larga escala do hardware e sua implantação - essa responsabilidade foi atribuída à IBM. A versão funcional do computador Whirlwind, que seria fabricado na IBM, recebeu o nome muito menos memorável AN/FSQ-7 (“Equipamento Fixo de Propósito Especial do Exército-Marinha” – o que faz com que o SAGE pareça bastante preciso em comparação).

Na altura em que a Força Aérea elaborou planos completos para o sistema SAGE em 1954, este consistia em várias instalações de radar, bases aéreas, armas de defesa aérea - todas controladas a partir de vinte e três centros de controlo, enormes bunkers concebidos para resistir a bombardeamentos. Para preencher estes centros, a IBM precisaria de fornecer quarenta e seis computadores, em vez dos vinte e três que teriam custado aos militares muitos milhares de milhões de dólares. Isso ocorre porque a empresa ainda usava tubos de vácuo em circuitos lógicos e eles queimavam como lâmpadas incandescentes. Qualquer uma das dezenas de milhares de lâmpadas em um computador em funcionamento pode falhar a qualquer momento. Seria obviamente inaceitável deixar desprotegido um sector inteiro do espaço aéreo do país enquanto os técnicos realizavam reparações, pelo que era necessário manter uma aeronave sobressalente à mão.

História da Internet: descobrindo a interatividade
O centro de controle SAGE na Base Aérea de Grand Forks, em Dakota do Norte, onde dois computadores AN/FSQ-7 estavam localizados

Cada centro de controle tinha dezenas de operadores sentados em frente a telas de raios catódicos, cada um monitorando uma seção do espaço aéreo.

História da Internet: descobrindo a interatividade

O computador rastreou quaisquer ameaças aéreas em potencial e as desenhou como trilhas na tela. O operador poderia usar a arma leve para exibir informações adicionais sobre a trilha e emitir comandos para o sistema de defesa, e o computador os transformaria em uma mensagem impressa para uma bateria de mísseis disponível ou base da Força Aérea.

História da Internet: descobrindo a interatividade

Vírus de interatividade

Dada a natureza do sistema SAGE – interação direta e em tempo real entre operadores humanos e um computador CRT digital por meio de armas leves e console – não é surpreendente que o Laboratório Lincoln tenha alimentado o primeiro grupo de campeões da interação interativa com computadores. Toda a cultura computacional do laboratório existia em uma bolha isolada, separada das normas de processamento em lote que se desenvolviam no mundo comercial. Os pesquisadores usaram o Whirlwind e seus descendentes para reservar períodos de tempo durante os quais teriam acesso exclusivo ao computador. Eles estão acostumados a usar as mãos, os olhos e os ouvidos para interagir diretamente por meio de interruptores, teclados, telas bem iluminadas e até mesmo alto-falantes, sem intermediários de papel.

Esta estranha e pequena subcultura se espalhou para o mundo exterior como um vírus, através do contato físico direto. E se considerarmos que é um vírus, então o paciente zero deveria ser chamado de um jovem chamado Wesley Clark. Clark deixou a pós-graduação em física em Berkeley em 1949 para se tornar técnico em uma usina de armas nucleares. Porém, ele não gostou do trabalho. Depois de ler vários artigos de revistas de informática, ele começou a procurar uma oportunidade de se aprofundar no que parecia ser um campo novo e excitante, cheio de potencial inexplorado. Ele soube do recrutamento de especialistas em informática no Laboratório Lincoln por meio de um anúncio e, em 1951, mudou-se para a Costa Leste para trabalhar com Forrester, que já havia se tornado chefe do laboratório de computação digital.

História da Internet: descobrindo a interatividade
Wesley Clark demonstrando seu computador biomédico LINC, 1962

Clark juntou-se ao Grupo de Desenvolvimento Avançado, uma subseção do laboratório que resumia o estado relaxado de colaboração militar-universidade da época. Embora o departamento fosse tecnicamente parte do universo do Laboratório Lincoln, a equipe existia em uma bolha dentro de outra bolha, isolada das necessidades diárias do projeto SAGE e livre para se dedicar a qualquer área de informática que pudesse estar ligada de alguma forma a defesa Aérea. Seu principal objetivo no início da década de 1950 era criar o Memory Test Computer (MTC), projetado para demonstrar a viabilidade de um método novo, altamente eficiente e confiável de armazenamento de informações digitais. memória de núcleo magnético, que substituiria a meticulosa memória baseada em CRT usada no Whirlwind.

Como o MTC não tinha outros usuários além de seus criadores, Clark tinha acesso total ao computador durante muitas horas todos os dias. Clark ficou interessado na então elegante mistura cibernética de física, fisiologia e teoria da informação graças a seu colega Belmont Farley, que estava se comunicando com um grupo de biofísicos da RLE em Cambridge. Clark e Farley passaram longas horas no MTC, criando modelos de software de redes neurais para estudar as propriedades de sistemas auto-organizados. A partir desses experimentos, Clark começou a derivar certos princípios axiomáticos da computação, dos quais nunca se desviou. Em particular, ele passou a acreditar que “a conveniência do usuário é o fator de design mais importante”.

Em 1955, Clark se uniu a Ken Olsen, um dos desenvolvedores do MTC, para formular um plano para criar um novo computador que pudesse abrir caminho para a próxima geração de sistemas de controle militar. Usando uma memória de núcleo magnético muito grande para armazenamento e transistores para lógica, ele poderia ser muito mais compacto, confiável e poderoso do que o Whirlwind. Inicialmente, eles propuseram um projeto que chamaram de TX-1 (Computador transistorizado e experimental, “computador transistorizado experimental” - muito mais claro que AN/FSQ-7). No entanto, a administração do Laboratório Lincoln rejeitou o projeto por considerá-lo muito caro e arriscado. Os transistores só estavam no mercado alguns anos antes e muito poucos computadores foram construídos usando lógica de transistor. Então Clark e Olsen voltaram com uma versão menor do carro, o TX-0, que foi homologada.

História da Internet: descobrindo a interatividade
TX-0

A funcionalidade do computador TX-0 como ferramenta de gerenciamento de bases militares, embora fosse o pretexto para sua criação, foi muito menos interessante para Clark do que a oportunidade de promover suas ideias sobre design de computadores. Na sua opinião, a interactividade informática deixou de ser um facto da vida nos Laboratórios Lincoln e tornou-se a nova norma – a forma adequada de construir e utilizar computadores, especialmente para trabalhos científicos. Ele deu acesso ao TX-0 aos biofísicos do MIT, embora seu trabalho não tivesse nada a ver com o PVO, e permitiu-lhes usar o display visual da máquina para analisar eletroencefalogramas de estudos do sono. E ninguém se opôs a isso.

O TX-0 teve tanto sucesso que, em 1956, os Laboratórios Lincoln aprovaram um computador transistorizado em grande escala, o TX-2, com uma enorme memória de dois milhões de bits. O projeto levará dois anos para ser concluído. Depois disso, o vírus escapará para fora do laboratório. Assim que o TX-2 for concluído, os laboratórios não precisarão mais usar o protótipo inicial, então eles concordaram em emprestar o TX-0 a Cambridge para a RLE. Foi instalado no segundo andar, acima do centro de informática de processamento em lote. E infectou imediatamente computadores e professores do campus do MIT, que começaram a lutar por períodos de tempo em que pudessem obter o controle total do computador.

Já estava claro que era quase impossível escrever um programa de computador corretamente na primeira vez. Além disso, os pesquisadores que estudam uma nova tarefa muitas vezes não tinham ideia de qual deveria ser o comportamento correto. E para obter os resultados do centro de informática era preciso esperar horas, ou até o dia seguinte. Para dezenas de novos programadores no campus, ser capaz de subir a escada, descobrir um bug e corrigi-lo imediatamente, tentar uma nova abordagem e ver imediatamente melhores resultados foi uma revelação. Alguns usaram seu tempo no TX-0 para trabalhar em projetos científicos ou de engenharia sérios, mas a alegria da interatividade também atraiu almas mais divertidas. Um aluno escreveu um programa de edição de texto que chamou de “uma máquina de escrever cara”. Outro seguiu o exemplo e escreveu uma “calculadora de mesa cara” que usava para fazer seu dever de casa de cálculo.

História da Internet: descobrindo a interatividade
Ivan Sutherland demonstra seu programa Sketchpad no TX-2

Enquanto isso, Ken Olsen e outro engenheiro do TX-0, Harlan Anderson, frustrados com o lento progresso do projeto TX-2, decidiram comercializar um computador interativo de pequena escala para cientistas e engenheiros. Eles deixaram o laboratório para fundar a Digital Equipment Corporation, estabelecendo um escritório em uma antiga fábrica têxtil no rio Assabet, dezesseis quilômetros a oeste de Lincoln. Seu primeiro computador, o PDP-1 (lançado em 1961), era essencialmente um clone do TX-0.

A TX-0 e a Digital Equipment Corporation começaram a espalhar as boas novas de uma nova maneira de usar computadores além do Laboratório Lincoln. E, no entanto, até agora, o vírus da interactividade foi localizado geograficamente, no leste de Massachusetts. Mas isso logo mudaria.

O que mais ler:

  • Lars Heide, Sistemas de cartões perfurados e a explosão inicial da informação, 1880-1945 (2009)
  • Joseph Novembro, Computação Biomédica (2012)
  • Kent C. Redmond e Thomas M. Smith, Do redemoinho ao MITRE (2000)
  • M. Mitchell Waldrop, A Máquina dos Sonhos (2001)

Fonte: habr.com

Adicionar um comentário