
Outros artigos da série:- Histórico de retransmissão
- A história dos computadores eletrônicos
- História do transistor
- História da Internet
Os primeiros computadores eletrônicos eram dispositivos exclusivos projetados para fins de pesquisa. Porém, depois que chegaram ao mercado, as organizações os incorporaram rapidamente a uma cultura de processamento de dados existente - na qual todos os dados e processos foram apresentados como pilhas de
cartões perfurados .
Herman Hollerith desenvolveu o primeiro tabulador, capaz de ler e contar dados com base em buracos em cartões de papel, para o censo dos Estados Unidos no final do século XIX. Em meados do século seguinte, uma variedade variada de descendentes dessa máquina penetrou em grandes empresas e organizações governamentais em todo o mundo. Seu idioma comum era um cartão que consistia em várias colunas, onde cada coluna (geralmente) representava um dígito que poderia ser perfurado em uma das dez posições denotando números de 0 a 9.
Para inserir dados de entrada nos cartões, não eram necessários dispositivos complexos e esse processo podia ser distribuído por vários escritórios da organização que gerava esses dados. Quando os dados precisavam ser processados - por exemplo, para calcular a receita do relatório trimestral do departamento de vendas - os cartões relevantes podiam ser levados ao datacenter e enfileirados para processamento por máquinas adequadas que emitiam um conjunto de dados de saída nos cartões ou os imprimiam em papel. Ao redor das máquinas de processamento central - tabuladores e calculadoras - dispositivos periféricos reunidos para perfurar, copiar, classificar e interpretar cartões.
IBM 285 Tab, um dispositivo popular de cartões perfurados nos anos 30 e 40.Na segunda metade da década de 1950, quase todos os computadores estavam trabalhando em um esquema de "processamento em lote". Do ponto de vista de um usuário final típico do departamento de vendas, pouco mudou. Você trouxe uma pilha de cartões perfurados para processamento e recebeu uma impressão ou outra pilha de cartões perfurados como resultado do seu trabalho. E, no processo, os cartões passaram de buracos no papel para sinais eletrônicos e vice-versa, mas você não se importou muito. A IBM dominou o setor de cartões perfurados e permaneceu uma das forças dominantes no campo dos computadores eletrônicos, em grande parte devido às comunicações bem estabelecidas e a uma ampla gama de equipamentos periféricos. Eles simplesmente substituíram as guias e calculadoras mecânicas do cliente por máquinas de processamento de dados mais rápidas e flexíveis.
Definido para o processamento de cartões perfurados IBM 704. Em primeiro plano, uma garota trabalha com um leitor.Esse sistema de processamento de cartões perfurados funcionou maravilhosamente por décadas e não declinou - muito pelo contrário. E, no entanto, no final da década de 1950, a subcultura marginal dos pesquisadores de computadores começou a argumentar que todo esse fluxo de trabalho precisava ser alterado - eles afirmaram que os computadores eram melhor usados de maneira interativa. Em vez de deixar uma tarefa para ele e buscar resultados, o usuário deve se comunicar diretamente com a máquina e usar seus recursos mediante solicitação. Em Capital, Marx descreveu como as máquinas industriais - que as pessoas iniciam - substituíram as ferramentas que as pessoas controlavam diretamente. No entanto, os computadores começaram a existir na forma de máquinas. E somente mais tarde, alguns de seus usuários os converteram em ferramentas.
E essa alteração não ocorreu em data centers - como o United States Census Bureau, a companhia de seguros MetLife ou a United States Steel Corporation (todas essas empresas foram as primeiras a comprar o UNIVAC, um dos primeiros computadores comerciais disponíveis). É improvável que uma organização na qual um salário semanal seja considerado a maneira mais eficaz e confiável deseje que alguém viole esse processamento enquanto estiver jogando com um computador. O valor de poder sentar no console e simplesmente experimentar um ou outro em um computador era mais claro para cientistas e engenheiros que queriam estudar o problema, alcançá-lo de diferentes ângulos até que seu ponto fraco fosse descoberto e alternar rapidamente entre pensamentos e ações.
Portanto, essas idéias surgiram dos pesquisadores. No entanto, o dinheiro para pagar por um uso tão desperdiçado do computador não veio dos chefes de seus departamentos. Uma nova subcultura (pode-se até dizer um culto) de trabalho interativo com computadores nasceu de uma parceria produtiva entre as universidades militares e de elite dos EUA. Essa cooperação mutuamente benéfica começou durante a Segunda Guerra Mundial. Armas nucleares, radares e outras armas mágicas ensinaram à liderança militar que as atividades aparentemente obscuras dos cientistas podem ser de incrível importância para os militares. Essa interação conveniente existiu por cerca de uma geração e depois se desfez nos levantes políticos de outra guerra, no Vietnã. Mas naquela época, os cientistas americanos tinham acesso a enormes somas de dinheiro, quase ninguém os tocava, e eles podiam fazer quase tudo o que pudesse estar remotamente conectado à defesa nacional.
A justificativa dos computadores interativos começou com uma bomba.
Turbilhão e SAGE
Em 29 de agosto de 1949, a equipe de pesquisa soviética conduziu com sucesso o
primeiro teste de armas nucleares no
local de teste de Semipalatinsk . Três dias depois, uma aeronave de reconhecimento dos EUA durante um voo sobre a parte norte do Oceano Pacífico descobriu vestígios de material radioativo na atmosfera que restava desse teste. A URSS pegou uma bomba e seus rivais americanos souberam disso. A situação tensa entre as duas superpotências persiste há mais de um ano desde que a URSS cortou rotas terrestres para as áreas controladas pelo oeste de Berlim em resposta aos planos de restaurar a Alemanha à sua antiga grandeza econômica.
O bloqueio terminou na primavera de 1949, em uma situação desesperadora devido à operação maciça realizada pelo Ocidente para apoiar a cidade a partir do ar. A tensão diminuiu um pouco. No entanto, os generais americanos não podiam ignorar a existência de uma força potencialmente hostil que tinha acesso a armas nucleares, especialmente devido ao tamanho e alcance cada vez maiores de bombardeiros estratégicos. Os Estados Unidos tinham uma cadeia de estações de radar de detecção de aeronaves criadas nas margens do Atlântico e do Pacífico durante a Segunda Guerra Mundial. No entanto, eles usavam tecnologia desatualizada, não cobriam as abordagens do norte em todo o Canadá e não eram conectados por um sistema central de coordenação de defesa aérea.
Para corrigir a situação, a Força Aérea (uma unidade militar independente dos EUA desde 1947) convocou um Comitê de Engenharia de Defesa Aérea (ADSEC). Foi lembrado na história como o "Comitê do Vale", nomeado para o presidente, George Valley. Ele era um físico do MIT, um veterano do grupo de radar de pesquisa militar Rad Lab, depois que a guerra se transformou em um laboratório de pesquisa eletrônica (RLE). O comitê estudou essa questão por um ano e a Valley divulgou seu relatório final em outubro de 1950.
Pode-se supor que esse relatório acabaria sendo uma mistura chata de trabalho administrativo e terminaria com uma proposta cuidadosamente expressa e conservadora. Em vez disso, o relatório acabou sendo um exemplo interessante de argumentação criativa e continha um plano de ação radical e arriscado. Esse é um mérito óbvio de outro professor do MIT,
Norbert Wiener , que argumentou que o estudo de seres e máquinas vivos pode ser combinado em uma única disciplina da
cibernética . Valley e seus co-autores começaram com a suposição de que o sistema de defesa aérea é um organismo vivo, e não metaforicamente, mas na realidade. As estações de radar servem como órgãos sensoriais, interceptores e foguetes são os efetores pelos quais interage com o mundo. Eles trabalham sob o controle de um diretor que usa informações dos sentidos para tomar decisões sobre as ações necessárias. Eles argumentaram ainda que um diretor consistindo apenas de pessoas não seria capaz de parar centenas de aviões que se aproximavam em milhões de quilômetros quadrados em poucos minutos; portanto, tantas funções de diretor quanto possível precisavam ser automatizadas.
A conclusão mais incomum das conclusões é que seria melhor automatizar diretores por meio de computadores eletrônicos digitais, que podem tomar parte de decisões humanas: análise de ameaças recebidas, direcionando armas contra essas ameaças (contando as taxas de interceptação e transferindo-as para combatentes) e talvez até desenvolvendo uma estratégia para formas ótimas de resposta. Então não era óbvio que os computadores fossem adequados para esse fim. Em todos os EUA da época, havia exatamente três computadores eletrônicos funcionando, e nenhum deles correspondia de perto aos requisitos de confiabilidade do sistema militar do qual milhões de vidas dependem. Era apenas um manipulador de números muito rápido e programável.
No entanto, Wally tinha motivos para acreditar na possibilidade de criar um computador digital em tempo real, porque sabia do projeto
Whirlwind . Tudo começou durante a guerra no laboratório servo do MIT, sob a supervisão do jovem estudante de graduação Jay Forrester. Seu objetivo inicial era criar um simulador de vôo de uso geral que pudesse ser reconfigurado para dar suporte a novos modelos de aeronaves sem precisar reconstruir a cada vez do zero. Um colega convenceu a Forrester de que seu simulador deve usar eletrônica digital para processar parâmetros de entrada do piloto e emitir estados de saída para os instrumentos. Gradualmente, a tentativa de criar um computador digital de alta velocidade superou e ofuscou o objetivo original. O simulador de vôo foi esquecido e a guerra que deu origem ao seu desenvolvimento terminou há muito tempo, e o comitê de inspetores do Departamento de Pesquisa Naval (ONR) ficou gradualmente decepcionado com o projeto devido ao orçamento constantemente crescente e à data final constantemente adiada. Em 1950, o ONR cortou criticamente o orçamento da Forrester para o próximo ano, pretendendo cobrir completamente o projeto depois disso.
No entanto, para George Valley Whirlwind foi uma revelação. O verdadeiro computador Whirlwind ainda estava longe de estar operacional. No entanto, depois disso, um computador deve aparecer, o que não é apenas uma mente sem um corpo. Este é um computador com órgãos sensoriais e efetores. Organism. A Forrester já considerou planos de expandir o projeto para o sistema principal do centro de comando e controle militar do país. Para os especialistas em informática da ONR, que consideravam os computadores adequados apenas para resolver problemas matemáticos, essa abordagem parecia grandiosa e absurda. No entanto, era precisamente essa ideia que Valley estava procurando, e ele apareceu bem a tempo de salvar Whirlwind do nada.
Apesar das grandes ambições (e, talvez, graças a elas), o relatório da Valley convenceu o comando da Força Aérea e eles lançaram um extenso novo programa de pesquisa e desenvolvimento para entender primeiro como criar um sistema de defesa aérea baseado em computadores digitais e depois construí-lo. A Força Aérea começou a colaborar com o MIT para realizar pesquisas básicas - era uma escolha natural, dada a presença do Whirlwind Institute e do RLE, além da história de uma cooperação bem-sucedida no campo da defesa aérea, desde os dias do Rad Lab e da Segunda Guerra Mundial. Eles chamaram a nova iniciativa de "Projeto Lincoln" e construíram um novo Laboratório de Pesquisa Lincoln em Hansky Field, 25 km a noroeste de Cambridge.
A Força Aérea chamou o projeto informatizado de defesa aérea
SAGE - uma abreviação estranha e típica para um projeto militar, que significa "ambiente terrestre semi-automático". O Whirlwind se tornaria um computador de teste, comprovando a viabilidade do conceito antes de entrar na produção em larga escala de equipamentos e sua implementação - essa responsabilidade foi atribuída à IBM. A versão de trabalho do computador Whirlwind, que a IBM deveria fazer, recebeu o nome muito menos memorável AN / FSQ-7 ("Equipamento Especial Fixo do Exército e da Marinha" - em comparação com esse acrônimo, o SAGE parece bastante preciso).
Quando a Força Aérea elaborou planos completos para o sistema SAGE em 1954, ele consistia em vários sistemas de radar, bases aéreas, armas de defesa aérea - e tudo isso era controlado por vinte e três centros de controle, bunkers maciços projetados para resistir ao bombardeio. Para preencher esses centros, a IBM precisaria fornecer quarenta e seis computadores, e não vinte e três, o que custaria aos militares muitos bilhões de dólares. Isso ocorre porque a empresa ainda usava lâmpadas eletrônicas em circuitos lógicos e queimavam como lâmpadas incandescentes. Qualquer uma das dezenas de milhares de lâmpadas em um computador em execução pode falhar a qualquer momento. Obviamente, seria inaceitável deixar todo o setor do espaço aéreo do país desprotegido enquanto os técnicos realizavam reparos; portanto, era preciso manter um carro sobressalente à mão.
SAGE Control Center na Base da Força Aérea de Grand Forks, em Dakota do Norte, com dois computadores AN / FSQ-7Em cada centro de controle, dezenas de operadores trabalhavam na frente das telas de raios catódicos, cada uma das quais acompanhava parte do setor do espaço aéreo.

O computador monitorou quaisquer ameaças potenciais no ar e as desenhou como traços na tela. O operador poderia usar uma pistola leve para exibir informações adicionais sobre a trilha e emitir comandos para o sistema de proteção, e o computador os transformou em uma mensagem impressa para uma bateria de foguete acessível ou base da força aérea.

Vírus de interatividade
Dada a natureza do sistema SAGE - interação direta em tempo real entre operadores humanos e um computador digital com um CRT usando armas leves e um console - não é de surpreender que o primeiro grupo de defensores da interação interativa com computadores tenha sido criado no laboratório de Lincoln. Toda a cultura computacional do laboratório existia em uma bolha isolada, sendo separada das normas de processamento em lote que se desenvolveram no mundo comercial. Os pesquisadores usaram o Whirlwind e seus descendentes, reservando períodos para os quais eles receberam acesso exclusivo ao computador. Eles estão acostumados a usar mãos, olhos e ouvidos para interação direta através de interruptores, teclados, telas brilhantes e até um alto-falante, sem intermediários de papel.
Essa estranha e pequena subcultura se espalhou para o mundo exterior como um vírus, através do contato físico direto. E se você o considera um vírus, um paciente nulo deve ser chamado de jovem chamado Wesley Clark. Clark deixou a faculdade de física em Berkeley em 1949 para se tornar técnico em uma fábrica de armas nucleares. No entanto, ele não gostou do trabalho. Depois de ler vários artigos de revistas de informática, ele começou a procurar uma oportunidade de penetrar no que parecia ser um campo novo e interessante, cheio de potencial inexplorado. Ele aprendeu sobre o recrutamento de especialistas em computação para o laboratório de Lincoln a partir de um anúncio e, em 1951, mudou-se para a costa leste para trabalhar com a Forrester, que já havia se tornado chefe do laboratório de informática digital.
Wesley Clark mostrando seu computador biomédico LINC, 1962Clark juntou-se a um grupo de desenvolvimentos avançados, uma subdivisão do laboratório, personificando um estado relaxado de cooperação entre os militares e as universidades da época. Embora tecnicamente uma subdivisão fizesse parte do universo do laboratório Lincoln, essa equipe existia em uma bolha dentro de outra bolha, estava isolada das necessidades diárias do projeto SAGE e estava livre para escolher qualquer direção do computador que pudesse, de alguma forma, estar ligada à defesa aérea. Sua principal tarefa no início da década de 1950 foi criar um computador de teste de memória (MTC), projetado para demonstrar a viabilidade de um novo método altamente eficiente e confiável de armazenar informações digitais,
a memória do núcleo magnético , que substituiria a caprichosa memória baseada em CRT usada no Whirlwind.
Como a MTC não tinha outros usuários além de seus criadores, Clark teve acesso total ao computador por muitas horas diariamente. Clark ficou interessado na mistura cibernética da moda da física, fisiologia e teoria da informação, graças a seu colega Belmont Farley, que conversou com um grupo de biofísicos do RLE em Cambridge. Clark e Farley passaram longas horas atrás do MTC, criando modelos de software de redes neurais para estudar as propriedades de sistemas auto-organizados. A partir desses experimentos, Clark começou a extrair certos princípios axiomáticos da tecnologia da computação dos quais ele nunca se desviou. Em particular, ele começou a acreditar que "a conveniência do usuário é o fator de design mais importante".
Em 1955, Clark se uniu a Ken Olsen, um dos desenvolvedores do MTC, para planejar um novo computador que pudesse abrir caminho para a próxima geração de sistemas de controle militar.
Usando uma memória muito grande em núcleos magnéticos para armazenamento e transistores para trabalhar com lógica, ela poderia ser muito mais compacta, confiável e poderosa que o Whirlwind. Inicialmente, eles propuseram um projeto chamado TX-1 (computador transistorizado e experimental), "computador experimental de transistor" - muito mais claramente que o AN / FSQ-7). No entanto, a gerência do laboratório Lincoln rejeitou o projeto por ser muito caro e arriscado. Os transistores apareceram no mercado apenas alguns anos antes e muito poucos computadores foram criados com lógica de transistor. Então Clark e Olsen retornaram com uma versão menor da máquina, a TX-0, que foi aprovada.
TX-0A funcionalidade do computador TX-0 como uma ferramenta para gerenciar bases militares, embora fosse um pretexto para sua criação, interessava menos a Clark do que a capacidade de promover suas idéias sobre design de computadores. Do ponto de vista dele, a interatividade dos computadores deixou de ser realidade nos laboratórios da Lincoln e tornou-se uma nova norma - a maneira correta de criar e usar computadores, especialmente para trabalhos científicos. Ele deu ao TX-0 acesso aos biofísicos do MIT, embora o trabalho deles não tivesse nada a ver com defesa aérea, e permitiu que eles usassem a tela visual da máquina para analisar eletroencefalogramas de estudos do sono. E ninguém se opôs a isso.O TX-0 teve sucesso o suficiente para os laboratórios de Lincoln aprovarem o computador transistor completo TX-2 com uma enorme memória de dois milhões de bits em 1956. O projeto levará dois anos para ser concluído. Depois disso, o vírus sairá do laboratório. Após a conclusão do TX-2, os laboratórios não precisarão mais de um protótipo inicial; portanto, eles concordaram em alugar o TX-0 a Cambridge para RLE. Foi instalado no segundo andar, acima do centro de processamento em lote. E ele imediatamente infectou computadores e professores do campus do MIT, que começaram a brigar por períodos de tempo em que podiam obter o controle completo do computador.Já estava claro que era quase impossível escrever um programa de computador corretamente na primeira vez. Além disso, os pesquisadores que estudavam um novo problema, muitas vezes a princípio, não entendiam absolutamente qual deveria ser o comportamento correto. E para obter os resultados do data center, tive que esperar horas ou até o dia seguinte. Para dezenas de programadores recém-formados no campus, a oportunidade de subir as escadas, encontrar um erro e corrigi-lo imediatamente, tentar uma nova abordagem e ver imediatamente os resultados aprimorados, foi uma revelação real. Alguns usaram seu tempo no TX-0 para trabalhar em projetos sérios de ciência ou engenharia, mas a alegria da interatividade também atraiu almas mais divertidas. Um aluno escreveu um programa de edição de texto, que ele chamou de "máquina de escrever cara".Outro seguiu o exemplo e escreveu uma “calculadora de mesa cara”, que ele costumava fazer nas tarefas de análise numérica.
Ivan Sutherland mostra seu programa Sketchpad no TX-2Enquanto isso, Ken Olsen e outro engenheiro do TX-0, Harlan Anderson, irritado com o lento progresso do projeto TX-2, decidiram lançar um computador interativo de pequena escala no mercado para cientistas e engenheiros. Eles deixaram o laboratório para fundar a Digital Equipment Corporation, equipada com um escritório em uma antiga fábrica têxtil no rio Assabet, a 16 quilômetros a oeste de Lincoln. Seu primeiro computador PDP-1 (lançado em 1961) era essencialmente um clone TX-0.A TX-0 e a Digital Equipment Corporation começaram a espalhar as boas novas de uma nova maneira de usar computadores fora do laboratório de Lincoln. E, no entanto, até agora o vírus da interatividade foi localizado geograficamente, no leste de Massachusetts. Mas isso logo mudaria.O que mais se pode ler:
- Lars Heide, sistemas de cartões perfurados e a explosão precoce de informações, 1880-1945 (2009)
- Joseph November, Computação Biomédica (2012)
- Kent C. Redmond e Thomas M. Smith, de Whirlwind a MITRE (2000)
- M. Mitchell Waldrop, A Máquina dos Sonhos (2001)