Computer science and information technology: 1945-1995.
Por Fernando Antonio Abrahão – historiador, pesquisador. Titular da Cadeira 11 do IHGG Campinas, Ema Elisabete Rodrigues Camillo – socióloga, arquivista do CMU, e Eliana Regina Camargo Correa – historiadora, arquivista do CMU.
O período conhecido como Guerra Fria compreende o final da Segunda Guerra Mundial, em 1945, até a extinção da antiga União das Repúblicas Socialistas Soviéticas (URSS), em 1991. Nessa época, a URSS e os Estados Unidos da América (EUA) disputavam a hegemonia econômica, tecnológica e ideológica de suas zonas de influência. Desenvolviam e acumulavam milhares de armas atômicas para uma nova guerra que não se efetivou. Daí o nome Guerra Fria para sublinhar um período de forças reais não utilizadas, mas psicologicamente ativas.
Decerto, felizmente, esses conflitos políticos e estratégicos serviram para cientistas desenvolverem a Ciência da Computação, que fora alavancada pelas descobertas do matemático Alan Turing (1912-1954), no início da década de 1940.
Os governos mais ricos e influentes investiram em centros de pesquisa universitários e daí saíram os grandes computadores. Nesse meio destacou-se o matemático norte-americano Norbert Wiener (1894-1964), que previu uma sociedade onde a informação circulasse livremente, onde lidar com as informações adequadas resultasse no bem-estar social, onde o homem fosse agente ativo da corrente contínua pela qual a informação fosse trocada constantemente e onde as influências do mundo exterior se conjugassem com ações de atuação concreta sobre o nosso ambiente. Em outras palavras, Wiener anunciou, justamente naquela época de efervescência do conhecimento, a sociedade que de certa forma se vive neste século XXI.
A intenção de levar adiante as funções intelectuais do homem em direção à máquina foi e ainda é estimulada pela metáfora que compara o computador ao cérebro humano, como no filme de Stanley Kubrick e Arthur Clark, 2001: uma odisseia no espaço (1968). A visão de uma sociedade radicalmente transformada por aparelhos magníficos logo se faz acompanhar da ideia, característica da informática, de que a lógica é um valor universal, um instrumento de compreensão do mundo tanto quanto da sua transformação. Esses traços formaram o imaginário da informática, um tipo de capital comum àqueles que viam tais inovações como das mais importantes da história da humanidade.
O desenvolvimento da informática parece ter transformado a utopia em realidade, uma curiosa mutação que foi acontecendo na sociedade moderna praticamente sem resistência. Hoje, ao analisarmos as previsões de Wiener, percebemos como as mentes estavam abertas para a criação dos computadores pessoais.
Os computadores pessoais e a popularização da aplicação da informática
A indústria da informática é muitas vezes citada como exemplo de expansão econômica sem precedentes e de ser responsável pela vitalidade e o dinamismo da sociedade. Em torno da informática surgiram inúmeras empresas, dentre elas a companhia que se tornaria hegemônica no mercado até o final da década de 1980: a International Business Machines (IBM). Seus computadores, conhecidos como Mainframes, eram utilizados por governos e grandes empresas. As pessoas que os manipulavam eram altamente especializadas. Em resumo, os Mainframes funcionavam como uma central de trabalho que dispunha de um certo número de terminais conectados à grande máquina.
Porém, os propósitos da informática foram realinhados já em meados da década de 1970. Segundo Philippe Breton: a invenção do microcomputador tinha por objetivo abrir uma brecha na centralização e na posse de preciosas informações por alguns privilegiados. A guerrilha microinformática, em parte, recebeu seus louros. Ela se constituiu em uma espécie de revolução dentro da revolução e seu radicalismo esteve, em grande parte, na origem do nascimento da cultura informática, compartilhada por um grande público e fator de democratização da vida social e do saber.
Aqueles a quem Breton define como agentes de uma revolução dentro da revolução informática ou como fundadores de uma nova cultura informática, não se colocaram como radicais desse movimento, mas sim como estudiosos que vislumbravam a magnitude do empreendedorismo que se promoveu com a invenção do computador pessoal, o microcomputador.
Para nós que vivemos à margem das grandes potências econômicas, devemos sublinhar que esses jovens desenvolveram suas capacidades criativas graças a um sistema educacional que incorporou a informática ao ensino médio.
O trecho do depoimento de Steve Jobs (1955-2011), um dos fundadores da Apple Computadores, no documentário The Triumph of the Nerd (1996), ilustra a reação arrebatadora diante do computador:
… era como se a máquina executasse as suas ideias e lhe trouxesse de volta os resultados e, se fossem as respostas que você esperava, significava o sucesso da sua programação, do seu conhecimento do equipamento e da linguagem… foram experiências emocionantes.
Nessa época surgiu o Chip, que é o minúsculo processador eletrônico composto de muitos transistores. Eram peças fundamentais para o funcionamento dos computadores. Em 1974, a Intel apresentou o Chip 8080, com o qual Edward Roberts (1941-2010) construiu Altair 8800, noticiado como o primeiro computador pessoal. Mas, apenas os aficionados conseguiam manusear Altair, um equipamento rudimentar, sem teclado e comandado por chaves do tipo interruptores. Em vista dessa dificuldade de comunicação, Paul Allen e Willian (Bill) Gates adaptaram, em 1975, um sistema operacional usando a linguagem BASIC* do Mainframe. O triunfo resultou na fundação da empresa Microsoft.
Depois da solução da Microsoft para o futuro dos computadores pessoais, surgiram empresas de desenvolvimento e produção industrial, sendo pioneira, justamente, a Apple Computadores criada por Steve Jobs e Steve Wozniac, em 1976. O êxito do Apple I fez dele o portfólio de Jobs e Wozniac na busca de financiamentos junto aos investidores do mercado de capitais dos EUA. Com verba disponível, a empresa lançou o Apple II, em 1977. Já no ano seguinte equipamentos semelhantes surgiam nas feiras de eletrônicos daquele país. O Apple II estabeleceu o padrão dos computadores pessoais, antes mera diversão, entretenimento, mas agora incorporando status de equipamentos imprescindíveis no dia-a-dia.
As empresas desse novo mercado desenvolveram aplicativos aprimorados, como o VisiCalc, de 1979. Esta planilha eletrônica fez o cliente deslumbrar-se com o menor tempo que se levava para finalizar cálculos e planejamentos financeiros. Nesse ambiente criativo e inovador, a informática e os computadores passaram a definir os negócios.
A crescente migração de usuários de mainframe para os computadores pessoais fez a gigante da informática, IBM, desenvolver seu próprio equipamento. Willian (Bill) Lowe (1941-2013) apresentou um projeto que alterou completamente a estratégia comercial da empresa. Em 1981, a IBM lançou um computador pessoal com tecnologia, sistema operacional e softwares sem a característica de exclusividade que moldou a sua cultura e a sua hegemonia até então. A parceria com a Microsoft de Bill Gates e Paul Allen resultou no MS-DOS (precursor do Windows).
Primeiro com a Apple e agora com a parceria de IBM e Microsoft, a popularização do computadores era iminente. A opção pela arquitetura aberta (em oposição ao sistema operacional fechado de ponta a ponta da Apple) favoreceu o surgimento de inúmeros concorrentes. As quedas constantes dos preços de hardware pelo aumento da demanda, da concorrência fabril e da rapidez com que os objetivos tecnológicos são superados nesse meio, ajudaram a difundir ainda mais os computadores pessoais.
No âmbito de software, o lançamento do sistema operacional Windows 3 pela Microsoft, em 1990, foi outro importante fator de disseminação. Com esse novo sistema, os antigos comandos escritos passaram a ser registrados, também, por meio de ícones, tornando o uso do computadores pessoais ainda mais intuitivo. Cinco anos depois, em 1995, lançou-se o Windows 95, uma evolução do sistema 3, tornando a informática ainda mais atraente.
Desde então, a tecnologia desse meio revolucionário tem transformado nossas vidas. Hoje nossos computadores são ainda mais pessoais, intransferíveis, são nossos aparelhos de telefone celular móvel. Difícil prever o que vem adiante?
Referências bibliográficas:
ABRAHÃO, F.A, CAMILLO, E.R, CORREA, E.C, MATTOS, V.B. Do Basic ao TI: a trajetória da empresa que popularizou o ensino de informatica. Campinas: CMU, 2010.
BRETON, P. História da Informática. São Paulo: Unesp, 1991.
SCHAFF, A. Sociedade informática. São Paulo: Brasiliense, 1991.
The triumph of the nerd, EUA. 1996. Documentário produzido pela Rede norte-americana PBS (Public Broadcasting Service), sob a direção de Robert Cringely.
WIENER, N. Cibernética e sociedade: o uso humano de seres humanos. São Paulo: Cultrix, 1968.
*BASIC é acrônimo de: Beguinners All-purpose Symbolic Instruction Code. Esta linguagem de programação foi utilizada nos primeiros PC. Trata-se de um método criado a partir de regras sintáticas e semânticas para fazer o equipamento executar as instruções do programador.