Theodore Roszak - O Culto Da Informaçao

September 4, 2017 | Author: ZeroAcesso | Category: Artificial Intelligence, Technology, Information, Science, Economics
Share Embed Donate


Short Description

Theodore Roszak - O Culto Da Informaçao...

Description

Theodore Roszak

O CULTO DA INFORMAÇÃO Tradução e prefácio José Luiz Aidar

editora brasiliense 1988

• • • • •

O Direito de Comunicar — Desmond Fischer Informática e Sociedade — Henrique Rattner Logo: Computadores e Educação — Seymour Papert A Questão da Informática no Brasil — Rabah Benakouche (org.) O Segredo e a Informação — João Almino

Coleção Primeiros Passos • O que é Cibernética — Jocelyn Bennatonn • O que é Documentação — Johanna Smit • O que é Ideologia — Marilena Chaui • O que é Informática — João C. do Carmo Coleção QualÉ • A Questão da Reserva de Mercado — Olavo Setúbal

Copyright© by Theodore Roszak Titulo original: The Cult of Information Copyright © da tradução: Editora Brasiliense S. A., para publicação e comercialização no Brasil. Revisão: Ana Maria Oliveira Mendes Barbosa Lúcio Flávio de Souza Mesquita Filho ISBN: 85-11-27006-X

editora brasiliense s.a. rua da consolação, 2697 01416 - são paulo - sp. fone (011) 280-1222 telex: 11 33271 DBLMBR

Sumário Prefácio ............................................................................................................................................................ 7 Introdução ...................................................................................................................................................... 9 1. “Information, please” ............................................................................................................................12 Informação ao estilo antigo .............................................................................................................12 Surge o UNIVAC.....................................................................................................................................14 A cibernética e o segredo da vida..................................................................................................16 Mensagens sem significado..............................................................................................................18 O biocomputador ..................................................................................................................................22 2. Os negociantes de dados ....................................................................................................................25 A high tech (tecnologia de ponta) e os oportunistas conservadores ............................25 A política das regiões quentes e o estado de guerra .............................................................29 Hackers e hucksters ............................................................................................................................36 O silício e a seleção natural ..............................................................................................................40 Tecnofilia..................................................................................................................................................43 3. O curriculum secreto ...........................................................................................................................45 A quimera da utilização do computador ....................................................................................45 Uma solução na busca de problemas ...........................................................................................48 O campus computadorizado ............................................................................................................52 Poder e dependência ..........................................................................................................................58 Um universo particular......................................................................................................................61 4. O programa dentro do programa...................................................................................................64 O caso do LOGO .....................................................................................................................................64 5. Sobre idéias e dados ............................................................................................................................75 As idéias primeiro ................................................................................................................................75 Idéias mestras ........................................................................................................................................77 Experiência, memória, insight ........................................................................................................80 O gambito do empirista .....................................................................................................................85 Sem idéias não há informação ........................................................................................................87 6. O computador e a razão pura ..........................................................................................................90 A luz na caverna de Platão................................................................................................................90 A antiga mágica da matemática .....................................................................................................93 As seduções do software ...................................................................................................................95 Uma inteligência alienígena.............................................................................................................99 Um vôo além da realidade ............................................................................................................. 104 A quinta geração... e muito além ................................................................................................. 106 7. O computador e a contracultura ................................................................................................. 110 Um populismo eletrônico .............................................................................................................. 112

A heróica era do microcomputador .......................................................................................... 114 Saudosistas e tecnófilos .................................................................................................................. 118 Domos, dados e drogas ................................................................................................................... 121 Declínio e queda................................................................................................................................. 123 8. A política da informação ................................................................................................................. 126 Nada senão os fatos .......................................................................................................................... 126 Fartura de dados................................................................................................................................ 129 Questões de informação ................................................................................................................. 133 Comunidade on-line: a promessa das redes .......................................................................... 134 A biblioteca pública: o elo perdido da era da informação ............................................... 138 9. Nas mãos erradas............................................................................................................................... 141 Os fundamentos da tecnologia da informação ..................................................................... 141 A máquina da vigilância ................................................................................................................. 144 A máquina de pesquisas de opinião .......................................................................................... 148 A máquina de guerra........................................................................................................................ 153 Machine à gouverner ....................................................................................................................... 158 Nos limites da sanidade: a máquina psicótica ...................................................................... 161 10. O anjo de Descartes ........................................................................................................................ 167 Reflexões sobre a verdadeira arte de pensar........................................................................ 167 ÍNDICE REMISSIVO ................................................................................................................................ 175

Prefácio O cinema da década de 80 já não apresenta com tanta insistência computadores malévolos que acabam por tornar-se mais “inteligentes” do que seus projetistas, como em 2001. Ao contrário, dizem as personagens de 80: “O computador faz apenas aquilo que programamos”. Mas os cientistas continuam falando de “inteligência artificial”. Eles consideram que solucionar problemas é questão de “seleção apropriada”, ou seja, de poder de seleção. Um sistema pode ter maiores condições de sobrevivência em relação a outro se puder criar e modificar aspectos da própria estrutura que o tornem mais apto a adaptação ao ambiente cambiante. Ora, esses cientistas consideram o “poder intelectual” dessas máquinas passível de ampliação; existem sistemas que aprendem, podendo, portanto, amplificar sua inteligência. Se isso ocorre com a evolução do cérebro, por que não poderia ocorrer com outros tipos de sistema? Escreve Ross Ashby: “A novidade é que agora podemos fazê-lo sinteticamente, conscientemente, deliberadamente”. Será que podemos fabricar máquinas que venham a ser mais inteligentes do que o homem? Esta questão é discutida por Roszak, para quem é preciso tomar cuidado com todo esse “folclore” criado por aquilo que ele chama de “poderosos interesses” que anunciam a chegada da ‘iluminada” Era da Informação como sendo a máxima realização da espécie humana. Estamos entrando nessa era pela via da high tech (alta tecnologia). Mas é preciso — é o que nos diz Roszak — não sermos ingênuos. É preciso saber, por exemplo, que nos Estados Unidos o primeiro cliente da tecnologia da informação é o governo e em especial os militares. E os especialistas em inteligência artificial constituem um segmento significativo e bem financiado da comunidade tecno-científica: “eles deram ao modelo da mente-computadora a sanção de uma proposição metafísica profunda”. Os publicitários tornaram esse mundo-futuro liso e maravilhoso. Nas mãos desse capitalismo-de-ponta essa promissora tecnologia está, segundo Roszak, sendo degradada a um instrumento de vigilância e controle, de centralização financeira e administrativa, de manipulação da opinião pública, de realização da guerra. Daí decorre, para Roszak, o perigo do modelo de processamento de dados, que acaba sendo utilizado para nos ensinar a pensar, fazendo com que — principalmente as crianças — adotem as máquinas como modelos de seres pensantes. Como se precisássemos das máquinas para aprender a pensar. Este livro é uma crítica a esse controle total, a esta vontade de dominação completa.

* * * Wiener definiu em 1948 a cibernética como a ciência do controle e da comunicação no animal e na máquina. Essa “arte de governo” busca evitar a desagregação quando há necessidade de se efetuar mudanças no sistema, ou seja, em caso de crise. O sistema, a

nível interno, seja em certa parte ou em inúmeros grupos componentes, necessita, para superar a crise, mudar suas regras e normas de funcionamento. Mas a organização como um todo pode abominar a desordem e aí instaura-se a contradição: a mudança necessária é combatida. É preciso um salto até um novo estado de equilíbrio. Nesse sentido, sistema “ultra-estável” é aquele que consegue readquirir o equilíbrio (a estabilidade) após uma perturbação ou crise. Vejamos um exemplo, com relação ao Chile de 70. Salvador Allende contrata o especialista inglês em cibernética Stafford Beer para desenvolver e administrar uma ordem econômica otimizada para o país. Mas enquanto o Chile procurava resolver sua crise através de uma série de experiências completamente inéditas na América Latina, como por exemplo a autogestão das fábricas (e mesmo a atualização cibernética), o sistema americano viu-se ameaçado, temendo talvez a “exportação” da revolução cubana. Em crise, o sistema americano resolveu terminar a crise chilena, através da CIA, inclusive com a chamada “máquina da liberdade” de Beer, mostrando-se mais eficaz e “ultra-estável” do que o sistema chileno. É nesse sentido que o livro de Roszak se mostra pertinente: menos por sua acuidade epistemológica ao buscar discutir “como pensa a mente”, do que quando desvela as maquinações da economia política do projeto cibernético. Parece que não caminhamos para a aldeia global ou para uma quarta onda. A inteligência artificial parece não estar preocupada com a democracia, apesar do que afirmam a publicidade, os entusiastas da computação e os donos das enormes empresas de computadores. Não temos, portanto, em mãos uma crítica epistemológica à cibernética, mas uma atenta observação daquilo que Roszak chama de “folclore” dos computadores, ou seja, a imagem que certos setores ligados à informática e à ciência da computação constroem e vendem como acessório do hardware e do software. Informações fundamentais para podermos situar o funcionamento das gigantescas empresas de tecnologia de ponta na dinâmica do capitalismo avançado. O tradutor.

Introdução O garoto do conto de fadas que inadvertidamente revelou a verdade embaraçosa de que o imperador estava nu não sugeriu necessariamente que o imperador não merecesse respeito. O pobre homem poderia ter um sem-número de qualidades que o redimissem. Em sua vaidade, ele simplesmente não resistiu ao apelo de uma majestade inatingível. Seu erro mais grave foi permitir que alguns oportunistas utilizassem sua credulidade e a de seus súditos. Esta crítica do papel dos computadores em nossas vidas e especialmente em nossas escolas tem a mesma dimensão limitada. Não pretendo desqualificar o computador, considerando-o sem valor ou malévolo. Dificilmente eu poderia assumir esta posição. Os originais deste livro foram digitados em um processador de palavras; em inúmeras ocasiões a pesquisa para o livro exigiu ampla utilização de um banco de dados eletrônico. Minha abordagem considera com saudável respeito as variadas possibilidades de auxílio trazidas pelos computadores, evitando uma postura tecnofóbica dogmática. Quero, contudo, sugerir que o computador, da mesma forma que o tão suscetível imperador, tem sido ostensivamente “vestido” com pretensões inacreditáveis. Além disso, acredito que essas pretensões foram difundidas por elementos de nossa sociedade que utilizam o poder do computador de algumas formas moralmente bastante questionáveis. As promessas mais veementes, com as quais esses elementos têm cercado tal poder, devem ser desafiadas, se acreditarmos que o computador não deve ser confiado a mãos erradas. Deve ficar claro que meu interesse nessas páginas não está na tecnologia dos computadores, mas em seu folclore: as imagens de seu poder, as ilusões de bem-estar, as fantasias e desejos que surgiram em tomo da máquina. Em primeiro lugar, meu alvo é o conceito que está intimamente ligado à tecnologia no que se refere à opinião pública: informação. A informação tem sido considerada como aquela seda impalpável, invisível, mas aclamada, com a qual foi supostamente tecida a vestimenta etérea do imperador. A palavra recebeu definições globais ambiciosas que impressionavam as pessoas. Palavras que passam a tudo significar acabam por significar nada; apesar disso, seu completo vazio pode permitir que sejam preenchidas com um glamour hipnotizante. A conversa imprecisa, frouxa, mas efusiva, que ouvimos atualmente em todos os lugares, sobre “economia informacional”, ou “sociedade da informação”, tem exatamente essa função. Tais frases “contagiantes” e clichês são fetiches de um culto público tão difundido. Como todos os cultos, também esse tem a intenção de recrutar a aquiescência e a submissão não refletidas. Pessoas que não têm idéia clara do que quer dizer informação, ou por que poderiam precisar dela, são preparadas para acreditar que vivemos numa Era da Informação, que faz de todos os computadores ao nosso redor aquilo que as relíquias da Cruz significavam na Idade da Fé: emblemas de salvação. A informação teve uma carreira extraordinariamente ascendente no vocabulário do público nos últimos quarenta anos. Apesar de estar entre os candidatos menos prováveis ao elevado status de palavra “divina”, ela o conseguiu, e não por acidente. A partir de sua esotérica redefinição pelos teóricos da informação durante a Segunda Guerra, veio com o objetivo de acompanhar uma transição histórica em nossa vida econômica, unindo importantes interesses corporativistas, o governo, as instituições científicas e, finalmente,

alimentando a retórica persuasiva de anunciantes e comerciantes. Mesmo que considerandoo somente como um tema unificador que mantém juntas tantas forças sociais poderosas, o conceito já mereceria atenção crítica. Mas a Era da Informação entra agora no curriculum educacional de forma particularmente insidiosa e agressiva, que poderia distorcer o próprio significado do pensamento. Esta é a principal preocupação deste estudo. Dois elementos distintos aparecem juntos no computador: a capacidade de armazenar grandes quantidades de informação e a capacidade de processar essa informação de acordo com procedimentos lógicos bem determinados. Cada uma será examinada nos capítulos 5 e 6, respectivamente, e explorada quanto a sua relação com o pensamento. Veremos como o culto à informação escolhe um desses elementos (algumas vezes opta por ambos) e daí infere seu valor intelectual. Uma vez que a capacidade de armazenar dados corresponde, de certo modo, àquilo que chamamos memória nos seres humanos, e uma vez que a capacidade para seguir procedimentos lógicos corresponde, de certo modo, àquilo que chamamos raciocínio nos seres humanos, muitos membros desse culto concluíram que aquilo que fazem os computadores corresponde, de certo modo, ao que chamamos pensamento. Não há grande dificuldade para persuadir o grande público de tal conclusão, pois os computadores realizam processamento de dados em intervalos de tempo pequenos e em espaços exíguos, bem abaixo do nível de “visibilidade”; não parecem com outras máquinas quando estão em funcionamento. Parecem estar operando leve e silenciosamente, como faz o próprio cérebro ao lembrar, raciocinar e pensar. Por outro lado, aqueles que projetam e constroem computadores sabem exatamente como as máquinas estão trabalhando sob as profundezas de seus semicondutores. Computadores podem ser desmontados, examinados minuciosamente e montados novamente. Suas atividades podem ser rastreadas, analisadas, medidas e, dessa forma, claramente entendidas — o que é impossível com relação ao cérebro. Isto levanta a suposição tentadora, por parte dos construtores e projetistas, de que os computadores podem nos contar algo sobre o cérebro, de que eles podem servir de modelos da mente, que passa, então, a ser vista como uma espécie de máquina processadora de informação, mas possivelmente não tão boa quanto a máquina. Meu argumento consiste justamente em insistir que há uma distinção fundamental entre aquilo que faz a máquina, ao processar informação, e o que faz a mente, quando pensa. Numa época em que os computadores estão sendo introduzidos maciçamente nas escolas, esta distinção deve estar bem clara tanto para professores quanto para estudantes. Mas, graças à mística típica do culto que cerca os computadores, a linha que divide mente e máquina está sofrendo perigosas mudanças. Em conseqüência disso, os poderes do raciocínio e da imaginação, que as escolas existem para celebrar e reforçar, estão sob perigo de serem enfraquecidos com simulações mecânicas de nível inferior. Se queremos recuperar a verdadeira arte de pensar, tirando-a dessa terrível confusão,* devemos começar abrindo caminho através da vegetação rasteira dos exageros da publicidade, das ficções da mídia e da propaganda comercial. Mas tendo feito isto para limpar o terreno, acabamos por chegar no âmago filosófico do culto à informação, que é criação tanto das academias e laboratórios quanto dos mercados. Mentes privilegiadas no campo da ciência de computação se ligaram ao culto a fim de obter prestígio e lucro. Uma *

No original, crippling confusion: confusão aleijada, que leva à incapacidade. (N. T.)

vez que os “mascates” aliciaram tantos cientistas para sua causa, há uma série de questões de cunho intelectual e de interesses políticos que devem ser examinados se quisermos entender toda a influência, todo o prestígio dos computadores em nossa sociedade. Para sermos claros, os poderes e propósitos da mente humana estão, de forma bastante contundente, em debate. Se, finalmente, os educadores também forem arrastados pelo culto, podemos vislumbrar a geração atual de estudantes tolhida seriamente em sua capacidade de pensar e resolver as questões sociais e éticas que nos confrontam, à medida que atravessamos o último estágio da revolução industrial ainda em curso. A assim chamada economia informatizada pode não ser aquilo que seus mais notáveis incentivadores nos levaram a acreditar. Não é a utopia futurista há tanto tempo prevista pela ficção científica. É, contudo, uma transição significativa e excitante em nossa história industrial. Nenhuma tecnologia expandiu anteriormente suas potencialidades tão rapidamente quanto os computadores e as telecomunicações. É compreensível que aqueles de nós que estão testemunhando esta transformação/turbilhão, deveriam sentir-se aturdidos com a investida (o rush) das inovações, com o súbito influxo de novos poderes técnicos. Nós vimos, porém, muitas tecnologias do passado conduzirem a sérios problemas, para deixar que nossa atenção crítica seja mal dirigida pelos entusiastas dos computadores. A tecnologia da informação apresenta a capacidade óbvia de concentrar poder político, de criar novas formas de dominação e confusão (no sentido de uma pasmaceira geral) sociais. Quanto menos preparados nos sentirmos para questionar os usos do computador, mais teremos de assumir e sofrer as suas perigosas conseqüências. Finalmente, este livro trata tanto da arte de pensar quanto da política e da tecnologia dá informação. Há, sem dúvida, uma série de questões humanistas que perpassam a crítica. Eu parto da suposição de que a mente — e não apenas na forma da inteligência humana — pode ser considerada tão próxima de uma maravilha da natureza quanto qualquer milagre reverenciado pelos religiosos. Fazer a crítica dos poderes da mente e devassar seus segredos estão entre as ocupações tradicionais da filosofia. Outra coisa bem diversa é ensinar as crianças é contar ao público que os segredos foram todos revelados e os poderes utilizados — e oferecer uma série de semicondutores instalados em uma caixa metálica como prova. Segundo essa asseveração, mesmo o mais ingênuo computador pareceria sem dúvida ridiculamente inadequado aos olhos de pessoas de reflexão: mais um chiste do que uma realização. Por mais crítico que possa ser este livro em muitos pontos ao desafiar o papel do computador em nossa sociedade, ele inclui entre seus propósitos o de salvar essa notável invenção de pretensões excessivas reivindicadas por seus entusiastas. Livre do peso de uma ambição jactanciosa, vestido com roupas de trabalho mais modestas, porém palpáveis, o computador, da mesma forma que o imperador do conto de fadas, pode ainda se tornar um servidor público razoavelmente valioso.

1. “Information, please” Informação ao estilo antigo Quando eu ainda era um adolescente, nos anos que antecederam a Segunda Guerra Mundial, a informação não era ainda um conceito estimulante. Como categoria intelectual, apresentava uma posição modesta e marginal. Poucas pessoas a concebiam como tema de uma teoria ou de uma ciência; não era associada a uma tecnologia avançada que lhe emprestava especial encanto ou valor financeiro notável. O uso público mais comum da palavra era associado, provavelmente, à frase Information, please.* Era o que você deveria dizer ao perguntar à telefonista por algum número, ao discar 411.** Havia, também, nas décadas de 30 e 40, um programa popular de rádio com esse nome, que convocava os ouvintes a desafiar um grupo de especialistas, enviando questões capciosas sobre trivialidades em geral. Quem era o presidente mais baixo dos Estados Unidos? Que ópera famosa contém o dueto mais longo? Qual mamífero põe ovos? Era deste modo que a maioria das pessoas pensava sobre informação naquela época: assuntos desarticulados que surgiam em pequenos pacotes distintos. Algumas vezes o conteúdo dos pacotes era surpreendente, algumas divertido, outras útil. Na maioria das vezes tomava a forma de número, nome, data, lugar, resultado ou medida que respondia a uma questão específica que começava com: quem, o que, quando, onde, quanto. Tais assuntos eram abordados com palavras comuns; não exigiam formulações matemáticas esotéricas ou vocabulário técnico especial. Ocasionalmente a informação poderia ter caráter de urgência — saber, por exemplo, como estancar o sangramento —, mas não era considerada como algo pelo qual havia uma necessidade insaciável do público. Certamente ninguém teria dado a ela o status que ela adquiriu atualmente — aquele de uma produção industrial de bilhões de dólares que gostaríamos de ver reproduzida sem quantidades limitadas. Naturalmente todos sabiam que havia certos negócios e profissões que exigiam a manutenção de inúmeros arquivos repletos de informação. Eram os contadores, os advogados, os engenheiros. As ocupações típicas de “colarinho branco” — bancárias, ligadas a seguros ou corretagem, imobiliárias — eram caracterizadas por salas repletas de arquivos verdes de aço e por pelotões de arquivistas ocupados. Acima de tudo estava o governo que, como recenseador, arrecadador de impostos, regulador de leis, tinha sempre sido o armazenador de registros par excellence, desde os primórdios da civilização. Desde o início do século XIX os governos das sociedades industrialmente avançadas passaram a ter de assumir maior número de responsabilidades administrativas, até mesmo a tarefa de cuidar para que os dados oficiais não se tornassem um fim em si mesmos. Obrigações como a supervisão da economia e da força de trabalho, a distribuição de pensões, a dotação de empregos, a alocação de rendimentos públicos e recursos, passavam a exigir mais atenção das lideranças políticas nas nações industriais urbanas. Para alguns dos primeiros cientistas *

Equivalente a: “Você pode me dar uma informação?”. (N. T.) O nosso 102 em São Paulo. (N. T.)

**

sociais, como Max Weber, este papel em expansão das estatísticas sociais representou um dos piores vícios da sociedade moderna: a burocratização da vida, a transformação da experiência em abstrações numéricas. De modo geral, a responsabilidade pelo processamento de dados em todas essas profissões, públicas e privadas, era mais lamentada do que celebrada. Era vista como uma necessidade desanimadora, que deveria ser deixada para aqueles què ocupavam posições inferiores, normalmente auxiliares de escritório não-especializados. A imagem familiar do funcionário de escritório que encontramos nas estórias de Dickens e Gogol é a dos escreventes pálidos e de rostos macilentos atrapalhando-se com seus livros-caixa superlotados, estatísticos e atuários desalmados somando colunas infindáveis de cifras, e arquivistas subnutridos escarafunchando arquivos empoeirados para encontrar um memorando inexistente. Estas eram as pessoas do nível mais baixo do formigueiro. Herman Melville captou algo sobre a percepção geral desses desafortunados em sua famosa estória Bartleby the Scrivener [Bartleby, o Escrevente], o funcionário eficiente e organizado cuja deprimente labuta acaba finalmente transformando-o em um zumbi. A imagem desses armazenadores de dados não melhorou nem mesmo quando sua ocupação ultrapassou o estágio da caneta e do lápis, com a chegada da era da máquina. As máquinas utilizadas nas indústrias de serviços e no governo surgiram, nos primeiros anos desse século, a fim de se economizar tempo e espaço. A máquina de calcular, o furador, a máquina de endereçar — eram todos processadores de informação. Mas ninguém os teria encarado como algo mais que engenhocas que serviam apenas para classificar ou somar, tão dignas de interesse intelectual quanto o freio de ar ou a pilha seca. Seus inventores dificilmente são lembrados; as empresas que as fabricaram não eram de grande importância para a economia; aqueles que as operavam permaneceram como auxiliares de níveis inferiores. Em geral, os manipuladores de dados da economia eram office-girls que poderiam ter sido treinadas no curso secundário ou em escolas de comércio e que trabalhavam penosamente em empregos monótonos sem esperança de promoção. Seu trabalho era visto, normalmente, por sensibilidades mais humanistas, como um lamentável exemplo de progressiva massificação da vida moderna. Na sátira amarga de Elmer Rice para a Broadway The Adding Machine* (1923), o protagonista é um funcionário de escritório apropriadamente chamado Mr. Zero. É um patético ser sem importância, um “pobre pateta desmiolado e covarde” que está desterrado no país dos arquivos. No final da peça, ele ganha uma “magnífica super-hiper-máquina de somar”; é a mais espetacular máquina de escritório jamais imaginada. Mesmo assim, a peça acaba por identificar Mr. Zero com uma forma de vida inferior e menos útil do que um servo. Ele é um “escravo de uma geringonça de ferro e aço” e o seu trabalho é retratado como a síntese da desumanização. Nas mãos de Mr. Zero e dos de seu tipo, as pessoas são reduzidas a fantasmas estatísticos; mas aqueles que fazem tal proeza não têm nem status nem poder. São ninharia no sistema. Em minha juventude eu tive uma experiência dessa lúgubre subserviência. No início da década de 50 trabalhei como arquivista em uma grande companhia de seguros, cujo subsolo sem janelas era uma caverna em forma de colméia repleta de arquivos negros como esquifes, e livros de registros amarrados e colocados em prateleiras até o teto. Juntamente *

A Máquina de Somar (N.T.)

com inúmeros outros jovens recém-saídos da escola secundária, eu circulava entre os departamentos levando bojudos maços de correspondência e memorandos. Éramos tratados como burros de carga. De tempos em tempos nosso supervisor, tentando dar um impulso em nossa moral flácida, lembrava-nos que éramos o sangue que circulava nas veias da empresa. Sem nós, mesmo os executivos dos cargos mais altos nada poderiam fazer. Mas sabíamos ser os mais inferiores dos inferiores. O serviço era chatíssimo e recebíamos o salário-mínimo da companhia. Nenhum de nós permaneceu no emprego por mais tempo do que o necessário.

Surge o UNIVAC A mais conhecida relíquia da época de Mr. Zero, o período paleolítico das primeiras máquinas de escritórios, era o cartão de perfuração Hollerith, que data de antes de 1890. Eventualmente, tornar-se-ia o emblema da alienação humana em um mundo cada vez mais burocrático. Em algum lugar no princípio dos anos 60, sua imposição seria elaborada para atingir a compreensão dos leigos, sendo utilizado o seguinte appeal: “Eu sou um ser humano. Não dobre, não espete nem mutile”. Mas na época em que a justificativa foi expressa, o cartão já estava obsoleto e substituído por meios bem superiores de rastreamento de dados. Nas mãos de firmas inovadoras como Sperry-Rand, Control Data e Digital Equipment Corporation (a IBM estava bastante retardatária nesse campo até o começo da década de 60), as máquinas sofreram uma evolução rápida e inesperada. Incitada pela necessidade militar na Segunda Guerra e, mais tarde, pelo Census Bureau,* essa evolução ocorreu a partir do amadurecimento rumo à transformação daquelas máquinas em aparelhos elétricos de arquivamento, que especificavam um endereço numérico para os dados e, a seguir, podiam realizar uma série de operações e cálculos rápidos com tais dados. Ora, isto, em sua forma mais rudimentar, é um computador: um aparelho que lembra aquilo que inventaria, inventaria o que lembra e recupera qualquer dado já armazenado apenas com o toque de uma tecla. As jovens miseráveis que outrora cuidavam dos furadores lerdos e pesadões no escritório ficariam certamente surpreendidas ao saber que algum dia haveria “cientistas da informação”, que considerariam suas máquinas que emitiam estalos e tinidos como os ancestrais distantes de uma forma de inteligência mecanizada possivelmente superior à mente humana. A palavra computador entrou para o vocabulário do público na década de 50, quando os modelos de aparelhos mais avançados eram ainda dinossauros mecânicos do tamanho de um quarto que consumiam suficiente eletricidade para apresentar um sério problema de refrigeração. O primeiro computador a adquirir uma reputação significativa foi o UNIVAC, fruto da imaginação de John Mauchly e J. P. Eckery, com contribuições importantes do famoso matemático John von Neumann.1 O UNIVAC foi o primeiro computador que armazenava programas; surgiu a partir de pesquisas militares realizadas na Universidade da * 1

Agência de recenseamento. (N. T.) Para um estudo da história do inicio da indústria de computadores, ver Joel Shurkin, Engines of the Mind Norton, Nova Iorque, 1984, pp. 250-253. Shurkin detalha o primeiro uso do UNIVAC na CBS em 1952.

Pensilvânia durante a guerra. Seu desenvolvimento posterior foi fomentado pelos contratos com o National Bureau of Standards and Prudential Insurance; finalmente foi comprado pela Remington Rand na década de 50, para uma variedade de serviços. Mas o surgimento público do UNIVAC foi um truque dos meios de comunicação. A máquina foi emprestada à rede de televisão CBS para as previsões dos resultados das eleições de 1952. Esse gigantesco e ruidoso animal* (continha 5 mil válvulas, mas utilizava um novo sistema de tape magnético compacto, ao invés dos cartões perfurados para armazenamento de dados) foi programado para analisar as estatísticas da votação para a CBS em distritos-chave, comparando-os com os primeiros resultados da noite da eleição. Desta forma, o UNIVAC fornecia uma projeção que rapidamente poderia efetuar os cálculos que indicariam o candidato de vitória mais provável. Há uma piada divertida sobre a apresentação do UNIVAC ao público americano naquela noite. No centro de apurações da CBS, a máquina esotérica, que estava sendo afagada por ansiosos engenheiros eletrônicos como se fosse uma criança mimada, era considerada como um mero show paralelo. Assim, quando o UNIVAC, a partir de apenas 5 a 7% de votos apurados, começou a projetar uma vitória esmagadora de Dwight Eisenhower, os experts da CBS se recusaram a noticiar essa previsão. Os técnicos, preocupados, concordaram então em ajustar a máquina para mantê-la em linha direta com as autoridades da rede televisiva. Mas o UNIVAC continuou a insistir no ritmo de Eisenhower, mesmo na solidez democrática do Sul. Finalmente, quando suas previsões provaram ser exatas, os experts concordaram e confessaram publicamente que o UNIVAC tinha realmente levado a melhor e que as aparentes inconsistências da máquina naquela noite tinham sido devidas à interferência humana. O UNIVAC tinha previsto uma votação de 438 para Eisenhower; ele terminou com 442, dentro de uma margem de 1% com relação à previsão espantosa do UNIVAC. Esta foi uma demonstração impressionante daquilo que um processador avançado de dados poderia fazer, tão impressionante que durante algum tempo a marca UNIVAC ameaçou substituir a palavra genérica computador. As atividades de “colarinho branco” foram as últimas a entrar na era da máquina. Bem depois da mecanização das minas, fábricas e fazendas, os funcionários de escritório ainda utilizavam caneta e lápis, arquivando sua papelada em estantes. Mesmo a máquina de escrever (que apareceu na década de 1880 e contribuiu bastante para que uma nova geração de mulheres fosse para os escritórios) era um instrumento manual de nível inferior, o equivalente tecnológico do tear manual, já há muito extinto. Até muito recentemente poderíamos procurar, sem êxito, por anúncios em revistas que destacassem algum tipo de equipamento para processamento de dados, que eram relegados aos livros e artigos que celebravam seus inventores e fabricantes. Comparem com a situação atual, em que os anúncios mais lustrosos e futurísticos tanto na imprensa escrita comò na televisão são os de computadores para escritórios, e vocês terão uma medida formidável de como a informação ganhou status. A tecnologia dos modestos armazenadores de dados finalmente levou vantagem sobre as oficinas laminadoras de metais, os dínamos e as estradas de ferro. “Hoje” — declara uma empresa líder em telecomunicação, em um anúncio imponente de página inteira — “a informação é a mais valiosa mercadoria para os negócios. Quaisquer negócios.” Anos atrás pensava-se em informação mais como um lubrificante que auxiliava na produção de mercadorias, ou talvez a conclusão de um serviço como o *

Behemoth no original: beemonte, animal gigantesco. (N. T.)

diagnóstico de um médico ou o parecer legal de um advogado. Seu valor não seria constante (mantido como universal, invariavelmente supremo), mas sofreria variações de acordo com sua precisão e aplicações. Mas atualmente a informação é livremente chamada de produto, recurso, capital, moeda. Não há limites para as altas aspirações da retórica. Em um comercial de TV de 1984, Frank Herbert, autor de Duna, um trabalho que invoca a perspectiva da ficção científica, entoa um pequeno hino ao progresso tecnológico dos sistemas de informação dos telefones do Pacífico. “A verdadeira revolução da Era da Informação”, declara ele, “não se referirá ao hardware, mas ao espírito humano. Será a oportunidade de sermos mais do que humanos.” Aparentemente uma promessa de possibilidades divinas. O produto por ele oferecido é simplesmente outro sistema eletrônico para escritórios, um dos muitos no mercado. Mesmo assim, conforme a linguagem pródiga sugere, a transição para o computador passou a ser vista como algo mais do que uma questão de substituição de velhas máquinas por novas. As novas máquinas têm a aparência de algo que caracteriza um salto evolucionário na história da industrialização. Constituem uma nova espécie de tecnologia, que desde sua primeira aparição parece ter flertado com os mistérios da própria mente.

A cibernética e o segredo da vida Em minha própria vida, houve um livro que teve uma importância maior que o UNIVAC para alterar meu entendimento sobre a informação e sobre a maquinaria que a manipula. Em 1950 o matemático Norbert Wiener escreveu um estudo pioneiro e bastante lido chamado O Uso Humano dos Seres Humanos [The Human Use of Human Beings], uma versão popularizada de seu clássico trabalho de 1948, Cybernetics [A Cibernética].2 Para a maioria dos leitores, esse pequeno livro cativante e provocador serviu de marco de referência do surgimento da elevada promessa da cybernation, palavra cunhada por Wiener para a nova tecnologia de automação, em que ele reconhecia os traços de uma segunda revolução industrial. Nas páginas de seu estudo, o computador era ainda uma invenção exótica, sem nome estabelecido ou imagem precisa; Wiener se refere a ele como “uma máquina de computação ultra-rápida”. Mas mesmo em seu estado primitivo, tal máquina afigurava-se importante naquilo que consistia para Wiener em um dos aspectos-chave da cybernation: o feedback,* ou seja, a habilidade de uma máquina para utilizar os resultados de sua própria performance como informação auto-reguladora, ajustando assim a si mesma como parte do processo em andamento. Para Wiener, o feedback era mais do que um ardil mecânico inteligente; ele o considerava como uma característica essencial da mente e da vida. Tudo o que é vivo pratica alguma forma de feedback, à medida que se adapta ao seu meio ambiente; aqui estava uma nova geração de máquinas alcançando o status de um animal sensível e, assim, prometendo encarregar-se de tarefas que apenas a inteligência humana tinha sido, desde muito, capaz de realizar. E não apenas tarefas ligadas ao trabalho, mas também a certos tipos de jogos. Wiener se impressionou bastante com a pesquisa a respeito da construção de máquinas que 2

Norbert Wiener. The Human Use of Human Beings: Cybernetics and Society Houghton Mifflin, Boston, 1950. Uma edição bastante revista apareceu em edição em paperback em 1954 (Doubleday Anchor Books).

*

Em português, realimentação. (N. T.)

jogavam xadrez; isto serviu de evidência posterior para o fato de que máquinas seriam capazes de processar dados segundo formas que aproximariam a complexidade da inteligência humana. “Viver de modo eficaz” — concluiu ele — “é viver com a informação adequada. Assim, comunicação e controle pertencem à essência da vida interior do homem, bem como de sua vida em sociedade”. Wiener estava afirmando nada menos que, ao aperfeiçoar o feedback e os meios de manipulação rápida de dados, a ciência da cibernética atingia um entendimento mais profundo da vida como sendo, em seu âmago, processamento de informações. “É minha tese” — ele escreveu — “que o funcionamento físico do indivíduo vivo e a operação de algumas das modernas máquinas de comunicação são precisamente semelhantes em suas tentativas análogas em controlar a entropia através de feedback”. Aproximadamente cinco anos após a publicação do livro de Wiener, um novo campo de estudos baseado nessa tese começou a marcar a sua presença nas universidades, uma mistura intelectual de filosofia, lingüística, matemática e engenharia elétrica. Era chamado de inteligência artificial, ou simplesmente IA. A suposição fundamental da IA era clara desde o princípio; nas palavras de dois de seus pais-fundadores, Alan Newell e Herbert Simon, “o computador programável e o solucionador de problemas humanos pertencem ambos ao gênero ‘Sistema de Processamento de Informações’ ”.3 Alguns anos mais tarde (1958) as expectativas de Newell e Simon já tinham quase alcançado os céus: Há agora, no mundo, máquinas que pensam, aprendem e criam. Sobretudo, sua habilidade para fazer tais coisas está crescendo rapidamente até que — num futuro já visível — a classe de problemas que elas poderão manipular será coextensiva com aquela a que a mente humana tem se dedicado.4 Na época em que eles fizeram esta previsão, os computadores estavam ainda lutando para jogar damas de forma louvável. Mas Simon tinha certeza de que “em dez anos um computador digital seria o campeão mundial de xadrez”.5 Wiener pode ou não ter concordado com tais previsões estonteantes que brotavam dos novos estudos de inteligência artificial, mas ele certamente não endossava esse otimismo. Ao contrário, ele considerava a tecnologia da informação uma ameaça à estabilidade social a curto prazo ou possivelmente como um desastre permanente. Tendo inventado a cibernética, ele pretendia assumir o papel de sua consciência. The Human Use of Human Beings, conforme o próprio nome sugere, foi escrito para despertar a discussão pública sobre a nova tecnologia até que atingisse um nível mais elevado de consciência ética. Wiener notou que as máquinas automatizadas dominariam não apenas a rotina das linhas de montagem, mas também a rotina dos escritórios. A maquinaria cibernética “não aposta nem no trabalho manual nem no trabalho de ‘colarinho branco’ ”. Se deixada sob completo controle dos industriais de visão curta que se preocupam apenas em maximizar lucros, poderia “causar uma situação de desemprego, em comparação com a qual... mesmo a depressão dos anos 30 pareceria uma brincadeira”. 3

Newell and Simon, citados em Joseph Weizenbaum, Computer Power and Human Reason W. H. Freeman, São Francisco, 1976, p. 169. 4 Idem, ibidem, p. 138. 5 Simon, citado em John Pfeiffer, The Thinking Machine, Lippincott, Nova Iorque, 1962, p. 174.

Dois anos após este aviso de Wiener, surgiu a primeira antiutopia cibernética. Em Player Piano, Kurt Vonnegut Jr., que trabalhara no departamento de relações públicas da General Electric, uma das empresas mais agressivamente interessadas em automação, imagina um mundo de máquinas inteligentes em que há “produção com quase nenhuma participação humana”. Até mesmo os barbeiros são substituídos por máquinas de cortar cabelo. O resultado é um despotismo tecnocrático inteiramente controlado por técnicos de informação e administradores de corporações. O livro levanta a questão: deve-se permitir que a tecnologia faça tudo aquilo que pode fazer, principalmente quando seus poderes se estendem até os ofícios e habilidades que são a razão de ser das vidas das pessoas? As máquinas são escravos, insiste o herói-engenheiro de Vonnegut. É claro que elas aliviam a vida de muitas formas, mas também competem com as pessoas. E “qualquer um que venha a competir com um escravo acabará se tornando um”. Conforme escreve Vonnegut, “Wiener, um matemático, se referiu a toda essa retomada já nos anos 40”.

Mensagens sem significado No mesmo ano em que Wiener escreveu seu Cybernetics, Claude Shannon, dos Laboratórios Bell, publicou seu artigo fundamental “A Mathematical Theory of Communication” [“Uma Teoria Matemática da Comunicação”], que estabeleceu a disciplina da teoria da informação, a ciência das mensagens. O trabalho de, Shannon é universalmente reconhecido como uma das maiores realizações intelectuais do século. É também o trabalho que mais revolucionou o modo pelo qual cientistas e técnicos passaram a utilizar a palavra informação. Esta palavra sempre denotava, outrora, uma afirmação sensata que transmitia um significado verbal reconhecível, geralmente aquilo que poderíamos chamar de “fato”. Mas Shannon deu à palavra uma definição técnica específica que a diferenciou daquela utilizada pelo senso comum. Nesta teoria, a informação não é mais ligada ao conteúdo semântico das afirmações. Ao contrário, a informação passa a ser considerada uma medida apenas quantitativa de trocas comunicativas, especialmente aquelas que ocorrem através de algum canal mecânico que exige que a mensagem seja codificada e, a seguir, descodificada em impulsos eletrônicos. A maioria das pessoas tendia a assumir que a informação estava ligada com o que ocorria com o entendimento entre um emissor (speaker) e um ouvinte (listener) durante o processo de conversação. Shannon, trabalhando nos laboratórios Bell, estava mais interessado no que poderia estar acontecendo na linha telefônica que unia o emissor/falante e o receptor/ouvinte. Em seu artigo, os conceitos fundamentais da teoria da informação — ruído, redundância e entropia — são reunidos em uma apresentação matemática sistematizada. Aqui o bit, o dígito binário básico para todo processamento de dados, aparece pela primeira vez como um quantum de informação, uma unidade claramente mensurável pela qual a capacidade de transmissão de toda tecnologia de comunicação pode ser avaliada. Pode-se imaginar a utilidade de tal cálculo de tráfego de comunicações para os engenheiros elétricos que lidam com o problema de canalizar sinais através de fios telefônicos ou trazê-los desde satélites espaciais, e devendo fazer isso segundo a máxima economia e clareza possíveis. Mas desde o início, Shannon foi assediado pela confusão compreensível que surgiu entre seu uso restrito de “informação” e o significado

convencional da palavra. Segundo o seu ponto de vista, mesmo uma algaravia poderia ser considerada “informação”, se alguém quisesse transmiti-la. Além do mais, uma mensagem traduzida segundo um código secreto seria considerada como algaravia para qualquer um que não conhecesse o código; seria, porém, facilmente compreensível por alguém que o conhecesse. Os primeiros cientistas da informação facilmente chegavam a pensar desta forma com relação às mensagens e sua transmissão; muitos deles haviam servido como criptógrafos na guerra. Mesmo este era um modo estranho e desagradável de empregar a palavra e Shannon tinha que admiti-lo. Certa vez, ao explicar seu trabalho a um grupo de importantes cientistas que desafiavam sua extravagante definição, ele afirmou: “Penso que a palavra ‘informação’ talvez esteja causando problemas demais..., mas é difícil encontrar outra palavra para substituí-la. Deve-se ter em mente, de forma segura, que (a informação) é apenas uma medida da dificuldade de transmitir seqüências produzidas por alguma fonte de informações”.6 Durante algum tempo, Shannon tentou utilizar outra palavra: teoria das comunicações. Com este nome, o novo campo estaria mais distante do conteúdo significativo que associamos à informação. Uma moléstia, por exemplo, pode ser “comunicada” — uma transmissão importante, mas sem conteúdo inteligente. A certa altura, John von Neumann sugeriu — não muito proveitosamente — que Shannon utilizasse a palavra entropia. Mas informação tornou-se a palavra, uma escolha que Fritz Machlup chamou de “não-apropriada, enganosa e prejudicial” — o início da história do termo como “uma velhacaria que serve a múltiplas utilidades”.7 O que vemos aqui é um exemplo de algo que ocorreu inúmeras vezes anteriormente, na história da ciência. Uma palavra que tem um significado duradouro no senso comum é tirada do vocabulário público e, a seguir, enviesada pelos cientistas para adquirir uma definição nova e talvez bastante esotérica. O resultado pode ser uma grande e desafortunada confusão, mesmo entre os cientistas, que podem até mesmo vir a esquecer o significado anterior da palavra. A forma pela qual os físicos utilizam as palavras movimento, tempo, gravidade, simultaneidade, tem uma conexão apenas tênue com a experiência cotidiana e comum. A palavra ordem em termodinâmica tem uma aplicação especializada que diverge em alguns pontos de forma marcante em relação a seu significado comum. Talvez o exemplo mais conhecido de tal confusão é o da palavra inteligência, conforme foi reexpressado pelos psicólogos. Entre aqueles que aplicam os testes de QI, “inteligência” é algo que certos testes bastante exóticos medem. O resultado é conciso, numérico; uma contagem elevada significa elevada inteligência, contagens baixas significam baixa inteligência. Mas nem os testes nem a contagem de pontos têm qualquer relação com aquilo que consideramos como a inteligência real (ou sua ausência), uma vez que nós formamos nossa opinião a partir do cerne do vivido. Da mesma forma, em seu novo sentido técnico, informação passou a significar algo que pode ser codificado para transmissão em um canal que liga uma fonte a um receptor,

6 7

Warren Weaver, “The Mathematics of Communication”, Scientific American, jul. 1949, p. 12. Fritz Machlup, “Semantic Quirks in Studies of Information”, em The Study of Information, Fritz Machlup e Una Mansfield (eds.), Nova Iorque, Wiley, 1983, pp. 653-658. O prólogo e o epílogo de Machlup para esta antologia consiste em uma série de estudos incisivos a respeito dos muitos estranhos significados adquiridos pela palavra “informação” desde que o trabalho de Shannon foi publicado.

sem considerar seu conteúdo semântico. Para os propósitos de Shannon, podemos considerar como “informação”: E = mc2 Jesus salva. Não matarás. Eu penso, logo existo. Santos 3, Palmeiras 2. ‘Twas brillig and the slithy toves did gyre and gimble in the wabe’.* E, realmente, tais “frases” não são mais ou menos significativas do que qualquer seqüência casual de bits (x!9#44 jGH?566MRK) que eu poderia querer pagar ao enviar um telex através do continente. Conforme expôs certa vez o matemático Warren Weaver, explicando “a forma estranha pela qual, nesta teoria, a palavra ‘informação’ é utilizada... É surpreendente mas correto que, a partir de tal ponto de vista, duas mensagens, uma bastante carregada de significado e outra que não passasse de absurdo, podem ser equivalentes, com referência à informação”.8 Poderíamos esperar que alguém que lesse a lista de itens anteriormente relacionados repararia imediatamente que cada um apresenta um nível intelectual acentuadamente diverso. Uma afirmação é uma injunção moral; outra é uma fórmula matemática; outra é uma questão de menor importância; outra é um ensinamento teológico; e a última é uma bobagem deliberada (apesar de encantadora). Mas, uma vez que tenham sido transformadas em impulsos elétricos, e uma vez que os técnicos nos tenham acostumado a classificá-las, tais diferenças vitais — as quais seriam, ao contrário, importantes para a educação das crianças — não podem auxiliar, mas podem ser obscurecidas. Sem dúvida, o trabalho de Shannon é altamente técnico e portanto amplamente inacessível ao grande público; apesar disso, sua influência foi enorme. Como a teoria da informação se tornou amplamente aplicada em nossa economia altamente tecnológica, tem causado um impacto dobrado em nossa cultura popular. Em primeiro lugar, desde que “informação” tinha sido separada de seu significado convencional, a palavra passou a ser especialmente considerada. Seguindo a liderança dos teóricos da informação, cientistas e técnicos se sentiram livres para fazer uso cada vez mais amplo e impreciso da palavra. Em pouco tempo foi aplicada a qualquer sinal transmitido que poderia ser metaforicamente interpretado como “mensagem” — por exemplo, a descarga de um impulso nervoso. Utilizar o termo de forma tão liberal implica deixar de lado todo o cuidado com a qualidade ou com o cunho específico daquilo que está sendo comunicado. O resultado foi uma confusão progressiva de distinções intelectuais. Da mesma forma que é irrelevante para um físico (do ponto de vista do fenômeno apenas físico) se estamos medindo a queda de uma pedra ou a queda de um corpo humano, para o teórico da informação também não importa se estamos transmitindo um fato, um juízo, um clichê vazio, um ensinamento profundo, uma verdade sublime ou uma obscenidade grosseira.

* 8

Trecho do poema The Jabberwog, que se utiliza de uma brincadeira linguística conhecida como Porte-manteau. Weaver, “The mathematics of communication”, p. 12.

Tudo é “informação”. A palavra passa a ser amplamente generalizada, mas a um preço: o significado daquilo que é comunicado é nivelado, o mesmo ocorrendo com o valor. O efeito é similar àquele que a teoria matemática dos jogos tinha sobre o que pensavam as pessoas nos anos 50 e 60. Segundo o ponto de vista dos teóricos de jogos, poderíamos considerar como “jogos”: xadrez, pôquer, investimentos no mercado, discussões entre pais e filhos, negociações coletivas, guerra termonuclear — isto no sentido de que certas estratégias poderiam ser aplicadas a todos esses itens. Este foi um insight valioso em inúmeras formas de competição e negociação, mas foi adquirido a um custo elevado. Ao redor da teoria dos jogos, surgiram obras literárias e discussões sobre estratégia militar; esses autores se sentiram livres para discutir a aniquilação da raça humana tão casualmente quanto alguém poderia discutir numa partida de baralho. Afinal de contas, eram apenas diferentes tipos de “jogos”. Se quisermos fazer um balanço, o resultado desta prestidigitação foi uma lamentável mistificação sofrida pelo público, que passou a encarar as discussões perpassadas por essa terminologia esotérica (sempre repleta de muitos números) como intimidativa e autoritária. Em segundo lugar, a teoria da informação funcionou. Em seu próprio campo de aplicação, proporcionou aos engenheiros eletricistas um instrumento poderoso que contribuiu significativamente para uma inovação rápida. Com o UNIVAC, o computador original de válvulas atingiu seu limite de desenvolvimento e as máquinas eram ainda muito grandes e vagarosas para executar programas realmente sofisticados. Contudo, durante os anos 50 e 60, tais limitações foram superadas com o desenvolvimento do transistor e do circuito integrado. Estes condutores altamente miniaturizados permitiram que o computador fosse compactado e que suas funções fossem bastante aceleradas. Ao mesmo tempo, também graças ao trabalho de Shannon, o computador encontrou seu caminho na rede de telecomunicações mundial que germinava, de forma que seu poder poderia estender-se além do uso local. Isto permitiu a comunicação entre computadores através de grandes distâncias e finalmente, com desenvolvimento dos satélites espaciais, pode-se obter o contato instantâneo ao redor de todo o mundo. Enquanto o computador encolhia fisicamente até o tamanho de uma escrivaninha, assumia um novo tamanho “eletrônico”, que excedia toda a tecnologia com relação a seu poder. Atualmente, esses dois desenvolvimentos — miniaturização e evolução de telecomunicações — permitiram até mesmo ao mais simples computador ser ligado a redes de informação que se estendem por todo o planeta, dando a ele, segundo a perspectiva de alguns entusiastas, as dimensões de um cérebro mundial. Realizações de tipo tão surpreendente iriam certamente deslocar o entendimento da informação das pessoas (como fontes ou receptores), até as novas e excitantes técnicas de comunicação. Isto ocorre devido ao fato de que o principal interesse daqueles que utilizam a teoria da informação é a aparelhagem (apparatus) e não o conteúdo. A esse respeito a teoria nem mesmo exige fonte ou receptor humanos nos extremos da aparelhagem. A fonte poderia justamente ser um míssil balístico registrando sua trajetória em um radar; o receptor poderia ser um computador programado para o contra-ataque. Tal situação cumpre todos os requisitos matemáticos da teoria. Graças ao elevado sucesso da teoria da informação vivemos em um tempo em que a tecnologia das comunicações tem avançado a uma velocidade cega; mas aquilo que as pessoas devem dizer umas às outras, amparadas nessa tecnologia, não mostra desenvolvimento comparável. Além disso, na presença de uma tecnologia tão engenhosa, é

fácil concluir que justamente por termos a habilidade de transmitir maior quantidade de bits eletrônicos de forma mais rápida e para uma quantidade de pessoas mais elevada do que nunca é que estamos fazendo um progresso cultural real — e que a essência deste progresso é a tecnologia da informação.

O biocomputador Wiener e Shannon reconceitualizaram radicalmente o significado da informação, dando ao termo uma nova precisão matemática, sem a qual o computador nunca poderia ter-se desenvolvido tão além do poder do UNIVAC. Mas o trabalho profissional desses homens foi esotérico demais para atingir um auditório que não fosse composto por lógicos e técnicos. Para o público em geral, a imagem intrigante sugerida por Wiener em The Human Use of Human Beings — de que a informação é a base da vida, encontrou seu apoio mais contundente em uma área inesperada: a biologia, ou melhor, a nova biologia, em que estava ocorrendo a revolução científica mais divulgada desde Darwin. Em 1952, os microbiologistas James Watson e Francis Crick anunciaram que tinham resolvido o principal problema da biologia moderna. Tinham quebrado o “código genético” profundamente escondido na estrutura molecular do DNA. O próprio uso da palavra código nesse contexto era significativo. Por um lado, parecia imediatamente ligar as descobertas dos biólogos àquelas dos novos teóricos da informação, cujo trabalho tinha muita relação com a “codificação” da informação. A palavra também carregava consigo a sensação de uma história policial e, de fato, retornava ao uso original do computador na Inglaterra: quebrar o código secreto alemão durante a Segunda Guerra Mundial. Tão logo Watson e Crick publicaram sua descoberta, a molécula de DNA começou a ser vista universalmente como uma espécie de aparelho cibernético minúsculo que armazenava e processava bits de dados codificados quimicamente. Estas mensagens codificadas supostamente controlariam processos físicos discretos na reprodução de coisas vivas. Logo, o código completo da hélice dupla seria arranjado e sua mensagem poderia ser lida bit após bit, como na memória de um computador. Conforme a descrição de John Pfeiffer, do MIT, da função do DNA, em um documentário de televisão em 1960 na CBS, “os padrões de programa de bases químicas podem ser comparados a perfurações ou marcas magnéticas padronizadas, feitas em fitas de papel que alimentam os computadores eletrônicos”.9 O “programa” do DNA acabou revelando-se mais complicado, mas, nesta primeira fase entusiástica, parecia que a proposição de Wiener tinha sido confirmada: a cibernética e a biologia tinham descoberto uma base comum. Desde o princípio, os conceitos da nova biologia tiveram uma ligação tão forte com a linguagem e o imaginário da ciência da informação que é quase impossível imaginar o desenvolvimento desse campo sem o auxílio do paradigma do computador. Um biólogo identifica as “ferramentas teóricas” que permitiram o acesso à química da vida como sendo as novas ciências associadas ao desenvolvimento dos computadores. Teorias de “controle”, feedback e “transferência da informação” foram reunidas em 1948 pelo engenheiro e matemático americano Norbert Wiener sob o nome de 9

Pfeiffer, The Thinking Machine, p. 186. O livro é baseado no documentário de Pfeiffer para a televisão.

“cibernética”... Bioquímicos procuraram nesses novos conceitos aquilo que poderia demonstrar as formas pelas quais a célula controlava e regulava seu próprio metabolismo. A tarefa do cibernético, explica ele, é o estudo da transferência de informação: a conversão de informação de uma forma em outra — a voz humana em ondas de rádio e de volta ao som novamente, ou uma equação matemática complexa em uma série de perfurações numa fita, para alimentar um computador e, em seguida, em uma série de traços em rolos de fita magnética, na “memória de armazenamento” do computador... Para ele, a síntese de proteínas é justamente um caso similar. O mecanismo para garantir a exata reprodução de uma cadeia de proteínas por uma nova célula é o de transferência de informação da estrutura protéica da célula mãe para a filha.10 Poderíamos imaginar essa revolução na biologia se o modelo do computador não tivesse sido convenientemente disponível para ser adotado? Essa não seria a primeira vez que uma metáfora tecnológica teria servido para o surgimento de uma inovação científica. No século XVII, bem no início da ciência moderna, astrônomos e físicos se apropriaram do modelo do relógio para explicar a mecânica do sistema solar e logo ensinaram a sociedade de seu tempo a ver todo o universo como se fosse um instrumento com o mecanismo de um relógio. Mesmo que a nova biologia tenha pedido emprestado muito do modelo da cibernética preexistente, ela saldou seu débito de forma múltipla, cedendo informações que um místico não teria adquirido de nenhuma outra forma. Com efeito, tornou-se o segredo da vida. A partir de um mecanismo processador de dados tão minúsculo quanto a molécula de DNA, desenvolveu-se toda a sutil complexidade da vida na terra. Conforme afirmação confiante de John Pfeiffer, “esta é a automação no nível molecular”. Foi uma surpreendente demonstração do quanto se podia reunir a partir de poucas partículas de dados. Foi como se o próprio Deus, o primeiro grande relojoeiro do céu, tivesse se atualizado no computador cósmico. Após uma década, no início dos anos 60, tornou-se lugar-comum as pessoas falarem não apenas de seus genes, mas também de suas mentes e psiques como “programados”. Se ainda não era o caso, como tinha previsto Wiener, de que as máquinas cibernéticas se tornariam parecidas com seres humanos, as pessoas certamente estavam começando a ver a si próprias mais e mais como um certo tipo de máquina: um biocomputador. Ironicamente, quando a nova biologia se tornou um pouco mais velha, houve mudanças que tornaram o modelo cibernético não mais tão persuasivo. Primeiramente, parecera que o código genético seria muito mais fácil de ser decifrado do que realmente viria a ocorrer. Fora inicialmente assumido que a mensagem dos genes podia ser lida como se fosse caracterizada por muitas seqüências lineares e fixas de bases nucleotídicas, tal como a série digital de bits em um computador. Mais recentemente, à medida que os problemas de regulação do desenvolvimento ganharam preeminência nesse campo, os genes passaram a exigir mais habilidade para serem interpretados. O misterioso processo de “transposição”

10

Steven Rose, The Chemistry of Life, Baltimore, Penguin Books, 1970, pp. 17,162.

começou a atrair atenção. O trabalho de Barbara McClintock, entre outros, sugere que os genes podem realmente aprender sozinhos e se moverem no genoma, alterando quase que propositadamente seus significados da mesma forma que alteram sua posição em resposta a algum contexto mais amplo.11 Até agora os biólogos não encontraram um modelo para utilizar em tal contexto; e nem os computadores nem os sistemas cibernéticos parecem servir. Talvez o contexto seja algo assim como uma “idéia” sobre todo o organismo e sua relação com o ambiente. Se assim ocorre, então o modelo cibernético, que em muito contribuiu para o início da nova biologia, poderia ser tido como enganador, pois não há nenhum programa de computador que se comporte de tal forma. Se o fizesse, equivaleria a dizer que teria uma mente própria, e isto nada mais é do que ficção científica e não tecnologia útil. Entretanto, na falta de melhor opção, a imagem do processamento de dados subsiste, tornando a biologia do século XX mais mecanicista do que a física. Todo período histórico tem sua palavra mágica [god-word]. Houve uma Era da Fé, uma Era da Razão, uma Era da Descoberta. Nosso tempo foi indicado como a Era da Informação. Se o nome for de fato amplamente aceito, a conexão fortuita entre a cibernética e a nova biologia deverá ser reconhecida. Talvez haja outra razão para o aumento de popularidade e de generalização da palavra: a que nos transmite algo importante sobre uma era que está propensa a aceitar uma designação aparentemente tão descaracterizada. De maneira diversa de “fé”, “razão” ou “descoberta”, a informação apresenta um toque de significação confortavelmente seguro e evasivo. Não há nada dramático, nem elevados objetivos com relação a isso. É suave para o coração e, justamente em função disso, agradavelmente invulnerável. A informação tem sabor de neutralidade segura; é uma grande quantidade de fatos incontestáveis. Sob esse aspecto inocente encontra-se o ponto inicial de uma agenda política tecnocrática, que não deseja expor muito seus objetivos. Afinal de contas, o que se pode dizer contra a informação? Mas na América contemporânea mesmo uma palavra mágica não atinge a consciência popular de uma forma decisiva até que possa, de algum modo, ser comprada e vendida no mercado. Apenas quando isso ocorre é que ela pode ser cobiçada como um bem a ser possuído, pago e levado para casa. E, o mais importante, apenas depois de tudo isso está qualificada para receber a atenção dos anunciantes que têm o poder de transformá-la de um interesse em um desejo, de um desejo em uma necessidade. Durante os anos 50, a informação tinha passado a ser identificada com o segredo da vida. Por volta dos anos 70, tinha atingido um status mais elevado ainda. Tinha se tornado uma mercadoria — e, de fato, como vimos, “a mais valiosa mercadoria em business. Em qualquer business”.

11

Para o trabalho de Barbara McClintock, ver Evelyn Fox Keller, A Feeling for the Organism, Nova Iorque, W. H. Freeman, 1983.

2. Os negociantes de dados A high tech (tecnologia de ponta) e os oportunistas conservadores O merchandising de massa da informação é um dos últimos capítulos da grande história econômica de nosso tempo. Durante a melhor época da geração passada, a economia americana esteve mudando acentuadamente seu centro de gravidade, tanto financeiramente como demograficamente. O movimento ocorre para fora dos velhos centros urbanos do Nordeste/Centro-Oeste dos Estados Unidos, em direção à região quente [Sunbelt] e para longe das chaminés das indústrias, rumo ao complexo de novas e sofisticadas tecnologias eletrônicas/aeroespaciais, chamadas de high tech.* Essa transição histórica esteve visivelmente em andamento pelo menos desde os anos 60, ou seja, desde a construção dos locais de lançamento do Cabo Canaveral e do Centro Espacial Johnson em Houston. Mas não atingiu significativamente o conhecimento do público até o início da década de 80, quando dois best-sellers — Megatrends, de John Naisbitt, e The Third Wave, de Alvin Toffler — o acondicionaram para o consumo popular e o rotularam como o crescimento da “economia informacional”, o advento da Era da Informação.1 Tais livros pertencem à categoria bastante popular da literatura contemporânea chamada futurologia, uma mistura desajeitada de ciência social enlatada, de suplementos jornalísticos de domingo e profecia. Os frescos e joviais traços dos cenários do devir armados ao nível intelectual de um exemplar publicitário. Recortes sensacionais e tolas frases de efeito preenchem todas as páginas com excitante assombro; previsões resplandecentes sibilam por todos os lados. Ler Naisbitt e Toffler é como uma andança rápida e cheia de solavancos, na alameda principal de uma exposição mundial. Poderíamos até mesmo acreditar, a julgar pelas formulações simplistas da economia informacional, que breve estaremos vivendo uma dieta de discos flexíveis e passeando em ruas pavimentadas com microchips. Aparentemente, não há mais campos para cultivar, minérios para serem extraídos, ou bens da indústria pesada para fabricar; quando muito essas duradouras necessidades da vida são mencionadas de passagem e, a seguir, perdidas no chiado da energia eletrônica pura que resolve todas as necessidades humanas de alguma forma indolor e instantânea. Assim, Naisbitt, mapeando o megatrend (megacomércio) desde “a sociedade industrial até a sociedade da informação”, descreve a nova ordem econômica como aquela em que nós produzimos informação em massa da mesma forma que produzimos carros em quantidade. Na sociedade da informação, sistematizamos a produção de conhecimento e amplificamos o poder de nosso cérebro. Para utilizar uma

* 1

Tecnologia de ponta ou alta tecnologia. (N. T.) Todas as citações deste capítulo são de Naisbitt e Toffler, tiradas de seus livros: Megatrends, Nova Iorque, Warner Books, 1982, e The Third Wave, Nova Iorque, Morrow, 1980, respectivamente.

metáfora industrial, produzimos agora conhecimento em massa e este conhecimento é a força condutora de nossa economia. Em apenas três sentenças, pode-se notar que “informação” se transformou em sinônimo de “conhecimento”, como se não houvesse distinção significativa entre os dois; terminamos com a idéia de que o conhecimento está sendo produzido em massa. Mas uma vez que o conhecimento (da mesma forma que “o poder do cérebro”, se isso significa algo assim como a inteligência) é a criação de mentes individuais e tem muito a ver com a qualidade do pensamento, que relação — mesmo de um tipo metafórico — isto apresenta com uma linha de montagem que constrói carros a partir de partes intercambiáveis? Profundidade, originalidade, excelência, que têm sempre sido fatores na avaliação do conhecimento, têm sido perdidos na confusão da futurologia apressada. Como veremos, esta é uma responsabilidade que persegue todo esforço para inflacionar o valor cultural da informação. Naisbitt, contudo, não está entre aqueles que se detêm em distinções refinadas. Ao contrário, ele se apressa em estabelecer “uma teoria do conhecimento do valor para substituir a obsoleta teoria funcional do valor de Marx”, pois “em uma sociedade da informação, o valor é aumentado pelo conhecimento”. Isto o leva à conclusão de que o conhecimento (ou a informação?) é destinado a ser o produto principal (ou seria o serviço?) de nossa vida econômica no futuro próximo. Ele cita, ratificando, um especialista que observa: “Estamos nos exercitando para passarmos do business fabricado [manufacturing] ao business refletido [thinking]”. É difícil ver que uma passagem como essa (e ela é típica) não tem o menor significado, uma vez que há muitas confusões subjacentes. Uma economia industrial é fundamentalmente uma economia fabril; a própria high tech requer fabricação. A tecnologia é constituída por máquinas; as máquinas existem para produção de bens, no que se refere basicamente a alimentos, vestuário, abrigo e transporte — nossos requisitos de sobrevivência. Uma economia baseada na alta tecnologia (high tech) permanece uma economia de fabricação, mesmo se as fábricas forem automatizadas e o número de ocupações do setor de serviços for multiplicado. Mesmo no caso em que o capital industrial é exportado (Taiwan, Hong Kong, Coréia do Sul), a fabricação ainda assim não é eliminada da economia, mas apenas internacionalizada pelo mesmo proprietário. Pode ser, então, interessante perguntar por que está ocorrendo tal realocação e quem decidiu sua ocorrência. Poderíamos, então, descobrir que o movimento está ocorrendo em função das empresas multinacionais, que procuram força de trabalho não-organizada e barata, e subsídios de governos necessitados e cooperativos. Poderia ser importante perguntar, com relação a tais desenvolvimentos, quais são seus efeitos em nossa economia. Há, por exemplo, a necessidade de manter algum equilíbrio saudável entre a produção de bens e serviços, e podemos confiar somente nas forças de mercado para tal? Estes não são assuntos que preocupam os futurologistas. Responder a tais questões seria levantar a discussão sobre muitas áreas de controvérsia complicadas e desagradáveis, com relação a escolhas de investimento, custos e condições de trabalho nacionais ou no exterior, controle social do capital. Eles preferem assuntos mais frívolos: estilos de vida, novas mercadorias, modas de consumo. Principalmente, eles gastam longas páginas falando sobre bens, serviços, carreiras e divertimentos que serão disponíveis na Era da Informação

para profissionais endinheirados e famílias de classe média alta. Escrevem para descrever as vitrinas dos bons tempos que virão para aqueles que puderem custear estes benefícios. Mas se Naisbitt, Toffler e companhia são fracos em substância, eles contudo se excedem em uma espécie de tendência à não-controvérsia, que facilmente atrai o pessoal de business e os funcionários públicos na busca de vantagens “alimentares” agradavelmente embaladas para o pensamento. Assim, a agência de tributação de tecnologia [Office of Technology Assessment] foi bastante rápida para captar o tema, divulgando sombriamente em uma grande declaração que “os Estados Unidos se tornaram uma sociedade da informação em função do uso e da comunicação criativa da informação rumo a seu bemestar social e econômico”. O comitê nacional para aprimoramento da educação [National Committee on Excellence in Education] concorda em outro importante documento público, apressando-se a recomendar que todos os estudantes sejam obrigados a estudar, pelo menos seis meses, a ciência da computação.2 Por razões óbvias, AT&T endossa as opiniões econômicas de Naisbitt-Toffler em um anúncio, declarando de forma extravagante que “Gostemos ou não, a informação finalmente ultrapassou os bens materiais como nosso recurso básico”. É, realmente, “uma nova forma de capital, que é convincentemente a mais crítica com relação ao futuro da economia americana do que o capital-moeda”. De modo mais significativo, um contingente crescente de políticos que estão sempre à caça de boatos, cochichos e rápidas tomadas de cena, adotaram os prognósticos atraentes dos futurologistas. Nas eleições prévias de 1984 para a presidência, Gary Hart procurou ativar sua candidatura com “novas idéias”, associando vagamente a high tech com a solução para as dificuldades econômicas da América. Assim procedendo, ele estava planejando, com sua campanha, atingir um eleitorado desprezado pela velha guarda do partido democrata: os votantes das prósperas cidades da região Sul e os jovens profissionais de elevada instrução de todo o país. O gambito* falhou e ele não foi escolhido por seu partido, mas ele conseguiu estabelecer um contraste eficaz com a lealdade aparentemente retrógrada de Walter Mondale para com as cidades industriais decadentes da América e seus aborrecidos líderes de sindicatos, ainda atolados em problemas tão enfadonhos quanto garantias no emprego e salários de subsistência. (De forma não amável, a ala Mondale do partido foi chamada de “liberal reacionária”, principalmente devido a sua posição com referência à high tech). Mondale atraiu o eleitorado, desviou-se da retórica tendenciosa de Hart... e sofreu uma derrota esmagadora. Esta decisão “fatal” da liderança do partido democrata de arriscar a eleição com base em seu tradicional eleitorado blue collar** e as minorias étnicas abriu uma possibilidade notável para a política americana. A fronteira da high tech pode agora ser balizada antes pela ala direita radical do que pelos liberais de centro. Conservadores cruzados da região quente, como o congressista da Geórgia, Newt Gingrich, foram surpreendentemente rápidos para se apropriarem do glamour da Era da Informação para atingir seus próprios objetivos. Sua meta foi projetar um estilo vistoso e moderno de conservadorismo que se baseia nos futurologistas para criar uma impressão de uma 2

Congresso dos EUA, Office of Technological Assessment, Information Technology and Its Impact on American Education, Government Printing Office, Washington, D. C., 1982; National Committee on Excellence in Education, A Nation at Risk, Government Printing Office, Washington, D. C., 1983. * Abertura de partida no xadrez, em que é sacrificado um peão para se obter vantagem de posição. (N. T.) ** Operários; palavra para fazer contraposição com white collar. (N. T.)

confiança com relação ao futuro. “A força mais poderosa para mudar nossa sociedade é a revolução da informação”, afirma Gingrich em um livro (Window of Opportunity), que traz os endossos do presidente Reagan, do congressista Jack Kemp e de Alvin Toffler. “É tão poderosa quanto sugere a palavra ‘revolução’”.3 O texto de Gingrich oferece uma rápida excursão até as fronteiras da high tech: computadores, aeroespaço, telecomunicações. Mesmo as palavras de Carl Sagan têm o fito de validar a importância do “salto do homem para o espaço”, que Gingrich, presidente do caucus do congresso espacial, vê como uma oportunidade comercial fundamental. Realmente, uma vez que os “trens” espaciais tenham sido equipados de modo a acomodar turistas, teremos o “populismo no espaço”. Juntamente com Jack Kemp e outros congressistas do grupo direitista, Gingrich organizou a Conservative Opportunity Society como uma voz política importante da Era da Informação.4 A COS se define como partidária da “high tech, futurista, populista e conservadora”. É “antiimpostos, antiestado do bem-estar social e anticomunista”. Sua intenção é remover a imagem circunspecta e freqüentemente austera que há muito caracteriza o conservadorismo. Ao contrário, os oportunistas conservadores pretendem proporcionar um contraste agudo e surpreendente com relação àquilo que Gingrich vê como o “desalento e o desespero” dos liberais, com seu interesse pelos limites ambientais do crescimento. A COS opta por um “futuro brilhante e otimista”, que está em viva cadência com o progresso tecnológico. Nos conturbados anos 60, observa Gingrich, “nossos hippies eclipsaram nossos astronautas e o viés anti-tecnológico da esquerda eclipsou as possibilidades da era do computador”. Havia “uma epidemia de aversão tecnológica” que levava “a políticas negativas dos burocratas do estado do bem-estar social”. Produzia também uma imoralidade que se espalhava por todos os cantos, a licenciosidade sexual e uma queda geral dos valores patrióticos e tradicionais: “uma vida sem Deus”. A COS pretende mudar tudo isso. Ela espera que através de concessões maciças de impostos temporários possa oferecer aos empresários da high tech os incentivos necessários para uma nova era de crescimento. Crescimento, insistem os oportunistas conservadores, é a panacéia para todas as doenças da nação: desemprego, inflação, desequilíbrios comerciais. Há mesmo alguns membros ousados do movimento que estão preparados para deitar fora o conservadorismo fiscal, pois é um resíduo sem brilho do passado. O economista Paul C. Roberts, outrora assistente de Jack Kemp, insiste que mesmo os tipos de déficits sem precedentes acumulados durante a administração Reagan devem ser vistos como “transitórios ou temporários” e deveriam ser solucionados através dos empréstimos que o Departamento do Tesouro necessita fazer.5 No céu ensolarado da high tech os déficits são apenas nuvens passageiras. Mais cedo ou mais tarde, a economia informacional superará seus débitos, não importando seu montante. Se a COS for bem-sucedida em seu lance agressivo ao assumir a direção do Partido Republicano, o resultado será uma estranha infusão de religião antiga, ética social darwinista, chauvinismo anticomunista e tecnologia à la Flash Gordon. Tal aliança poderosa de grupos de direita das regiões quentes e da era espacial foi prevista pelo astuto analista conservador Kevin Phillips no longínquo ano de 1968. Chamou-a “a maioria 3

New Gingrich, Window of Opportunity, Nova Iorque, TOR Books, 1984, p. 68. Para uma literatura a respeito da “Conservative Opportunity Society” [sociedade dos oportunistas conservadores], escrever para sua sede em 106, North Carolina Street, S. E., Washington, D. C. 20003. Gingrich revê as origens e fala sobre os membros do grupo em seu pós-escrito a Window of Opportunity. Ver também Conservative Digest de agosto de 1984. 5 Paul Craig Roberts, The Supply-Side Revolution, Harvard University Press, Cambridge, 1984, p. 310. 4

republicana emergente” e reconheceu Ronald Reagan como um de seus líderes mais promissores.6 Vários anos depois, em 1982, o futurólogo também conservador Herman Kahn estaria impulsionando esta maioria, qualificando-a como o segredo do “advento estrondoso” da presidência de Reagan.7 Ele a descreveu como a coalizão de conservadores sociais e econômicos, assentados no dinheiro e na índole das regiões quentes. Tudo o que essa aliança exigia, conforme argumentava Kahn, se queria tornar a ala direita equivalente ao New Deal de Roosevelt, era “uma ideologia do progresso” para compensar a filosofia do não crescimento econômico que se tornou um tema de discussão durante os anos 70. E isto ele pensou ter constatado no dinamismo futurista da economia informacional, que garantia o acesso à via que levava ao “mundo das oportunidades, glamour, opções”.

A política das regiões quentes e o estado de guerra Segundo os futurologistas e seus discípulos conservadores, a ascensão da economia informacional na América é uma questão de destino industrial evidente, uma mudança tão vasta e inevitável que poderia ser quase que um processo natural além do controle humano. Dificilmente isto ocorre. A conversão para a high tech é o resultado de escolhas deliberadas por parte de nossas lideranças políticas e das corporações. Está intimamente ligada à constante militarização de nossa vida econômica desde o início da Segunda Guerra Mundial, sem a qual muito pouco de nossa tecnologia eletrônica e aeroespacial existiriam hoje. Em suas pesquisas e em seu desenvolvimento, as indústrias de high tech permanecem significativamente atadas ao orçamento do Pentágono. Isto tem sido claro há muito com relação à NASA e ao poder nuclear; além disso, os dois mais importantes investimentos em desenvolvimento de computadores da nação são financiados e controlados por fontes militares. E, o mais importante, inclui-se aí a Agência de Técnicas de Processamento de Informação do Departamento de Defesa e o consórcio recém-constituído de doze empresas, a Corporação de Tecnologia em Computadores e Microeletrônica em Austin, Texas, com a presidência de um membro do Conselho de Segurança Nacional e da CIA.8 Em 1985, nada menos do que 40 bilhões de dólares foram gastos em eletrônica pelo Pentágono. Esta ligação com a instituição militar se tornará mais intensa se os EUA adotarem a esmagadoramente extravagante Iniciativa de Defesa Estratégica (o sistema de mísseis de defesa “guerra nas estrelas”), que começou a adquirir apoio político e corporativo bem determinado durante a administração Reagan. É revelador que membros da COS como Gingrich e Kemp sejam cuidadosos ao fazerem um apelo especial para gastos militares bem ampliados como parte de seu programa, sem considerar os déficits que possam resultar. Apesar da firme insistência dos oportunistas conservadores com relação a uma redução drástica de sua dimensão e de seus custos, o Pentágono é sempre dispensado de tal prescrição. Isto é especialmente compreensível por parte dos conservadores das regiões quentes; a prosperidade ocorrida há não muito em estados como a Geórgia, de Gingrich, é bastante dependente da “dádiva” dos 6

Kevin P. Philips, The Emerging Republican Majority, New Rochelle, Nova Iorque, Arlington House, 1969. Herman Kahn, The Corning Boom, Nova Iorque, Simon & Schuster, 1982. 8 Ver “Defense Men Take Control of America’s Computers”, New Scientist, Londres, 26.5.1983, p. 526. 7

militares. Em 1985, os estados das regiões quentes receberam 60% de 260 bilhões de dólares, em contratos, do Departamento de Defesa; isto é mais que o dobro do quinhão por eles recebido em meados dos anos 50. Somente a Califórnia — e principalmente a Califórnia meridional, onde conservadores de extrema direita como Barry Goldwater e Ronald Reagan sempre encontraram seu mais firme apoio — recebe mais de 2,5 vezes as despesas de defesa de qualquer outro estado, uma quarta parte do orçamento do Pentágono para 85. Enquanto isso, nos últimos 30 anos, os estados do Centro-Oeste viram sua parcela dos contratos militares minguar de um terço até um décimo; o único modo pelo qual muitas empresas desta parte do país podem usufruir de uma parte do orçamento de defesa é se tornando subcontratadas das companhias das regiões quentes.9 Os ares mais conservadores nos anos 70 e 80 certamente têm muita relação com a riqueza e o poder de voto das regiões quentes, a fortaleza tradicional das comunidades isoladas, igrejas evangélicas e, em geral, dos valores nativistas. Mas, por sua vez, esta inclinação política para a direita resulta, em larga medida, em função do desvio constante, por parte do Oeste e do Sul, das verbas militares durante a geração passada. A economia informacional pareceria surgir não apenas com tendência militar, mas também com uma população conservadora incorporada. É graças ao poder financeiro provido por este compromisso com o estado de conflito armado que a comunidade de corporações foi capaz de executar a ruptura violenta com o passado industrial da América. O advento da economia informacional, em grande escala, significa que nossas principais corporações estão rapidamente recolhendo duas gerações de capital já antigo e enviando-o ao exterior. Ao proceder assim, com o apoio dos ricos contratos militares, estão se liberando da mão-de-obra mais altamente sindicalizada, de forma que os investimentos possam ser transferidos para campos mais lucrativos. High tech não é apenas cheia de glamour, ela é terrivelmente compensatória, particularmente no caso de aqueles que recebem os lucros serem dispensados de pagar os custos sociais que resultam da derrubada dos velhos centros industriais e do desemprego de sua força de trabalho, para realocá-las nos estados quentes do Sul onde reina o “direito ao trabalho” (não sindicalizado). Tais custos de transição são, na maioria das vezes, “externalizados” pelas empresas de high tech, ou seja, eles são varridos do alcance da vista e ignorados. Mas permanece uma obrigação da economia global que deve ser eventualmente paga. Por exemplo, dois terços dos “novos empregos” criados em nossa economia no final dos anos 70 e nos anos 80, e tão alardeados pelas administrações Carter e Reagan, são de baixa qualificação e de período não-integral. Nas ocasiões em que trabalhadores fabris altamente treinados são forçados a pegarem empregos como porteiros ou guardas de segurança, eles se tornam economicamente abatidos. Com eles, setores inteiros da economia caem para um padrão de vida inferior e expectativas bastante diminuídas. O movimento trabalhista vê esta erosão dos empregos industriais de classe média como o início de uma sociedade “de duas camadas”, com cada vez menos empregos de alta remuneração na camada superior altamente especializada e não sindicalizada.10 9

As estatísticas para os gastos com defesa de 1985 vieram de um relato na National Public Radio, feito por David Malthus em 8.7.1985. 10 Ver Henry Levin e Russell Rumberger, “The Low-Skill Future of High Tech”, Technology Review, agosto/setembro de 1983. Ver também James Fallows, “America’s Changing Economic Landscape”, Atlantic, março de 1985, para um tributo otimista da ascensão da high tech e das regiões quentes, mas que não questiona o fato de que o setor de serviços de remuneração mais baixa é justamente aquele em que a maioria dos trabalhadores demitidos tem que procurar empregos. Para uma leitura AFL-CIO da situação, ver Deindustrialization and the Two Tier Society, Industrial Union Department (AFL-CIO) Publication, Washington, D. C., 1984.

Com relação a isto, mesmo aqueles que encontram trabalho em high tech podem ser contratados para posições de baixa remuneração, monótonas e não sindicalizadas. Está se tornando notório que as novas instalações de microchips, apesar de quão fascinante possa parecer seu trabalho fora das paredes das fábricas, estão próximas — com referência aos empregados menos especializados — das administrações que sugam ao máximo seus empregados, principalmente da força de trabalho feminina por elas empregada. High tech é, de fato, um exemplo de sociedade de duas camadas, com mobilidade praticamente nula entre elas. No cume estão os empresários, inventores e engenheiros, que vivem e se movimentam na pista de alta velocidade das indústrias. No fundo estão os trabalhadores da produção, para quem, nas palavras de Everett Rogers e Judith Larsen, “Os vales de silício representam baixos salários, empregos sem perspectiva, trabalho não especializado e tedioso, e exposição a alguns dos mais elevados riscos de saúde em toda a indústria americana. É o lado negro dos laboratórios cintilantes que nem churrascadas, balões, ou mesmo o repouso remunerado podem esconder”.11 Para aqueles que reconhecem a economia informacional, algumas das informações mais valiosas neste ramo de negócios é o know-how de destruidores profissionais de sindicatos, que encontraram um dos melhores mercados na high tech. Essa indústria permanece quase que completamente sem organização trabalhista nos EUA. Mesmo assim, sempre à procura de custos inferiores, a linha de montagem demonstrou ser altamente exportável; é facilmente realocável na Ásia ou na América Latina, onde a força de trabalho é em geral mais jovem e onde há mais mulheres, ou seja, é mais dócil e mais barata.12 Além da insegurança daqueles que trabalham na economia informacional, coloca-se também a preeminência de investimentos especulativos e arriscados nas indústrias de high tech, em que, desde o início dos anos 80, temos visto mercados inteiros — como o de video games, computadores domésticos, telefones celulares — orbitarem desde o boom até a falência. Aqueles que comemoram a economia informacional fazem vista grossa para o fato de que a high tech, se deve ser considerada uma contribuição a longo prazo para a riqueza da nação como um todo, precisa ser inserida no sistema industrial existente, utilizando suas habilidades, sua mão-de-obra, seus recursos e centros fabris. Ela não pode suplantar abruptamente esse sistema e esperar permanecer sozinha. Mas é justamente isso que futurologistas como Naisbitt sugerem, ao descrever a “economia informacional” como algo que se mantém em duro contraste com a “economia industrial” e deve agora substituí-la — não apenas com uma nova tecnologia, mas com uma obscura e nova “teoria do conhecimento do valor”. Tal esquema histórico é disparatado. A tecnologia da informação é um resultado do sistema industrial existente, que sempre foi dependente do “conhecimento” que perpassa a invenção, a administração e o marketing. Da mesma forma que as tecnologias elétricas, automotoras ou químicas que a precederam, a high tech inaugura um novo estágio na seqüência do processo industrial. Essas tecnologias não substituem umas às outras; elas se sobrepõem, se compõem e devem estar coordenadas. Na high tech americana, mesmo os entusiastas do computador permanecem mais dependentes, para sua sobrevivência, dos trabalhadores do campo que fazem a colheita e dos trabalhadores da construção civil que erguem os prédios do que dos programadores de computadores ou dos consultores de investimentos. 11 12

Rogers e Larsen, Silicon Valley Fever: Growth of High Technology Culture, Nova Iorque, Basic Books, 1984, p. 189. Annette Fuentes e Barbara Ehrenreich, Women in the Global Factory, Boston, South End Press, 1983, pp. 48-56.

A high tech está encravada na textura da história industrial; deve, portanto, ser planejada. De outro modo, deixada aos caprichos e impulsos do mercado conforme preferem os oportunistas conservadores, se transformará no mesmo tipo de salto brusco e humanamente devastador (de um estágio econômico para outro) que produziu as piores privações da primeira revolução industrial. Nenhuma sociedade humana escolheria uma segunda revolução industrial que repetisse os mesmos erros. Mas, inevitavelmente, à medida que os recursos econômicos da nação são lançados na high tech, o resultado desse investimento deve ser vendido. Alguns desses produtos, os mísseis, os ônibus espaciais, as armas de laser, estarão sempre restritos principalmente aos compradores militares. Por outro lado, a indústria de computadores, apesar de bastante dependente dos contratos militares, também tem acesso a um mercado civil razoável, pelo menos para seus equipamentos mais caros, em business e administração pública. Surge a questão: a última geração de micro e minicomputadores pode ser negociada em uma escala mais ampla como itens de consumo de massa? O público em geral pode ser persuadido a ver a informação como uma necessidade da vida moderna da mesma forma pela qual viu a geladeira, o automóvel e a televisão como necessidades? Os fabricantes de computadores estão apostando bilhões nisso. Seu jogo rendeu fantasticamente ou causou perdas desastrosas em cada virada do ciclo dos negócios. Mas é primordialmente a partir de sua publicidade e comercialização que a informação começou a adquirir em nossa sociedade uma característica de culto, com inúmeros seguidores.

Megahype No início dos anos 80, descobri-me trabalhando em um romance de ficção científica sobre computadores e cientistas da computação.13 Como parte do processo, consultei vários especialistas do campo para obter um panorama que permitisse a avaliação da situação atual do assunto e de seu provável futuro próximo. Já que a tecnologia da informação está mudando rapidamente, senti a necessidade de uma base para o romance, de forma que eu pudesse ter uma idéia razoavelmente segura daquilo que os computadores poderiam (ou não) fazer quando o livro fosse publicado e nos quatro ou cinco anos subseqüentes — queria estar seguro de onde terminavam os fatos e onde começava a realidade. Após conversar com inúmeros especialistas e entusiastas, alguns acadêmicos, alguns especialistas na indústria, compreendi que tinha um problema. Com referência ao poder dos computadores, quase todos que encontrei tinham propensão a um otimismo excessivamente exagerado. Traduções feitas por máquinas... conversas em linguagem comum... total mestria em xadrez... reconhecimento de rostos e vozes... escrita criativa... tomada de decisões legais — nãd havia nada que essas máquinas não pudessem fazer, naquele momento ou em breve. O quão breve, era isso o que eu queria saber. A resposta nunca era clara o suficiente. Possivelmente no próximo ano, certamente em aproximadamente dois ou três, com segurança por volta do fim da década. De qualquer modo, mais cedo do que você poderia estar imaginando. Em uma discussão da qual participei, uma das maiores autoridades mundiais em inteligência artificial sustentou firme convicção de que um 13

A novela era Bugs, Nova Iorque, Doubleday, 1981; Nova Iorque, Pocket Books, 1983.

computador capaz de ultrapassar a inteligência humana em todos os campos seria sem dúvida construído... entre os próximos cinco ou quinhentos anos. Pois, em princípio (esta expressão é repetida por todos os cantos como uma resposta litúrgica), nada é impossível. Logo ficou claro para mim de que tipo de otimismo se tratava e por que eu estava tendo tanto trabalho para obter previsões definidas a respeito do futuro dos computadores. Todas essas pessoas — tanto os acadêmicos como os especialistas das indústrias — faziam parte da economia informacional. Eles trabalhavam em empresas ligadas a ela ou estavam ligados a programas acadêmicos financiados até certo ponto por tais firmas ou por seus clientes militares. Sob o ponto de vista dessas fontes de fundos, era importante estar atualizado e otimista a respeito de computadores, pois eram a sua mercadoria. Os especialistas adotavam este ponto de vista com facilidade, uma vez que a “saúde” da indústria de computadores era o sangue que vivificava sua profissão. Não somente isso, mas também os meios de comunicação, que sempre solicitam entrevistas, aguardando ansiosos por previsões surpreendentes; os jornalistas desejam relatos autorizados que corroborem os futurologistas. Por sua vez, reportagens desse tipo realimentam as projeções industriais a respeito do crescimento futuro, o que auxilia a vender estoques e a atrair capitais de risco. Em suma, os especialistas estão vendendo. Tinham adquirido o hábito de extrapolar assombrosas “hipertendências” para a imprensa, o público, as agências de financiamento. Foi apenas quando eu apliquei uma persistente pressão cética — ou seja, com relação à tradução mecanizada ou à habilidade dos computadores para “1er” e “resumir” um livro, uma estória, uma palestra — que pude finalmente evidenciar uma admissão honesta de quão extremamente complicada eram tais questões e quão longe estávamos de uma solução. Mas no mercado essa pressão não existe, e o otimismo fica livre para caminhar entre as nuvens até alcançar o zénite do céu azul — e nesta altitude não é distinguível da hiperpublicidade convencional. Se fosse possível acreditar nas relações públicas da indústria de computadores, o processamento eletrônico de dados teria se tornado a pulsação da economia. Sem ele, nossas vidas ter-se-iam paralisado. Isto pode bem ser verdade em uma série de atividades no mundo dos negócios. Quando os computadores não funcionam, o mesmo ocorre com os bancos, e os investimentos não podem ser realizados, os aviões não deixam o solo nem as passagens podem ser vendidas, os jornais não podem ser impressos, relações não podem ser verificadas, contas não podem ser emitidas ou pagas, mais e mais linhas de montagem devem ficar inativas. Muito provavelmente a nação não poderia ser defendida de aniquilação instantânea por seus inimigos. É sensato confiar a guarda da sociedade de forma tão ampla a uma tecnologia que é tão vulnerável a avarias, erros, sabotagem e tramas criminosas? Os fabricantes de computadores e os cientistas da computação não têm dúvida de que é. E, tendo atingido as alturas de comando da economia, eles estão se movendo rapidamente para encontrar outras fronteiras para investimentos. O esforço usual é para introduzir o microcomputador em quantos aspectos da vida cotidiana for possível, de forma que nossas casas, locais de trabalho e escolas sejam em breve bastante dependentes do fluxo de informação eletrônica. Sem uma provisão constante, as crianças não poderão aprender, os talões de cheques não serão conferidos, compromissos não serão marcados, impostos não serão pagos... possivelmente o jantar não chegará à mesa. A força de trabalho de escritórios é normalmente um dos principais objetivos dos negociantes de dados. Como o processador de palavras e o arquivo eletrônico, o computador

ocupa um lugar óbvio no mundo do colarinho branco. Com tamanho poder, já de início entre as ocupações de escrituração e arquivo, a indústria de computadores elevou as expectativas de completa automação dos escritórios, em que o próprio papel ficará obsoleto. Na superfície do vídeo da “escrivaninha inteligente”, dizem-nos, estarão em breve flutuando simulações de memos e relatórios. Todos os registros da empresa estarão on-line, bancos de dados para quaisquer propósitos serão instantaneamente acessíveis por meio de programas amplamente integrados em uma unidade organizativa-contábil-administrativa. Documentos processados através de editores de textos serão distribuídos por toda parte e simultaneamente arquivados completamente catalogados. Cartas eletrônicas serão a regra. Equipamento de reconhecimento de discurso cuidará daquilo que for ditado; tudo funcionará através de um comando de voz; mesmo o teclado do computador será obsoleto. Quando for necessário dirigir uma reunião, isto será feito através de teleconferência entre colegas de trabalho e contatos com todos os locais do edifício ou ao redor do mundo. O escritório completamente computadorizado fará pelo trabalho de colarinho branco aquilo que a linha de montagem automatizada fez nas fábricas: “poupará” trabalho através de eliminação, a começar pelos arquivistas e pelas secretárias, mas logo atingindo os executivos “júnior” e os vendedores. Possivelmente essas vítimas do progresso encontrarão trabalho no Burger King, onde as caixas registradoras são equipadas com imagens e não com números, ou como porteiros que também fazem a limpeza diária — pelo menos até que tais empregos também passem a ser realizados por robôs. Talvez não haja em breve ninguém nos ziggurats* de nossas cidades, mas uma pequena elite de tomadores de decisão em altos níveis, circundados por aparelhos eletrônicos. Estarão em contato com outros de mesmo nível ao redor do mundo, a única força de trabalho com remuneração decente que ainda resta na economia informacional, resolvendo desafios específicos, transferindo fundos de banco para banco à velocidade da luz. À medida que passa o tempo, haverá cada vez menos para eles fazerem, pois mesmo a tomada de decisões pode ser programada. Conforme um grupo de cientistas da administração observou: Não há razão para que não possamos programar computadores que realmente tomem decisões e, através do meio adequado, seja papel ou outro output, implementem suas decisões iniciando a ação. Não há diferença intrínseca entre uma decisão de business e as decisões que estão envolvidas em um sistema de controle de processos de produção — uma área considerada como perfeitamente legítima para a computadorização.14 Nesse ponto, mesmo a direção da corporação não terá de se reportar ao escritório. A maior parte daquilo que deve ser feito via intervenção humana será feito fora de casa. Temse uma visão assustadora do futuro altamente industrial: um panorama de torres de vidro vazias em bairros em que apenas máquinas trabalham interligadas com outras máquinas. Com referência ao lar, os futurologistas apresentam, da mesma forma, um cenário computadorizado. Tomar-se-á um “centro de informações” organizado ao redor de um computador que está ligado a um conjunto mundial de bancos de dados. A nova família *

Espécie de centro, cujas proporções atingiram dimensão fora do comum. Alusão aos antigos centros religiosos da Mesopotâmia. (N. T.) 14 Tim Eiloart e Nigel Searle, “Business Games off the Shelf”, New Scientist, Londres, 28 de setembro de 1972, p. 579. Ver também Jon Stewart, “The Eletronic Office of the Future”, San Francisco Chronicle, relato especial, 18 de setembro de 1979, e M. David Stone, “The Intelligent Desk”, Science Digest, março de 1985, pp. 78-79.

eletrônica lerá sua correspondência e as notícias da hora em uma tela de vídeo; fará transações bancárias, compras, investimentos, aprenderá e jogará neste terminal interativo. Ninguém necessita nem mesmo deixar a casa, que se tornará escola e local de trabalho, devido à possibilidade de acesso às redes de informação que circundam a Terra. Os japoneses já estão vendendo agressivamente casas automatizadas projetadas por computador. Inúmeros sistemas de automação integrada e casas também apareceram em alguns setores mais afluentes do mercado americano. Eles têm nomes ardilosos: Coordenador da Casa, A Casa de Amanhã, A Casa Inteligente. Tendo-se uma instalação elétrica adequada para adaptar o painel principal, a casa pode ser automaticamente ventilada, aquecida ou resfriada sem intervenção humana; não há necessidade de acionar manualmente o termostato ou abrir a janela. A casa será monitorada continuamente para que sejam garantidos os serviços de emergência e a segurança. Se alguém vai, à noite, de um quarto a outro, não terá nem mesmo a necessidade de ligar ou desligar os interruptores de luz; o eficiente computador “perceberá” e responderá a qualquer movimento. Dispositivos falantes darão as recomendações e os avisos a respeito de seu próprio uso. Alvin Toffler antecipa a existência de uma casa futura tão eletronicamente responsiva que se detectasse um vazamento no banheiro, faria imediatamente uma consulta aos outros computadores de outras casas na mesma rua para encontrar o nome de um bom encanador — e programaria o conserto. Ele chama a isto de vida em um “meio ambiente inteligente”.15 Mesmo a amizade e o calor humano serão intermediados: o terminal de cada casa será ligado a numerosas juntas de comunicação via computador, que fornecerão recomendações, fofocas, piadas e outros serviços — todo o comércio social para o qual as pessoas sempre necessitam ir para encontrar outros seres humanos em clubes, cafés, pubs, parques e bares. Toffler prediz o surgimento das “famílias eletrônicas ampliadas”, espécies de comunidades computadorizadas que poderiam estender-se pelos continentes. Outro entusiasta, Myron Krueger, espera ver o computador amadurecer até uma “tecnologia íntima”, que poderia ser programada para o “sexo eletrônico”. Por exemplo: Uma sequência de ações que requerem normalmente duas mãos, poderiam ser executadas automaticamente, permitindo ao amante deixar sua atenção fluir para qualquer outro lugar, da mesma forma que se pode estabelecer ritmos em um órgão eletrônico. Realmente, é possível que os concertos sexuais possam fazer as massas do futuro se erguerem... É possível postular circunstâncias que conduziriam a tal desenvolvimento e levar muitas pessoas a aceitarem-no.16 Um artigo na revista The Futurist leva essas possibilidades e especulações vários passos adiante, chegando àquilo que alguém esperaria poder considerar pretensão absurda. Mas a predição não é oferecida com essa intenção: é bastante séria. O máximo em casa pode ser uma estrutura, cujo cérebro computadorizado, equipado com sensores e ligado através de redes de telecomunicações a outros bancos de dados de computadores e a cérebros de outras casas, desenvolveu uma percepção de sua própria existência e um conhecimento íntimo de seus habitantes... Este desenvolvimento acrescentará muito à nossa habilidade para

15 16

Ver The Third Wave, de Alvin Toffler, cap. 14. Myron Krueger, Artificial Reality, Menlo Park, Califórnia, Addison-Wesley, 1983, p. 230.

“acreditar” no computador como uma entidade consciente. Uma vez que sua casa possa falar com você, você nunca mais se sentirá sozinho novamente.17 Apesar de tão encantadora e talvez tão pouco delineada, essa imagem dos microprocessadores conscientes e atenciosos parece também ser confirmada por Steven Jobs da Apple Computer, quando ele fala de uma transformação do computador-servente no computador como “agente ou guia”. Ele funcionará mais em termos de antecipar aquilo que desejamos, fazendo-o para nós, observando conexões e padrões no que fazemos, perguntando a nós se isto é uma espécie de ato genérico que desejaríamos fazer regularmente, de forma que teremos ... a ideia de gatilhos. Seremos capazes de pedir a nossos computadores para funcionarem como nosso “monitor” e, quando ocorrerem certas condições, quando forem acionados, os computadores agirão de forma específica e depois nos informarão o fato.18 ... esperemos pelo momento em que eles façam o grande e inevitável erro. Às vezes não se pode decidir se devemos rir ou chorar com relação ao que a Era da Informação supostamente nos reservará. Pamela McCorduck espera ver a casa do futuro equipada com um “robô geriatra” que resolverá “os problemas do envelhecimento”. O robô geriatra é maravilhoso. Nunca se inclina a ter esperanças em herdar nosso dinheiro — nem, naturalmente, dará um pequeno empurrão em você para acelerar o inevitável ... Ele está lá porque é seu. Ele não somente leva você para tomar banho, não somente o alimenta ou empurra sua cadeira de rodas até um local ensolarado quando você precisa de ar fresco e uma mudança no cenário, apesar de que, sem dúvida, ele faz tudo isso. A coisa suprema deste robô geriatra é que ele ouve. “Conte-me novamente como suas crianças são maravilhosas/terríveis com você. Conte-me novamente aquela estória do fascinante golpe de 63...” E é isso realmente que quer o computador. Ele nunca se cansa de ouvir tais estórias, da mesma forma que você nunca se cansa de contá-las. Ele também sabe quais são as suas favoritas, e essas são as preferidas dele.19

Até parece uma peça de Samuel Beckett...

Hackers e hucksters* Não importando quão cativantes possam ser esses debates, eles mostram o que os negociantes de dados pensam sobre o desejo público. Se estão certos, deixam-nos com um panorama desolador a respeito de nosso estado cultural. Causa sobressalto acreditar que 17

“The Futurist”, citado em Epiphany, outono de 1983, p. 17. Entrevista de Steven Jobs em Playboy, fevereiro de 1985, p. 17. 19 Edward Feigenbaum e Pamela McCorduck, The Fifth Generation, Reading, Mass., Addison-Wesley, 1983, pp. 92-93. * Hackers são espécies de monomaníacos cibernéticos contraculturais, ou seja, aqueles sujeitos que acordam e já vão para o computador antes mesmo de escovar os dentes. O autor falará mais sobre esse espécime nos próximos capítulos. Os hucksters seriam mercenários da publicidade. O autor faz a crítica destes “negociantes mercenários”. (N. T.) 18

possa realmente haver um público que toma por sérias as aplicações ilusórias e pueris do computador já citadas. Quantas pessoas pode haver que necessitam ter mediada sua mínima atividade — e presumivelmente corroborada — por uma máquina? Ironicamente, a pior vítima de tal exagero megahype pode ser o próprio computador. É uma invenção notável, que merece nossa admiração em uma vasta série de usos. Mas, nas mãos de seus entusiastas, a máquina engenhosa é reduzida a um mero brinquedo, portador de valores tolos e sibaríticos. Há um ponto, contudo, no qual a afobação das relações públicas que rodeia o computador é obscurecida em uma zona crepuscular em que metafísica e ficção científica enlatadas se mesclam livremente. Aqui, hackers e hucksters se tornam aliados convenientes na tarefa de emprestar ao culto à informação um caráter bem mais intimidatório. Começamos a ouvir predições precipitadas e impetuosas feitas por pessoas cultas sobre computadores que serão, algum dia, mais sagazes que as pessoas. Sagazes até que ponto? Um cientista da computação da Universidade da Califórnia declara jovialmente e sem titubear: “Penso que algum dia haverá uma máquina que sabe tudo. É por essa razão que estamos por aqui”.20 Por detrás dessa linha de pensamento está um longo e contínuo processo de antropomorfização do computador como uma inteligência humana substituta. Até quando o computador era considerado apenas um mastigador de números, dificilmente alguém o via como algo além de uma supermáquina de somar. Ele deu seu primeiro passo importante como uma espécie de retrato da mente logo após a Segunda Guerra Mundial, quando a palavra memória foi adotada para designar sua capacidade de armazenamento. Ninguém havia jamais utilizado esta palavra com referência às velhas máquinas de escritório de Hollerith. Sua forma de armazenar e processar dados era óbvia e incômoda em demasia; não faziam nada além de perfurar rapidamente cartões que eram introduzidos e retirados pelas pessoas. Com a invenção das máquinas programáveis como UNIVAC e outros sistemas centrais magnéticos mais sofisticados, tornou-se bem menos aparente para o público como os computadores armazenavam dados. Onde ficava escondida toda a informação nessas máquinas cada vez mais compactas? Os engenheiros diziam que o computador tinha uma “memória”, um atributo da mente. As máquinas “lembravam” coisas, coisas çada vez mais amplas do que poderiam lembrar as pessoas, e — misteriosamente — eram capazes de chamar tudo de volta com o apertar de uma simples tecla. Por outro lado, com relação aos cérebros humanos, conforme observou Robert Jastrow, um cientista da computação, “a quantidade de informação e ‘condutores’ elétricos que podem lotar um crânio de tamanho determinado é limitada”.21 Mas não há evidência de que o cérebro humano esteja nem sequer próximo de qualquer limite; nem temos qualquer razão para acreditar que o volume do cérebro tem alguma relação com a função do pensamento, mesmo com a da lembrança. Ê possível que aquilo que chamamos imprecisamente de “esquecimento” seja no cérebro humano justamente a forma de armazenamento e processamento que torna a informação mais utilizável para o pensamento significativo? Poderia ocorrer que a retenção de dados 20

O cientista é Roger Schank, citado em Frank Rose, Into the Heart of the Mind: An American Quest for Artificial Intelligence, Nova Iorque, Harper & Row, 1984, p. 208. 21 Robert Jastrow, “Toward an Intelligence Beyond Man’s”, Time, 20. 2.1978, p. 59.

excessivos — mais do que uma simples mente possa lidar com ponderação — pudesse comprometer a qualidade do pensamento? Através de publicações ou pessoalmente, deparei-me com inúmeras pessoas que perderam seu rumo intelectual numa floresta de fatos. “Dados, dados por toda parte, mas nem um pensamento para pensar”.22 Por outro lado, uma quantidade bastante razoável de cultura foi criada durante milênios por sociedades que, talvez com razão, deram pouco valor à compilação de dados brutos. Esta não é a visão que poderíamos esperar dos negociantes de dados. Ao contrário, eles recorrem à autoridade de cientistas da computação, que tornam possível para empresas como a Sony anunciar um tape deck que é “tão engenhoso que realmente compensa as deficiências de sua memória”. Uma vez que a faculdade da memória foi metaforicamente concedida às máquinas, sua semelhança com a mente ficou livre para se elevar a alturas sobre-humanas. Pois, se pensar é essencialmente processar dados, conforme insistem os cibernéticos, então a mente que retém a maior quantidade de dados é a mente superior em potencial, especialmente no mundo complexo de hoje, em que há informação em demasia para ser manipulada pelo cérebro. A mente humana [observa o cientista do aprendizado da Universidade de Stanford, Auron Barr] não é somente limitada em sua capacidade de armazenar e processar, mas apresenta também seus defeitos; engana-se facilmente, é obstinada e mesmo cega em relação à verdade... Sistemas inteligentes, desenvolvidos para os computadores e para a tecnologia das comunicações, terão algum dia mais conhecimento do que qualquer ser humano individual a respeito do que se passa nos empreendimentos complexos que envolvem milhões de pessoas.23 Os futurologistas foram bastante rápidos para progredir neste tema: a complexidade social moderna conduz à supremacia dos computadores. “Uma bomba de informação está explodindo entre nós”, declara Alvin Toffler. “As pessoas e organizações necessitam continuamente de mais informação, e todo o sistema começa a pulsar com fluxos cada vez maiores de dados.” Já alcançamos o ponto em que “ninguém pode lembrar-se de tanta complexidade enquanto tenta pensar em uma solução para o problema”. Mas a situação está ao alcance da mão. Em função de sua capacidade de lembrar e correlacionar elevado número de influências causais, o computador pode nos auxiliar a enfrentar certos problemas (tais como criminalidade, habitação, deterioração urbana) em um nível mais profundo que o usual. Ele pode “peneirar” amplas amostras de dados para encontrar padrões sutis... Pode mesmo sugerir soluções criativas para certos problemas, através da identificação de relações inusitadas ou desapercebidas entre pessoas e recursos.24 Em um trecho como esse, nota-se como o computador foi personificado em uma agência mental que trabalha aparentemente segundo sua própria iniciativa. Sua capacidade 22

Jesse H. Shera, conforme citado em Machlup, The Study of Information, p. 649. Avron Barr, “AI: Cognition as Computation”, em Machlup, The Study of Information, p. 261. 24 Toffler, The Third Wave, pp. 172, 183, 190. 23

de armazenar dados amadureceu misteriosamente até o poder de encontrar “padrões sutis” na sociedade e de sugerir “soluções imaginativas” para os dilemas políticos. Uma máquina sem dúvida notável. Mas ela existe? Ou existirá algum dia? O autor não sabe. Por que deveria um sociólogo se considerar digno de um padrão de credibilidade mais elevado do que o de cientistas e técnicos responsáveis por tal tecnologia? Os cientistas da computação I. G. Good e Christopher Evans previram a invenção de uma máquina ultrainteligente (MUI) na década de 90, e que será mais sagaz do que qualquer inteligência humana e mais capaz de encarregar-se das principais decisões políticas, incluindo assuntos de guerra e paz.25 Good, escrevendo no início da década de 70, antecipava uma época em que essas MUI se dedicariam sozinhas aos negócios e produziriam “uma explosão de inteligência”. A MUI nos capacitará a resolver praticamente qualquer problema solúvel, e nós talvez chegaremos à paz mundial, ao elixir da vida à transformação lenta das pessoas em PUI (pessoas ultra inteligentes), ou à transformação da população mundial em uma única PUI. Em seu livro Machines Who Think [Máquinas que Pensam], Pamela McCorduck, que trabalha no programa de inteligência artificial da Universidade de Stanford, dá um passo adiante em relação a essa perspectiva. Ela prediz que a MUI “transformará todo o universo em uma entidade pensante ampliada”. Com que intenção os entusiastas do computador fazem prognósticos tão impetuosos como estes? É difícil dizer. Algumas vezes, como no caso dos comentários de Good, há algo patético marcante por detrás da efusão. Em uma tal extensão-limite de “benevolência do usuário”, confiou-se ao computador o papel de um anjo protetor benigno que atenuará nossas responsabilidades de adultos que se tornaram excessivamente incômodas, opressivas. Por outro lado, alguns cientistas da computação parecem gostar de bravatas mentais exageradas que provêm do desmascaramento daquilo que eles consideram ilusões humanas de grandeza. Marvin Minsky, do MIT,* está entre os dessa categoria. Com o passar dos anos, ele se delineou como uma figura pública pitoresca nos meios de comunicação, dando maliciosas tesouradas em qualquer coisa que alguém indicasse como sendo uma qualidade especial e possivelmente mais complicada da mente humana: senso comum, julgamento, intuição, criatividade. Ou, por exemplo, as emoções. Nada há de notável lá, diz Minsky: “Penso que seremos capazes de programar as emoções em uma máquina quando pudermos fazê-la pensar... Estou certo de que logo que... tivermos decidido quais emoções desejamos na máquina, não teremos dificuldade em fazê-lo”.26 Trabalhando a partir desta concepção mínima da personalidade humana, Minsky não tem dificuldade em concluir: “Penso que tudo o que aprendemos é que somos provavelmente computadores”. Tais comentários fáceis não deixam de ter influência. Sherry Turkle, que realizou um estudo sobre crianças em escolas altamente computadorizadas (incluindo uma bastante influenciada pelo trabalho do laboratório de inteligência artificial de Minsky no MIT),

25

Christopher Evans, The Mighty Micro, Londres, Gollancz, 1984; I. G. Good, “Machine Intelligence”, Impact (uma publicação da UNESCO), inverno de 1971. * Massachusetts Institute of Technology. (N. T.) 26 Minsky, citado em Patrick Huyge, “Of Two Minds”, Psychology Today, dez. 1983, p. 34.

encontrou estudantes que se caracterizaram prontamente como “computadores que sentiam, máquinas emocionais”.27 Seja qual for a intenção que subjaz a tais especulações, vemos aí refletido um motivo bem desenvolvido da história tecnológica ocidental. As máquinas por nós inventadas podem ser divididas em duas categorias: máquinas pesadas e máquinas inteligentes. Máquinas pesadas (motor a vapor, dínamo, avião) tiveram sua cota no apreço do público; as máquinas inteligentes obtiveram uma resposta bastante diversa, uma impressão de temor respeitoso não explícito que é quase patológica. As primeiras máquinas inteligentes consistiam de diversos tipos de relógios, reguladores, pianos automáticos. Nós não podemos ficar mais tão impressionados com os velhos instrumentos de contagem ou de cronometragem que vemos em museus, mas durante alguns séculos de nosso passado, relógios e mecanismos desse tipo exerceram um charme estranho sobre o pensamento ocidental. O relógio era, apesar de tudo, uma máquina que parecia capaz de enumerar e regular; parecia possuir um certo senso de ordem inteligente e matematicamente precisa que desde muito era considerada um dom especificamente humano. A ligação do relógio com a matemática — mesmo que apenas a contagem regular — era especialmente fascinante para os cientistas, pois atuava como um eco de seu próprio gosto por medição exata e objetiva. Mecanismos de relógio ou semelhantes, como as caixas de música e outros brinquedos, poderiam ser “programados” (como diríamos hoje) para imitar as atividades inteligentes: mesmo para tocar instrumentos musicais, escrever com caneta em papel, participar de jogos. Em contraste com máquinas pesadas, cuja posição tem sido sempre aquela das bestas de carga (daí medirmos sua força com o horse-power), as máquinas inteligentes têm sido usualmente tratadas com maior respeito. Seduzem a imaginação científica, que as tomou livremente como modelos do universo, freqüentemente reorganizando nossa experiência do mundo para fazer com que ela se ajustasse ao modelo. E aí pode estar o perigo real de cairmos em uma idolatria tecnológica, permitindo que uma invenção de nossas próprias mãos se torne a imagem que venha dominar nosso entendimento de nós mesmos e de toda a natureza ao nosso redor. O computador é o último episódio nesta obsessão científica com metáforas mecanicistas emprestadas das máquinas inteligentes. Uma vez mais, da mesma forma que na época de Newton, os cientistas precisam ser lembrados que os organismos (seres humanos) que vieram antes dos mecanismos são muito mais notáveis do que os instrumentos que eles possam ocasionalmente inventar, quando não estão passando o tempo cantando, fazendo piadas, contando estórias ou adorando deuses.

O silício e a seleção natural No início da década de 20, Karl Capek escreveu uma peça chamada R.U.R., na qual o conceito robô (e a palavra) apareceu pela primeira vez. O robô era um mecanismo sensível, uma máquina com face humana. Mais do que um modelo abstrato de inteligência, poderia ser imaginado como tendo uma vida própria. Na peça de Capek, por exemplo, os robôs se transformam em marxistas metálicos incansáveis; rebelam-se contra seus exploradores 27

Sherry Turkle, The Second Self: Computers and the Human Spirit, Nova Iorque, Simon & Schuster, 1984, p. 313.

humanos e assumem o comando. Tal imagem da máquina humanóide deu origem a uma linha de pensamento que está agora bem representada pelos entusiastas dos computadores e que é a expressão última da supremacia mecanicista. O computador recebeu uma interpretação evolucionária que deixa nele a marca de um destino espetacular. Poderá sobreviver a seus criadores e se tornar a espécie dominante de “vida” na Terra. Isto é novo na história da tecnologia ocidental. O tema surgiu em incontáveis estórias de ficção; mas a partir do início dos anos 60, alguns cientistas começaram a tomar as metáforas em seu sentido literal. Se o computador é um “cérebro” possuidor de “inteligência”, ele não poderia ser considerado uma “espécie” biológica? E. se tal espécie atravessa gerações, não poderíamos dizer que está “evoluindo”? Sem dúvida, muitas máquinas — geladeiras, automóveis, aspiradores de pó — também são aperfeiçoados, à medida que passam de um modelo a outro. Normalmente não chamamos a isto evolução. Mas com relação ao computador, sua posição como uma máquina inteligente ocupa uma categoria especial. Não são apenas progressos cumulativos; ele está se tornando mais sensível, mais competente mentalmente, mais autônomo. John Pfeiffer do MIT está entre os primeiros a afirmar que o desenvolvimento do computador merece ser pensado em termos evolutivos, considerando-se o sentido estrito e literal da palavra evolução. Em seu livro The Thinking Machine [A Máquina Pensante] (1962), ele argumenta que o computador é uma tecnologia cujos limites não poderiam ser especificados. Isto dava a ele uma certa imprevisibilidade, quase uma liberdade desejada contra o construtor humano. “A partir desse ponto de partida, a máquina está sempre à sua frente, e estará à sua frente por um tempo indefinido.” Especialmente sob a pressão da “explosão de informação que já nos ameaça esmagar”, os seres humanos terão de permitir que o desenvolvimento irrestrito do computador prossiga. Isto fará da “evolução dos computadores... uma parte significativa da evolução humana”.28 De forma análoga, uma década mais tarde (1972), John Kemeny de Dartmouth, inventor da linguagem BASIC, estava pronto para predizer uma “evolução simbiótica” da espécie humana e do computador.29 Com a raça humana face à ameaça de extinção segundo vários fronts, ele considerou uma “mudança evolutiva significativa” como sendo nossa maior esperança de fazer uso apropriado do “rico mundo da informação” que criamos ao nosso redor. Estas eram predições bondosas que ainda imaginavam uma co-evolução benéfica de computadores e homens. Contudo, alguns especialistas em inteligência artificial não estão absolutamente convencidos de que a evolução dos computadores necessita ser sincronizada com a do obviamente deficiente cérebro humano. “A quantidade de inteligência que nós humanos temos é arbitrária”, observa Marvin Minsky. “É justamente a quantidade que temos neste ponto da evolução. Há pessoas que pensam que a evolução estancou e nunca haverá nada mais inteligente do que nós.” Minsky discorda; seria como dizer “que alguém não pode construir uma casa mais alta que o alcance de sua mão”.30 Estas especulações evolucionárias se ajustam com precisão à idéia de que a complexidade social necessita da dominação dos computadores. Com efeito, as condições 28

Pfeiffer, The Thinking Machine, pp. 20-21. John Kemeny, Man and the Computer, Nova Iorque, Scribners, 1972. 30 Minsky, cit. William Stockton, “Creating Computers to Think Like Humans”, New York Times Magazine, 7.12.1980, p. 41. 29

da vida moderna se tornam uma força seletiva que favorece uma nova espécie, melhor adaptada à escala e ao ritmo do futuro industrial. O dr. Gordon Pask chamou a esta nova entidade de “micro-homem”: A rápida proliferação do computador, da comunicação e dos instrumentos de controle está constituindo o que chamamos “meio ambiente informatizado”. Acreditamos, contudo, que a mudança não é meramente quantitativa. Subjacentes a elas estão mudanças qualitativas bem mais profundas na relação entre máquinas e seres humanos. Estas mudanças ... estão conduzindo à evolução de uma nova espécie, uma espécie que apelidamos “micro homem”.31 É o micro-homem humano ou mecânico? Pask acredita que a questão não tem sentido. “A distinção entre pensamento humano e pensamento da máquina está se tornando insustentável. Podemos vislumbrar uma expansão revolucionária da mente, seja individual, social ou forçada em qualquer outro material diverso do tecido cerebral.” É importante sublinhar aquilo que inspira estas visões da obsolescência humana. Se o pensamento é apenas uma questão de processamento de informação, então realmente não há distinção significativa entre a forma pela qual homens e máquinas pensam, a não ser para dizer que estas são melhores. E se o processamento de informação é a principal necessidade de nossa época, então as máquinas devem, sem dúvida, ser consideradas como tendo vantagem seletiva. Mas que espécie de “seleção” estamos a discutir? Não a natural, mas certamente a cultural. O “meio ambiente informatizado” é, afinal de contas, algo feito por nós. Deveria, portanto, estar sob nosso controle mudá-lo para que sirva a nossos próprios valores. É uma visão sinistra da vida, esta que assume que devemos nos tornar timidamente as vítimas da cultura que criamos. Até onde pode ser estendido este cenário fatalista? Robert Jastrow prevê que o computador será o advento de uma “inteligência além da do homem”. É “antes filho do cérebro humano do que de suas entranhas” e será “sua salvação em um mundo de complexidade esmagadora”. Mas esta aliança entre homem e máquina será instável. O computador continuará sua evolução desenfreada. Enquanto a evolução humana é um capítulo quase terminado na história da vida... Podemos esperar que uma nova espécie surja a partir do homem, superando suas realizações assim como ele superou aquelas de seu predecessor, o Homo erectus... O novo tipo de vida inteligente será muito provavelmente feito de silício.32 Neste alto grau de febre especulativa, não mais estamos discutindo a mera inteligência das máquinas; a deliberação moral e a aptidão biológica de nossa própria espécie estão sendo ponderadas nas escalas de sobrevivência evolutiva... Há aqui uma atuação recíproca, deturpada de modo incrível, entre idéias e trabalho. Em primeiro lugar, os biólogos tomaram emprestados conceitos da cibernética para explicar a genética como um mecanismo de transferência de informação. Em seguida, vemos os cientistas da computação tomando conceitos da biologia para sugerir a natureza 31

Gordon Pask e Susan Curran, Micro Man: Computers and the Evolution of Consciousness, Nova Iorque, Macmillan, 1982, pp. 2-3. 32 Robert Jastrow, Time, 20.2.1978, p. 59. Ver também Geoff Simons, The Biology of Computer Life, Londres, Harvester, 1985.

evolucionária da tecnologia de processamento de dados. A cultura é assim: freqüentemente cresce, através da elaboração metafórica, um campo de pensamento que toma emprestadas imagens sugestivas de outro. Mas em um certo ponto, a elaboração metafórica se torna claramente pensamento de baixa qualidade. Este é o ponto em que as metáforas deixam de ser sugestivas e passam a ser tomadas literalmente. Contudo, um pensamento tão descuidado, divulgado pelos especialistas da área, tornou-se imerso no folclore dos computadores. Permeia a tecnologia com um sentido obsessivo de inadequação humana e falha existencial. Na superfície, os futurologistas e os negociantes de dados oferecem promessas efervescentes de conveniência, afluência, prazer e jogos; mas seu otimismo murmurante é atropelado por especulações negras a respeito da obsolescência humana. Este motivo desesperador surge com as máquinas e não pode auxiliar, mas expressar nossa réplica à nova tecnologia, mesmo em suas mais triviais aplicações. Será que criamos algo como uma mente, que é mais apropriada às condições alienantes da sociedade moderna, mais capaz de lidar com a pressão, com a ansiedade e a tensão moral? Se assim fosse, poderia ser tomada como um juízo condenatório sobre a desumanização da ordem social que criamos para nós mesmos. Mas alguns cientistas da computação a consideram, ao contrário, como uma acusação da própria natureza humana; possuímos uma mente que não está ajustada para a sobrevivência. Esta conclusão pode ser deixada flutuando em um elevado nível de especulação, aguardando o resultado dos próximos milhares ou milhões de anos de seleção evolutiva. Mas enquanto isso, pode ser dado a ela um conteúdo político significativo. Pode conduzir ao argumento de que mais poder deveria ser depositado nas máquinas inventadas e controladas pelos cientistas da computação.

Tecnofilia As idéias que revisamos até aqui, apesar de quão extravagantes possam ser, são — em alto grau — parte de uma tradição que é tão velha quanto a sociedade industrial. Podem ser vistas como expressões extremas de tecnofilia, nosso caso de amor com as máquinas em nossas vidas. Esta não é a primeira vez que as pessoas projetaram sua esperança de felicidade e sua imagem de perfeição sobre o último aparelho mágico a surgir. O motor a vapor, o dínamo elétrico, o automóvel, o avião — cada um em sua época manteve uma posição similar como emblema do progresso. Tais obsessões tecnológicas vão e vêm tal como cada nova onda de invenções e investimentos encontra um lugar para si em nossa dinâmica economia industrial. Um século e meio atrás, um futurologista vitoriano registrou estes versos burlescos em Illustrated London News: Lay down your rails, ye nations near and far — Yoke your full trains to Steam’s triumphal car. Link town to town; unite in iron bands The long-estranged and oft-embattled lands. Peace, mild-eyed seraph — Knowledge, light divine, Shall send their messengers by every line... Blessings on Science, and her handmaid Steam!

They make Utopia only half a dream.* Qual era o objeto dessas aspirações utópicas? A estrada de ferro. Com o auxílio de uma percepção tardia, é fácil ver quão ingênuas são tais explicações. Poderíamos ainda tolerar as ânsias de salvação que se emaranham na nova tecnologia. Penso, contudo, que a fascinação atual pelo computador e seu principal produto, a informação, merece uma resposta mais crítica. Isto ocorre porque o computador imita tão engenhosamente a inteligência humana que pode abalar nossa confiança quanto aos usos da mente. E é a mente que deve pensar sobre todas as coisas, incluindo o computador. Em nossa cultura popular atual, a discussão sobre computadores e informação está no mesmo nível dos exageros e mistificações oportunistas da instituição da ciência da computação. Os hackers e hucksters poluíram nosso entendimento da tecnologia da informação com fracas metáforas, comparações fáceis e um tanto de completa confusão. Há bilhões de dólares de lucros e afluência social caída do céu que contam a favor disso. Talvez haja muitas pessoas que acreditam não apenas que não podem emitir juízos sobre os computadores, mas também que não têm o direito de assim proceder, pois os computadores são superiores à sua própria inteligência — uma posição de absoluta deferência que os seres humanos nunca haviam antes assumido com relação a qualquer outra tecnologia do passado. À medida que ele entra mais profundamente na estrutura de nossa vida cotidiana, apreciando a cada passo do caminho a celebração extravagante de seus entusiastas e promotores, o computador sustenta a possibilidade de dar forma a nossos pensamentos, ou mesmo a nossa própria concepção de pensamento. Isto é o mais provável a ocorrer no futuro próximo devido à ampla escala da entrada dos computadores nas escolas de todos os níveis, em que se forma toda uma geração de estudantes.

*

“Assentem os trilhos, nações próximas e distantes —/ Juntem seus vagões lotados ao Vapor triunfal./ Liguem cidade a cidade, unam com linhas de ferro/ As terras tão apartadas e em pé de guerra. / Paz, serafim de olhar manso — Conhecimento, luz divina,/ Enviarão seus mensageiros por todas as linhas.../ Bênçãos para a Ciência e seu criado o Vapor!/ Eles fazem da Utopia apenas um meio-sonho". (Tradução Livre) (N.T.)

3. O curriculum secreto A quimera da utilização do computador Numa tentativa de fornecer escorva para a bomba que alimentará o futuro fluxo de venda de seus produtos, a indústria de computadores faz atualmente com que suas mercadorias estejam disponíveis em universidades e redes escolares, através de descontos ou mesmo gratuitamente. Na Califórnia, que poderíamos esperar como sendo a primeira a fixar o padrão nacional para a educação através da alta tecnologia e onde (a partir dos anos 80) 80% das escolas têm computadores, a Apple Computer colocou, gratuitamente, uma de suas máquinas em todas as escolas do estado. Isto atinge nada menos do que quase 10 mil computadores, no valor de US$ 20 milhões (com desconto de imposto para a Apple). A Atari, a IBM e a Hewlett-Packard rapidamente fizeram ofertas similares, fazendo com que a Apple propusesse colocar um computador em cada escola nos Estados Unidos — algo beirando 100 mil máquinas. Mas o Congresso se recusou a conceder o crédito solicitado do imposto de US$ 64 milhões pela doação.1 À medida que o mercado de computadores domésticos diminui acentuadamente, o esforço de introduzir microcomputadores nas salas de aula do país vai se tornando mais intenso. Mas mesmo sem o benefício de tais favores de algumas empresas, o número de computadores nas escolas públicas em 1983 chegava a 350 mil, mais do que duas vezes o valor do ano anterior. Em 1984, o número dobrou novamente até 630 mil, com médias superiores a seis máquinas para cada escola pública e aproximadamente de uma máquina para cada 72 alunos. O aumento do número de computadores nas escolas irá supostamente aumentar ano a ano na década de 80, atingindo uma taxa computador/aluno de 1/14 em 1990; alguns educadores predizem que uma taxa 1/1 será alcançada em meados da década de 90: um computador para cada aluno. A América não está sozinha neste esforço; com grande apoio do governo, os ingleses, franceses e japoneses também estão fazendo pressão rumo à computadorização de suas salas de aula. No Japão, 70% das escolas secundárias estão programadas pelo Ministério da Educação para instalação de computadores antes do final da década; os franceses lançaram uma campanha oficial para que sejam atingidos “100 mil computadores em nossas escolas” em 1995. Os ingleses, com o auxílio de subsídios generosos do governo, lideram o grupo com quase 98% das escolas microcomputadorizadas.2 Nos Estados Unidos, as máquinas não são absolutamente distribuídas uniformemente. Como se poderia esperar, elas tendem a se acumular nas escolas dos bairros mais ricos. Procurando sanar tais desequilíbrios, uma maioria do legislativo da Califórnia exigiu que fossem destinados 30 milhões de dólares por ano na década de 80, para garantir 1

2

Os números de computadores das escolas americanas são das seguintes fontes: Edward Fiske e Richard Vevero em New York Times, 9, 10 e 11.12.1984; Alfred Bork, “The Computer in Education”, Education Network News, mar.-abr. 1984; Cathy Castillo, “Computers in Califórnia Schools”, This World (San Francisco Chronicle Education Special), 29.4.1984; e Ian Anderson, “Califórnia Schools Reap Bumper Harvest of Apples”, New Scientist, Londres, 3.3.1983. Sobre computadores nas escolas japonesas, ver Electronic Learning, mar.-abr. 1982, p. 12. Para Inglaterra e França, ver “Classroom Computing: A European Perspective”, Personal Computing, set. 1984, p. 70; e John Lamb, “Programming the First Generation”, New Scientist, Londres, 28.3.1985, p. 34.

que cada estudante do estado, rico ou pobre, passe ao menos uma hora por semana frente à tela de um terminal. O congresso debateu (e adiou) muitos projetos de lei que visavam resolver a questão das diferenças de números de computadores entre as escolas; uma proposta exigia um orçamento de 700 milhões de dólares por ano para a tarefa de espalhar o computador e a capacidade de utilizá-lo uniformemente por todo o país.3 O Comitê Nacional para Inovavação Industrial — um grupo de cidadãos organizado pelo anterior governador da Califórnia, Jerry Brown — adotou um programa de ação ligeiramente diverso. Exige a instituição de uma escola para demonstração em cada estado, para orientação sobre a computadorização: essa recomendação custaria quase meio bilhão de dólares.4 Estes planos são ambiciosos e caros. Alguns, tentando não perder o ponto de fuga das propostas, como por exemplo o governador Brown, observaram que nenhum dos programas em discussão custaria tanto quanto um simples submarino Trident. De certa forma ele tem razão. Mas acontece também que estes “milhões educacionais” para investimento em maquinaria estão sendo orçados em uma época em que o professor médio americano recebe um salário inicial de US$ 13.000 anuais — um pouco acima do miserável nível mínimo. Contra esse pano de fundo, salientado por todas as propostas, com sua exigência de planejamento racional, está o fato de que o computador realizou uma entrada destruidora nos sistemas escolares do país. Na maior parte, as escolas (ou principalmente os administradores e pais ansiosos, e nem tanto os professores) replicaram com a prontidão e credulidade de consumidores bem treinados para a pressão comercial da indústria de computadores. O atual folclore, cujo script é de autoria dos negociantes ie dados, sustenta a tese de que as crianças têm uma “afinidade natural” com os computadores, que “pode ser um instrumento poderoso para ensinar as habilidades informatizadas necessárias para se viver numa sociedade informacional”.5 De fato, o interesse e a habilidade instintivos das crianças ao lidarem com o computador são tão grandes que seus pais e professores trogloditas, como uma espécie quase em extinção, não podem entender a paixão que fervilha na prole. “Atualmente, mães e pais devem sentir-se como pais europeus do século XIX, quando seus filhos emigravam para o novo mundo”, escreve a educadora Barbara Deane. “Aqui estamos, não apenas acenando para nossos filhos que adentram esse admirável mundo novo, que quase não podemos imaginar, mas também esperando poder guiá-los quanto à utilização dos computadores — dando a eles mapas, por assim dizer, de uma terra que não conhecemos”. De modo similar, o criador de um programa (inglês) para capacitar o usuário a utilizar o computador, nos conta que “no futuro, nossas crianças pensarão de formas que não podemos imaginar agora. O computador está fornecendo a elas um instrumento intelectual que elas podem dirigir e controlar para realizar façanhas intelectuais que provavelmente consideraríamos absurdas”.6

3

O número USS 700 milhões/ano foi o custo estimado no Computer Literacy Act, de 1984, do membro da câmara legislativa estadual Timothy Wirth. Para um estudo do panorama e das propostas que tramitaram no Congresso, ver “Will Legislation Help?”, Personal Computing, set. 1984, pp. 72-73. 4 Beth Ann Krier, “Planning the Schools of the Future”, Los Angeles Times, 18.12.1984, 5, p. 1. 5 Rogers e Larsen, Silicon Valley Fever, p. 259. 6 Barbara Deane, “User-Friendly Learning”, Califórnia Living Magazine, 18 de agosto de 1985, p. 11. O educador é citado em Liza Loop, Computer's Town, Reston, Va. Reston/Prentice-Hall, 1983, p. 10. Computer-Town é o nome de uma campanha sobre a habilidade computacional financiada pelo National Science Foundation em 1979.

Nos anos 60 falava-se muito em conflito de gerações. Isto era entendido como uma discrepância moral e política. Na Era da Informação, essa “lacuna” é meramente tecnológica, uma questão de aptidão de programação e virtuosidade para o “teclado”. “Meninos e computadores se combinam” possivelmente de uma forma que deixa seus pais sem outra opção a não ser colocarem-se de lado e observarem com espanto — mas apenas depois de terem comprado o equipamento. Inegavelmente alguns garotos têm perfeito entrosamento com computadores. A ênfase, contudo, está no alguns, da mesma forma que na frase “alguns garotos se entrosam com violinos ou pincéis”. Apesar disso, não são gastos milhões para que violinos e pincéis cheguem às escolas. Inicialmente, há uma justificação que favorece os computadores em detrimento dos violinos e pincéis, nas prioridades orçamentárias das escolas. Está incorporado na expressão mágica Computer literacy [habilidade de se utilizar o computador]* — uma necessidade aparentemente inegável da era da informação. Sem essa habilidade, as crianças cresceriam com a perspectiva do desemprego. Na Inglaterra, a Apple tem tentado computadorizar as escolas com a utilização do slogan “Nossos garotos não podem esperar”. Mas o que é esta habilidade [Computer literacy]? O significado original da frase tem relação com o ensino da programação — principalmente em BASIC, a mais simples e mais amplamente utilizada entre as linguagens de computadores de alto nível. Mas no final da década de 70 surgiram dúvidas. Muitos cientistas da computação começaram a considerar o BASIC como uma escolha limitada e retrógrada entre as muitas linguagens disponíveis. Porém, mais importante que isto: por que ensinar programação se estão surgindo no mercado tantos softwares pré-programados? Para muitos propósitos, o software cumpre sua tarefa de forma mais eficiente do que um programa tosco e amadorístico. Parecia não haver necessidade alguma para a habilidade, a não ser a preparação de uma carreira específica em programação, que requer muito mais treino do que o oferecido pelas escolas. Sem dúvida aprender um pouco de programação básica conduz à desmistificação dos computadores — desde que ensinada corretamente (o mesmo pode ser dito com relação a aprender como se desmonta um carro, um aparelho de som ou uma geladeira — tais habilidades auxiliam a penetrar nos segredos da moderna tecnologia). Adianta, porém, treinar as crianças para que utilizem uma máquina que muda a cada ano? Vale a pena aprender a editar textos através de um Wordstar quando programas bem superiores como Wordstar 2000 ou ainda o MacWrite estão a caminho? Cada nova geração de computadores requer cada vez habilidades menos específicas, menos literacy dos usuários, da mesma forma que avanços na engenharia automobilística tornaram mais fácil guiar um carro. À medida que a programação foi tirada furtivamente do curriculum, a habilidade computacional se tornou cada vez mais uma quimera educacional. Freqüentemente nada tem restado para os professores a não ser utilizar seus computadores para realização de exercícios de níveis inferiores — nenhum avanço com relação aos sedutores materiais didáticos auxiliados por computador e às máquinas de ensino dos anos 60. Alguns estados (Califórnia, Nova Iorque, Virgínia, Minnesota) gastaram muito dinheiro para treinar seus professores em muitas habilidades referentes a computadores, mas isto de nada adianta

*

Optaremos pela expressão “habilidade computacional”. (N. T.)

quando não se tem uma resposta precisa para a questão: as escolas devem ensinar sobre, através ou por meio de computadores? Outro problema: geralmente, os professores pouco descobriram que pudessem integrar, através de instrução programada, curricula existentes com seus métodos experimentados de ensino. Deveriam eles, portanto, se reaparelharem para se ajustarem à exigência das máquinas? Valeria a pena? Mesmo que eles desejassem fazê-lo, que software deveriam escolher? Há um forte consenso entre os educadores que afirma que a maioria do que o mercado tem a oferecer é freqüentemente nada superior do que video games rudemente adaptados com visual de apelo imediato, mas pouca substância intelectual. Um importante estudo profissional realizado pela Minnesota Educational Computing Corporation estima que, a partir de 1984, apenas 200 dos 10 mil softwares de programas educacionais à venda tinham algum valor.7 O governo federal auxiliou na abertura de uma via para que os computadores adentrassem a sala de aula. O Department of Education concedeu à Universidade Harvard uma doação de USS 7,7 milhões para instituir um Centro de Tecnologia Educacional, cujo propósito é testar e desenvolver software de qualidade superior. Um dilema com o qual o centro pode confrontar as escolas: software de qualidade é caro para ser utilizado. Os estudantes podem esgotar rapidamente os benefícios de um software de nível inferior; poucos minutos defronte à máquina e eles podem terminar o treino ou resolver o problema colocado por um jogo trivial. Por outro lado, software que seja desafio, desperte interesse e seja interativo, exige intensa utilização do tempo da máquina. Deve ser dado a cada estudante uma chance para que tente resolver os problemas. Sem dúvida o material pode ser utilizado em grupos pequenos. De qualquer modo, deveria haver maior quantidade de máquinas. Poderíamos esperar que a indústria de computadores tivesse capitais investidos em softwares de alta qualidade, pelo menos a fim de vender uma quantidade maior de hardware.

Uma solução na busca de problemas Joseph Weizenbaum, do MIT, descreveu certa vez o computador como “uma solução na busca de problemas”. O melhor exemplo disso é o modo pelo qual as escolas primárias e secundárias estão utilizando a máquina. A situação atual é a seguinte: há um clima de urgência tanto a nível nacional como local, no que se refere a colocar essa magnífica solução, seja como for, para funcionar nas escolas — pelo menos para identificar o problema correto. O interesse é entendido como algo que devemos a nossas crianças e também se refere ao prestígio e ao poder nacional. Há muita conversa com referência a “sair do atraso” ou “ir avante”, sobre o treinamento de presumíveis desempregados e sobre a escolha dos melhores para um progresso rápido. Mas quanto às tarefas das classes de aula reais, o computador é um assunto ou um veículo de instrução? Se é um veículo, que materiais deve carregar? Que parte do curriculum ele deveria realizar? O curriculum deve ser adaptado ao computador, ou este ao curriculum? Sem dúvida tais questões deveriam ser respondidas antes da aquisição e antes de serem orçados programas de retreinamento. Mas logo que cheguem os computadores, 7

O estudo MECC é descrito em Personal Computing, set. 1984, p. 69.

gratuitamente ou não, será difícil nada fazermos com eles. Assim, os professores iniciam uma batalha para improvisar usos educacionais defensáveis. Talvez algumas vezes tenham sucesso. Pairando sobre o enevoado conceito de habilidade computacional está a futurológica suposição-padrão de que a máquina irá algum dia dar aos estudantes uma abundância de dados e irá fazê-los cidadãos de prestígio na Era da Informação. De fato, poucas escolas estão ensinando aos alunos o modo de procurar bancos de dados. Talvez seja melhor: o ensino desta complexa habilidade seria certamente prematuro (e muito dispendioso) antes da universidade. Enquanto isso, a única informação que as crianças recebem do computador é o que está contido no software, o que está projetado para ser ensinado, o curriculum existente. A esse respeito, a máquina tem menos a oferecer do que um livro de textos. Seu processamento de dados é necessariamente limitado à tarefa de complementar o texto ou outras atividades de classe; ilustração, animação, testes, exercícios. Alguns entusiastas do computador consideram essas utilizações como sendo de nível inferior; “uma perda de tempo, energia e dinheiro”, comenta Robert Scarola. Tal software “reforça a idéia de computadores como sendo máquinas de rotinização”.8 Aqueles que acreditam que o computador realiza bem essas tarefas complementares argumentam que ele oferece ao estudante demonstrações e simulações atraentes e animadas com as quais ele pode trabalhar, além de instruções individualizadas. É, sobretudo, instantaneamente interativo. Isto significa que, ao invés de ter de esperar pelo livro de exercícios para saber os resultados, perdendo assim o ímpeto, os estudantes podem ver suas respostas avaliadas e corrigidas tão logo eles as dêem. Geralmente a máquina responde com simpáticos sinais aos trabalhos melhores. Emite tons vivos, flashes, mostra uma face sorridente ou convoca uma figura saltitante para apresentar a dança da vitória. Pessoalmente devo dizer que considero os desenhos animados e gráficos, trazidos à classe pelo computador, como esteticamente degradados, e mesmo feios. As figuras se movem, mas são, contudo, desagradáveis ao olhar. A arte do computador no nível da animação mais cara e de softwares de gráficos de três dimensões pode ser autenticamente criativa. Mas nada próximo a isto chegará nem mesmo perto das escolas. O equipamento é incrivelmente caro, uma vez que exige processamento matemático sofisticado a fim de compor um quadro refinado de cores (os computadores gráficos comercializados pela Lucasfilm’s Industrial Light and Magic division custam aproximadamente 125 mil dólares). Além disso, apenas profissionais treinados podem utilizar corretamente tais máquinas. As animações encontradas na maioria dos softwares educacionais de preços acessíveis podem consumir milhares de linhas de programa para produzir movimentos de animação nessas máquinas simples e standards. Os hackers têm satisfação nisso, mas seu padrão artítistico não é confiável. A maioria daquilo que eles elogiam é simplesmente horrível de se ver; não chega a se comparar nem mesmo ao nível de um desenho medíocre de Walt Disney. Os entusiastas do computador já ponderaram honestamente sobre que conseqüências poderá haver para as inclinações e o bom gosto das crianças expostas visualmente por um longo período a tal tipo de arte-refugo? Pior que isso, alguns professores tentam utilizar as habilidades gráficas de nível inferior do computador para ensinar “arte”, rebaixando o 8

Ver a introdução de Scarola para a parte referente a “Learning”, do The Whole Earth Software Catalog, Nova Iorque, Doubleday, pp. 175-177. Esta parte do catálogo oferece um bom estudo a respeito de alguns dos melhores softwares educacionais do mercado.

indivíduo ao nível da máquina. Uma exceção pode ser o programa notavelmente flexível MacPaint, da Apple, que simula de modo surpreendente as capacidades do pincel e do lápis. Mas, mesmo assim, por que não se dá preferência para treinar a mão no uso de um lápis e de pincéis reais diretamente no papel? De qualquer forma, animação e atuação recíproca (interatividade) são inquestionavelmente as características educacionais mais valiosas do computador. Sempre que exercícios e resolução de problemas são considerados, é melhor ter-se uma resposta rápida. Mas isto poderia, naturalmente, ser proporcionado pelo professor — se houvesse professores suficientes. Os fabricantes de computadores estão investindo, supondo que nunca haverá. Sua esperança é que, uma vez colocada a possibilidade de escolha entre contratar pessoas ou trabalhar com máquinas, o público não irá querer pagar o preço de instrução individualizada (com professores) e classes interativas. De fato, eles tentam fazer com que tudo ocorra de um modo favorável a eles, espalhando que: (1) os professores detestam exercícios e prefeririam estar livres para outros propósitos mais criativos; e (2) os professores não são bons no que se refere aos exercícios, pois ficam impacientes e autoritários, enquanto (3) o computador é “o mais paciente dos professores”. Se, por outro lado, você perguntar a professores desempregados se relutam em ser contratados para lidar com exercícios e treinos, você provavelmente terá outro ponto de vista. Pode ser que eles cheguem a lhe dizer que podem fazer o trabalho com cuidado, flexibilidade e imaginação a partir de seu interesse profissional pelas crianças. Os computadores podem estar levando muitos professores ao desemprego. E isto é uma pena, pois mesmo numa atividade de nível inferior como os exercícios tipo drill, o professor auxilia com sua inteligência presente, oferecendo um sorriso encorajador aqui, uma brincadeira lá, uma piscadela ou um sinal de aprovação, talvez pegando um rubor ou um gaguejar que revela a natureza do problema do estudante. Isso não é inteiramente óbvio? Por que, então, sai da vista tão logo os computadores estão em discussão? Eu tive professores que eram bastante peritos em exercitar a classe com paciência e vigilância sensível; eu certamente não passei tal experiência sozinho. De qualquer forma, o que ocorre com o ânimo dos alunos ao saber que o drill que eles precisam aprender é uma grande chatice, ou possivelmente um obstáculo para a “produtividade” do professor? Em geral, o item mais fervilhante da agenda da indústria educacional é “a máquina preceptora inteligente”, que está sendo desenvolvida pela IBM, Xerox, Apple e outras. A Hewlett-Packard doou quase US$ 50 milhões para várias universidades a fim de se criar alguma combinação entre inteligência artificial e videográficos em disco a laser que poderiam funcionar como um “computador preceptor” capaz de ensinar conceitos abstratos e estabelecer uma conversação falada. Para os cientistas da computação, é sem dúvida excitante perguntar: “Podemos inventar uma máquina que faz o que um professor faz?”. Mas há outra questão que poderia ser colocada: “Por que inventar uma máquina que faça isto em primeiro lugar?”. Nunca houve dificuldade em responder esta questão sempre que o serviço a ser executado era sujo, perigoso e opressivo. O ensino está longe disso. De fato, constituiria um daqueles “usos humanos dos seres humanos” para o qual as pessoas poderiam esperar uma virada tão logo os robôs as tivessem poupado do trabalho nas linhas de montagem. Sem dúvida os fabricantes de computadores investiram no desemprego de professores. Eles estão vendendo uma máquina que poupa trabalho em uma economia em

que a mão-de-obra é abundante e poderia ser conseguida por um salário satisfatório. Sempre que a pequena figura do computador executa sua dança, há um aspirante a professor em algum lugar que ficará sem seu pagamento. Se o computador não for utilizado apenas como um auxílio mecânico do professor, ou como substituto do professor, será que ele pode oferecer algo característico como um dispositivo educacional, algo próprio e que um professor também não pudesse fazer? Há educadores que acreditam que sim (no próximo capítulo veremos uma das mais impressionantes propostas desse tipo: o programa Logo de Seymour Papert). Aqui, nós podemos notar que os softwares mais interativos de solução de problemas — jogos como o tão elogiado Rocky’s Boots (criado por Warren Robinnet e disponível na Learning Company) — podem dar traços singulares à classe de aula. São os exercícios bastante divertidos de lógica simbólica. Os desenhos são medonhos, mas a idéia-guia dos jogos é sofisticada e não poderia ser executada com a mesma qualidade de desafio sem um computador interativo. Software deste calibre é especial; é também bastante caro para ser utilizado intensivamente para cada criança e com tempo controlado. Quanto melhor o software, mais amplo deve ser o hardware que a escola deve comprar para dar oportunidade a todos os seus alunos. Pode-se justificar o ensino da lógica simbólica? E por que não? Sua importância intelectual decorre de méritos próprios. Alguns poderiam argumentar que traz um benefício muito genérico: pode auxiliar no treino da mente a pensar claramente. Esta é uma suposição um tanto antiquada e duvidosa. É baseada na velha idéia da psicologia das aptidões, que diz que há certos músculos mentais que deveriam desenvolver-se em função de sua utilidade geral na vida. Durante séculos, o latim foi obstinadamente ensinado nas escolas, segundo a mesma premissa errônea que contribui para os hábitos ordenados de pensamento. Como os antigos mestres latinos, os cientistas da computação se sentem da mesma forma com relação a seus assuntos favoritos: matemática e lógica. A lógica simbólica não ensina, provavelmente, nada além da lógica simbólica. Mas alguns estudantes se saem bem e gostam dela, merecendo experimentar qualquer outra coisa que possa ser oferecida em classe de aula. Não pode haver danos. Se isso justifica o custo da tecnologia já é outro caso. Os educadores, contudo, podem estar certos de uma coisa, e nesse ponto devem honestidade absoluta a seus alunos. Software educacional inteligente como Rocky’s Boots não contribuirá mais para que os estudantes consigam empregos do que os cursos de programação obsoletos. No mercado de trabalho, os estudantes enfrentarão o fato de que as carreiras de high tech exigem muitos anos de aperfeiçoamento profissional e educação mais especializada. Mesmo assim, aquelas carreiras serão destinadas aos poucos que lá possam chegar. Os cinco empregos mais disponíveis na economia informacional serão os serviços de porteiros, auxiliares de enfermagem, vendedores, encarregados de caixa e garçons.9 A partir daí poder-se-ia concluir que aquilo que os jovens devem defender como seu interesse na vida é uma educação que os equipará para que façam perguntas diretas e críticas com relação a esta perspectiva nada convidativa. Por que o mundo é assim? De que outro modo poderia ser? Há temas que, se devidamente ensinados, auxiliam as pessoas a 9

Esta visão do mercado de trabalho, baseada nos dados do Bureau of Labor Statistics, foi tirada de Henry M. Levin e Russell W. Rumberger, “The Educational Implications of High Technology”, relato do Institute for Research on Educational Finance and Governance, Stanford University, fev. 1983, p. 5.

responder a tais questões. São as ciências sociais, a história, a filosofia. E todas estão baseadas na literacy [capacidade de ler e escrever] simples e fora de moda que possibilita às mentes inquiridoras o acesso aos livros, a idéias, insights éticos e visão social.

O campus computadorizado O computador adentrou o mundo da educação superior de forma mais fácil e decisiva do que o das escolas primárias e secundárias. As universidades, afinal de contas, têm maior controle interno sobre suas escolhas do que os sistemas escolares congestionados pela burocracia. É também uma esfera de homens e mulheres instruídos, eruditos e especialistas que estão supostamente preparados para fazer julgamentos argutos que se elevam acima das extravagâncias do mercado. Os campi foram, porém, o alvo de uma feroz campanha de marketing por parte dos fabricantes de computadores e o resultado parece estar sendo devastador. Muitas das mais importantes universidades compraram seu primeiro computador a partir de meados da década de 60, um dos gigantes da IBM. O computador do campus tornou-se um haver dispendioso que era freqüentemente mostrado como sinal de status. Era geralmente instalado em um centro de computação onde havia ar-condicionado e utilizado principalmente para processamento de dados administrativos. Os registros escolares se transformaram rapidamente em saídas impressas do computador; notas, horários e programas passaram a ser passados em cartões perfurados. As escolas de mais recursos, especialmente aquelas com fortes departamentos científicos, adquiriram rapidamente mais alguns desses grandes sistemas para seus técnicos; eram utilizados principalmente na organização de arranjos para divisão do tempo, que eram sempre a arena de uma intensa competição e disputa nas faculdades. No início da década de 70, as universidades começaram a organizar laboratórios de computação multiterminais, onde os alunos e a faculdade poderiam tocar a tecnologia com as mãos. Uma vez mais, departamentos de prestígio fariam o máximo para obterem seus próprios laboratórios autônomos como sinal de status. Nessa época, cursos opcionais de programação de computadores começaram a surgir, principalmente para estudantes de ciências e engenharia. A sociedade se computadorizava em seus principais setores; mas havia poucos educadores que pensavam acerca da habilidade e capacidade de se lidar com o computador [computer literacy] como uma necessidade urgente no ensino superior. Muita coisa mudou significativamente nas universidades com a mudança do mercado. Na década de 80, com o advento do microcomputador, um item de pronta venda, a indústria de computadores passou a perseguir a academia com o mais intenso marketing massificado da história dos negócios. O objetivo era nada menos que colocar os computadores nas mãos de todos os professores e estudantes. Com o auxílio de bolsas, doações e descontos estupendos de até 80%, as empresas conseguiram causar impacto em muitas pessoas; isto funcionou como uma série de transações-guia para atingir mais e mais escolas grandes e pequenas. Os campi não mostraram muita resistência a tais carícias. As universidades constituem um mercado rico. Como um todo, elas gastaram em torno de 1,3 bilhões de dólares em computadores em 1984. Até o final da década, a projeção indica que gastarão 8 bilhões. Escolas menores como Carnegie-Mellon (5 500 estudantes)

podem gastar entre 10 e 15 milhões por ano com a nova tecnologia; o orçamento de uma grande escola como a Universidade de Michigan (três campi) atinge 50 milhões de dólares por ano.10 Um estudo realizado em 1981 pela Fundação Nacional de Ciência [National Science Foundation] estimou em 30 milhões de dólares o custo para equipar um campus de 5 mil alunos com computadores; este é o custo aproximado para construir um novo edifício. Uma grande universidade deve gastar algo entre US$ 100 e US$ 200 milhões. Estes não são gastos únicos; existem os custos de manutenção e de operação, mais a necessidade inevitável de atualização de equipamento que geralmente se torna obsoleto justamente quando está preparado para ser utilizado.11 O que é ainda mais promissor é que as escolas controlam um imenso mercado estudantil, cuja população é constituída por futuros profissionais de alta remuneração e do tipo colarinho branco, que são os consumidores ideais de computadores. Será uma bonança para a indústria se os educadores forem persuadidos a impor uma exigência referente à habilidade computacional. Escolas tão influentes como Harvard, Yale e a Universidade da Califórnia em Berkeley têm considerado isso seriamente, mas ainda não adotaram a medida, talvez porque não têm idéia mais clara do que as escolas secundárias do que significa a expressão. (Mas pelo menos uma pequena instituição como a Dallas Baptist, em que todo novo aluno deve comprar um Radio Shack modelo 100, foi bem longe a ponto de insistir em que pelo menos três escolhas por semestre em cada curso exigiria o uso de computador).12 Para os negociantes de dados, a aquisição da máquina é um requisito bem mais importante do que um requisito referente à habilidade computacional [computer literacy], com relação à admissão do aluno. Isto está ocorrendo atualmente. Em Darmouth, os calouros devem ter um Macintosh; no Clarkson College em Nova Iorque, exigem-se Zeniths. Carnegie-Mellon, Drexel, Stevens Institute e Drew estão entre a quase uma dúzia de escolas que atualmente acrescentam (e bem) o preço de um computador nas taxas pagas pelos alunos. Não se pode dizer até onde se espalhará esta moda em políticas de admissão, mas é certamente uma inovação audaciosa. Terá havido alguma vez outra instância de ensino universitário que exigia a posse de um determinado equipamento para a consecução do aprendizado? Surgem novos problemas e possibilidades com o crescimento rápido do número de microcomputadores e de faculdades nos campi. Há, sobretudo, o desafio de coordenação, para assegurar que as máquinas sejam compatíveis entre si. Uma nova figura apareceu no campus, com poder considerável, para cumprir a tarefa: o “czar dos computadores” — geralmente com um título como “Superintendente” ou “Reitor adjunto para Tecnologia da Informação”. O principal projeto que a maioria dos czars objetiva é a interligação através de redes [networking] de todos os computadores do campus, constituindo um sistema encantador. Isto pode começar com um certo número de grupos ou estações de trabalho, pequenas coleções de computadores localizados possivelmente nas bibliotecas ou dormitórios. A partir de tais redes, outras maiores podem ser estendidas. Esta é uma decisão que requer árduo planejamento, possivelmente com desembolsos para extensão das redes elétricas. A escola que opta pela instalação de redes tem raízes profundas calcadas na 10

Linda Watkins, “On Many Campuses, Computers Now Are Vital and Ubiquitous”, Wall Street Journal, 30.11.1984, p. 1. M. M. Waldrop, “Personal Computers on Campus”, Science, 26.4. 1985, p. 441. 12 Para um estudo sobre os computadores nas universidades, ver Donna Osgood, “A Computer on Every Desk”, Byte, jun. 1984. Ver também Judith A. Tumer, “A Personal Computer for Every Freshman”, Chronicle of Higher Education, 20.2.1985, p. 1. 11

tecnologia. Os computadores vieram para ficar e seu número crescerá. Por esta razão, os fabricantes de computadores estão ansiosos para ajudar as universidades nesse movimento até este platô de permanência do computador. Em Carnegie-Mellon, a IBM está acompanhando a construção de uma rede de 7 500 estações de trabalho. Quando for completada, ela será a primeira escola a ter mais computadores do que estudantes. Na Universidade de Houston (44 mil estudantes em quatro campi) a Digital Equipment Corporation gastou US$ 70 milhões para instalar uma rede de 4500 terminais, para a qual ela arcará com metade do custo.13 Há outra proposição tentadora que auxilia neste caminho das universidades até a completa computadorização. As escolas e os fabricantes entram juntos nos negócios. Várias escolas assinaram contratos para empreender projetos de “pesquisa e desenvolvimento conjuntos” com importantes firmas. A faculdade — tendo sido ricamente dotada com computadores a preços reduzidos (ou mesmo grátis, como no caso de quase 150 professores de Stanford, que ganharam computadores IBM-PC para levarem para casa) — concorda em discutir novos softwares que a empresa irá comercializar, a seguir, segundo bases mutuamente vantajosas. Talvez fosse muito cinismo prever que a maioria desses softwares, uma vez que cumpriu seu objetivo como isca, irá desaparecer em alguma relação de estoques abarrotados da firma. Mas será interessante notar quantos dos projetos dos professores verãò a luz comercial do dia. Há casos, sem dúvida, em que os acordos de desenvolvimento conjunto faz sentido. O MIT, por exemplo, é o pedestal da tecnologia americana; seu corpo docente tem certamente muito a oferecer através de consultoria ou dos programas de pesquisa escolares em andamento. No MIT, tanto a IBM como a DEC colaboram com US$ 50 milhões em equipamento, pessoal e manutenção, como parte de um esforço conjunto chamado Projeto Athena. Além disso, a IBM tem um projeto de US$ 50 milhões em Brown e um contrato de US$ 10 milhões com a Universidade da Califórnia, em Berkeley. A DEC tem outros US$ 24 milhões espalhados em 15 escolas. A IBM fez uma doação mais modesta a Princeton, no valor de US$ 6 milhões em equipamentos, o que trará ao campus mil microcomputadores através de uma rede de 50 grupos: esta concessão terá um interessante efeito, a saber, o desenvolvimento de programas de habilidade computacional que abalarão as humanidades, a começar pelo Departamento de Religião. Este respondeu com avidez.14 O arranjo mais ambicioso e frutífero entre esses foi o Consórcio Apple, que uniu a empresa e mais 24 escolas (todas as universidades da Ivy League e as de Michigan e Stanford entre elas), para o desenvolvimento do Macintosh. As escolas deram pelo menos US$ 2 milhões cada à Fundação Apple para Educação; em troca, durante o ano de 1984, receberam 50 mil Macs com descontos suficientemente generosos para vencer e enraivecer vários concorrentes da Apple.15 Se tudo sair como esperam os fabricantes, haverá um dia em que todos os estudantes e professores dos campi — totalmente repletos de redes — terão micros e, então, talvez eles não se encontrem mais. Apenas trocarão tarefas e notas eletronicamente. As redes poderão 13

Sobre instalação de redes nos campi, ver Peter Gwynne, “Computers Are Sprouting in the Groves of Academe”, Technological Review, out. 1984; e Ian Anderson, “Computer Firms Battle for Hearts and Minds”, New Scientist, Londres, 9.2.1984, p. 23. Ver também Osgood, “A Computer on Every Desk”; Waldrop, “Personal Computers on Campus”. 14 Sobre o projeto Princeton, ver New York Times, 24.6.1984, p. 30. 15 Para um estudo de diversos projetos, incluindo o Apple Consortium, ver o artigo de Osgood, “A Computer on Every Desk”.

ampliar os campi a partir dos quais foram criadas — como no caso da Universidade de Houston, em que professores e alunos podem comunicar-se estando em suas próprias casas. Os professores podem não apenas dar notas aos alunos eletronicamente, mas também se comunicar com eles a qualquer hora do dia ou da noite, e talvez observar on-line que tarefas estão sendo processadas na tela de vídeo, fazendo sugestões que possam auxiliar. (Naturalmente este tipo de fraternidade imprevisível e intrusa seria possível atualmente através do telefone. Esta é a razão de muitos professores, segundo minha experiência, tudo fazerem para manter seus números de telefone em segredo. Não estou certo da razão pela qual alguém supõe que o terminal do computador, sempre ligado e exigindo atenção, venha a tornar a interação professor-aluno mais atraente.) O último objetivo das redes em escala grandiosa é tornar-se uma “cidade de fios” que se expanda até a comunidade circundante. Juntamente com a Bell Telephone e a Warner Communications, que detém o privilégio das redes locais de televisão, a Universidade Carnegie-Mellon está planejando fazer o mesmo na área de Pittsburgh. Poderíamos tentar encontrar com afinco outra época em que uma simples indústria tivesse sido capaz de impor seus interesses de forma tão agressiva sobre as escolas de uma nação — e encontrar tão entusiástica receptividade (ou tão tímida submissão) por parte dos educadores. Isto é mais notável se considerarmos que provavelmente não existem dois professores ou cientistas de computação com a mesma definição de “habilidade computacional” [Computer literacy] — o objetivo de lançamento da campanha. No tocante aos benefícios intelectuais gerais desta habilidade, não há evidência a ser encontrada além das alegações da literatura promocional da indústria de computadores, ensopada de alusões futuristas sobre a vida na Era da Informação. Se os fabricantes de computadores tiverem sucesso em suas vendas, poderemos estar diplomando em breve estudantes que acreditarão (com o encorajamento de seus professores) que pensar é realmente uma questão de processamento de informação e, portanto, sem um computador nada pode ser pensado. “A grande universidade do futuro será a que tiver um grande sistema de computação”, conforme anunciou Richard Cyert, presidente da Carnegie-Mellon.16 Uma dramática afirmação de convicção. Sem dúvida, muitos educadores desejam que suas escolas tenham os recursos que sua universidade arrecadou com base nesta grandeza, mesmo que permaneça na obscuridade a forma pela qual quantidades deste poder computacional possam ser transformadas em qualidade de ensino. Não há dúvida que os computadores têm um papel valioso a cumprir como aparelhos de cálculo nos campos técnicos, como sistemas de registro e armazenamento eletrônicos ou como processadores de palavras. Tomados em conjunto, tais atributos constituem uma contribuição significativa de cada simples invenção na vida de professores e alunos. Mas os entusiastas dos computadores prometeram que a nova tecnologia fará mais do que simplesmente substituir a régua de cálculo, a máquina de escrever e o arquivo de aço. Seus benefícios alcançam supostamente os valores intelectuais no mais alto grau, nada menos do que a radical transformação de métodos e objetivos educacionais. O computador, afinal de contas, é o portador de informações em abundância, que são tidas pelos próprios educadores como sendo a substância do pensamento. Mesmo o doutor Ernest Boyer, presidente da Fundação Carnegie para o Avanço do Ensino, que fez muitas críticas perspicazes sobre o desperdício e o abuso do computador nas escolas, concorda que, “a longo prazo, professores eletrônicos 16

Cyert, citado em Wall Street Journal, 30.11.1984, p. 18.

poderão prover trocas de informação, idéias e experiências de forma mais efetiva (sem dúvida de forma diversa) do que a tradicional sala de aula ou o professor. A promessa da nova tecnologia é a de enriquecer o estudo da literatura, da ciência, da matemática e da arte através de palavras, imagens e mensagens auditivas”.17 Quão decepcionante é, portanto, ver promessas como esta se transformarem em meros chavões promocionais. Há, por exemplo, a imagem do campus completamente computadorizado e ligado por redes, que normalmente permanece como objetivo último da computadorização das universidades. Sem deixar seus quartos, os estudantes serão capazes de ter acesso ao catálogo de livros da biblioteca ou de registrar em um mural estudantil para trocar informações, fofocas, marcar encontros, conseguir uma carona, comprar livros de segunda mão. Poderão entregar tarefas eletronicamente a seus instrutores. Sim, esta e mais uma dúzia poderão ser computadorizadas. Mas por que deveriam? São agora realizadas pelas formas mais óbvias e pelos meios mais econômicos: os estudantes vão até a biblioteca, a livraria, o centro estudantil, o café mais próximo, onde eles encontram outros seres humanos. Eles falam, escutam, fazem arranjos. Exceto para estudantes incapazes (para os quais o computador pode ser uma dádiva), que sempre consideram tais atividades comuns bastante cansativas, quem concordaria com o custo de uma tecnologia dispendiosa para eliminá-las? De fato, sempre pensei que um campus de vitalidade intelectual é o que é projetado em sua arquitetura, fundamentos e espírito geral, de forma a tornar atraente e freqüente tal intercâmbio humano diário — e não aquele em que são gastos milhões para poupar aos estudantes o exercício de deixar seus quartos. Quando entusiastas sugerem tais usos artificiais para o computador, não estão fazendo mais que dando uma lição de dependência tecnológica, um vício já arraigado em nossa cultura. Por razões comerciais óbvias, estão impondo uma máquina em lugares onde não seria necessária. Da mesma forma, a perspectiva de estudantes submetendo-se a tarefas por via eletrônica significa o endosso de um pseudoproblema que surge apenas porque foi inventado pelos mercenários da publicidade, que só se preocupam com a venda de seus produtos. Deparei com a publicidade de computadores, que parece determinada a que eu esqueça que o lápis vermelho — sublinhando, fazendo círculos, escrevendo nas margens e entre as linhas da página (coisas que nenhum computador pode fazer) — é um dos instrumentos mais práticos jamais inventado. Todo professor experimentado sabe disso; mas os anúncios querem confundir-me para que eu concorde que, como um membro da Era da Informação, deveria estar lidando exclusivamente com discos flexíveis e telas de vídeo. Admitirei que, em um certo grau, determinado critério de grandeza educacional possa envolver assuntos de gosto pessoal. Algumas pessoas preferem a imagem da escola como série de estudantes solitários em cubículos particulares, sentados como assistência imóvel defronte de terminais de computador, com seu repertório de atividades restrito a uma posição determinada acionada pelo repetitivo acionar do teclado. Considero este quadro dificilmente aceitável, mesmo quando possa ser justificado por algum exercício: certos drills, trabalhos de cálculo ou gráficos. A imagem não fica mais atraente se me dizem que trabalhar com computadores é uma ocasião maravilhosa para socialização: os estudantes se reúnem ao redor da máquina, tirando sugestões de suas diretrizes, debatendo os pontos específicos desta ou daquela resposta a suas questões. Com referência ao caráter 17

Ernest L. Boyer, “Education’s New Challenge”, Personal Computing, set. 1984, pp. 81-85.

educacional, considero ambas as situações como simplesmente outra forma de dessecação tecnológica em nossas vidas, surgindo justamente em um lugar que gostaríamos de salvar de sua praga. Meu próprio paladar já me traz outra imagem: a dos professores e estudantes em companhia uns dos outros, talvez discutindo um livro, uma obra de arte, mesmo uma tosca garatuja no quadro-negro. No mínimo, essa imagem me recorda o quão maravilhosamente simples, mesmo primitiva, é a educação. É o encontro direto entre duas mentes, uma precisando aprender, a outra querendo ensinar. A espontaneidade biológica de tal encontro é um fato dado da vida; deveria, idealmente, ser mantida próxima ao corpo, tão dócil e flexível quanto possível. Muitos aparelhos, bem como muita burocracia, apenas inibem o fluxo natural. O diálogo humano livre, vagueando por onde permita a agilidade da mente, assenta no coração da educação. Se os professores não têm tempo, incentivo, compreensão ou senso para prover isso, se os estudantes estão muito desmoralizados, chateados ou distraídos para reunir a atenção que seus professores necessitam deles, então é justamente esse o problema educacional que deve ser solucionado — e solucionado a partir de dentro da experiência de professores e alunos. Deixar que o computador faça as opções [defaulting] não é uma solução: é capitulação. Mas há outras questões que transcendem gosto, relativas à teoria educacional, política social e ética profissional. É completamente errado deixar que prioridades de nossas escolas sejam estabelecidas por aqueles cujos interesses comerciais estão em jogo. Este vício infestou as escolas públicas do passado; pode ter avançado muito, mais que nunca, à medida que as escolas investem em máquinas glamorosas sem a menor idéia de como utilizá-las. Estão assim procedendo porque absorveram clichês insensatos sobre “informação”, seu valor intelectual e urgência profissional, que nada mais são do que espécimes publicitários. Isto as levou a fazer vista grossa ao grau em que os problemas educacionais são políticos e filosóficos; não podendo, assim, ser reduzidos a uma questão tecnológica. Para mencionar apenas os mais óbvios desses assuntos em que a ética da profissão de professor exige honestidade e franqueza:

• Estudantes alienados ou violentos nas escolas podem estar refletindo uma ansiedade e mesmo um desespero, que se origina em sua condição social de desvantagem, ou na natureza coerciva do próprio sistema social; independentemente de quão eqüitativa seja a distribuição dos computadores pelas salas de aula, estes estudantes não estão aptos para descobrir o desejo de aprender. • Estudantes que compram a idéia da habilidade computacional para sanar sua fome de emprego estão simplesmente sendo enganados; aquilo que eles aprendem em algumas experiências de laboratório não os fará nem um pouco mais favorecidos para a obtenção de um emprego. • Professores que estão se refugiando em vistosos softwares como entretenimentos convenientes para a classe, estão fazendo os estudantes perderem tempo e aviltando suas próprias profissões. Pode-se perceber quão distorcidas se tornaram as discussões sobre educação na Era da Informação, à medida que os educadores começaram a explorar não apenas o produto, mas também a linguagem e as imagens do mercado industrial. “Produtividade” é a palavra

que o doutor Arthur S. Melmed, do Departamento de Educação, utiliza para definir “o problema central da educação. A chave para a melhoria da produtividade em todos os outros setores da economia tem estado na inovação tecnológica. Aplicações da informação e tecnologias modernas que são desenvolvidas corretamente e apropriadamente utilizadas, poderão em breve oferecer aos responsáveis pelas políticas educacionais ... uma oportunidade única para administração da produtividade”. Segundo as mesmas diretrizes, Richard Cyert da Carnegie-Mellon prevê que a rede de computadores de sua escola “terá o mesmo papel no aprendizado dos alunos que a linha de montagem na década de 20 tinha com relação aos automóveis. A linha de montagem permitiu o desenvolvimento da fabricação em larga escala. Da mesma maneira, o sistema de redes de computadores pessoais permitirá aos estudantes aumentar significativamente a quantidade de aprendizado realizado por eles na universidade”.18 Os computadores, como os especialistas estão sempre nos lembrando, não fazem nada mais do que aquilo que o programa lhes indica. Mas, como as opiniões acima deveriam deixar claro, os programas podem ter um programa escondido dentro deles, uma série de valores que contam mais do que as virtudes interativas e os truques gráficos da tecnologia. Á essência da máquina é seu software, mas a essência do software é sua filosofia.

Poder e dependência Qualquer um que já tenha observado uma criança quase que hipnoticamente absorvida pelo estonteante espetáculo de um video game, não pode deixar de reconhecer o poder peculiar do computador de enfeitiçar seus usuários. Felizmente, a forma mais desmedida deste encantamento parece ter perdido sua influência na imaginação adolescente; as galerias de vídeo estão rapidamente caindo em popularidade. Mas o que pudemos ver em seu extremo é uma capacidade de fascinar que foi ligada ao computador desde as primeiras máquinas com programas armazenados que apareceram nas universidades. Chega até as primeiras gerações de jovens hackers em alguns seletos laboratórios de computadores, como o do MIT. Os hackers sempre foram uma minoria excêntrica de mentes privilegiadas, para quem as complicações do computador podem tornar-se uma obsessão, se não um vício; mas eles cumprem um papel crucial na história da tecnologia. Foram os primeiros a se entregarem inteiramente à estranha interação entre a mente humana e sua inteligente contrafação mecânica. Esta interação exige a atenção cuidadosa de educadores, pois carrega dentro de si um curriculum oculto, que aparece na classe juntamente com o computador. Entre os hackers, uma das principais atrações da máquina era a fascinante sensação de poder que dava a seus usuários, ou melhor, a seu mestre. Pois o computador não era simplesmente utilizado, mas tinha-se controle intelectual sobre ele. Era uma máquina complexa, uma “corporificação da mente”, conforme Warren McCulloch o descreveu certa vez, e poderia facilmente evitar aplicações efetivas. Mas, mesmo quando assim ocorria, este mau comportamento surgia a partir de uma extensão rigorosamente consistente de sua programação que ainda exigia compreensão. Não era como no caso de um automóvel, que 18

As citações de Melmed e Cyert foram tiradas de Stephen L·. Chorover, “Cautions on Computers in Education”, Byte, jun.-1984, pp. 22-24.

apresentaria defeito simplesmente devido a uma parte desgastada; seus problemas não seriam meramente físicos. Poderiam ser consertados somente com a busca da falha através da densa lógica do programa. Mas se o hacker dominasse essa lógica, ele poderia subjugar o computador conforme seu desejo (“seu” está historicamente correto aqui: notadamente com relação a todos os primeiros hackers, cuja maioria era masculina, vivendo como celibatários). Conforme declarou um gênio da computação a Steven Levy, que escreveu a melhor história dós primeiros hackers, houve um dia em que ele chegou à “repentina constatação” de que “o computador não era tão inteligente assim. Era apenas uma besta muda, que cumpria ordens, fazendo apenas aquilo que lhe era pedido na justa ordem que lhe era determinada. Podia ser controlada por você. Você podia ser Deus”.19 Mas a satisfação de se tornar o Deus da máquina, de reduzi-la à condição de uma “besta muda”, não está disponível a todos; apenas àqueles que podem ser mais inteligentes que a máquina inteligente. Em primeiro lugar, deve ser respeitada como um tipo sinistro de mente, que pode realizar muitos truques mentais de forma mais perfeita do que o usuário. A relação entre ser humano e máquina é, assim, ambivalente, uma mistura complexa de inferioridade e necessidade de dominação, de dependência e mestria. “Como a lâmpada de Aladim, você poderia tomá-la para cumprir suas ordens”. É como Levy descreve um certo momento divertido e estimulante durante os primeiros encontros de hackers com computador. Mas como a lâmpada de Aladim, a máquina possui um gênio mais poderoso do que o ser humano que temporariamente controla sua obediência. A palavra poder é freqüentemente utilizada na literatura sobre computadores. O computador é um “instrumento poderoso”, seu combustível são “poderosas teorias” e “idéias poderosas”. Os computadores “não são bons ou maus”, conclui Sherry Turkle em seu estudo de psicologia sobre os jovens usuários do computador. “Eles são poderosos”.20 Como vimos, os cientistas da computação têm estado prontos a exagerar tal poder até o sobre-humano, até mesmo a dimensões que poderiam ser ditas divinas. Talvez será em breve “uma inteligência acima da do homem”. Estas especulações impetuosas da parte de autoridades respeitadas não são apenas digressões extravagantes; são imagens e aspirações que se entrelaçam no folclore dos computadores e se incluem entre as prioridades que guiam esse desenvolvimento. Estão intimamente envolvidas na sensação de poder que circunda a máquina, mesmo quando apresentada de forma divertida às crianças no nível básico de habilidade computacional. Este pode ser um momento educacional iluminador para as crianças — desde que ocorra da forma correta. É a introdução das crianças na forma de poder que mais distingue sua espécie: o poder da mente. A certa altura, elas devem aprender que o fantasma da mente, astucioso e repleto de recursos, fornece uma vantagem biológica maior do que o tamanho e a força, e que a inteligência vale mais do que a força bruta dos músculos ou dos motores que os substituem. Na Grécia antiga, as crianças aprendiam o valor da sagacidade a partir das proezas de Ulisses, o homem de “muitos estratagemas”. As crianças índias americanas aprendiam a esperteza a partir da figura mítica do Coyote, o Velhaco. No Ocidente moderno, o poder de sobrevivência da mente passou a se concentrar nos “muitos estratagemas” de nossa tecnologia, e atualmente, o que é mais importante, em 19

A citação é de Steven Levy, Hackers: Heroes of the Computer Revolution, Nova Iorque, Anchor Press/Doubleday, 1984, p. 284. Nesta seção, estou seguindo a excelente e divertida história dos primeiros hackers. 20 Turkle, The Second Self, p. 218.

uma máquina inteligente que é o ponto mais alto atingido por essa tecnologia. Quaisquer que forem os exercícios que as crianças façam no computador, mesmo os mais simples, permitirão que elas aprendam que o computador tem o que os adultos consideram como o mais elevado tipo de poder, uma capacidade que é similar à que têm os homens quando planejam, armazenam informação, resolvem problemas: algo próprio da mente. Devido a esta semelhança com a mente, a pequena caixa com a tela de vídeo sobre ela, que não tem o aspecto de uma pessoa, passou a ser circundada por todo tipo de personificações. Alguém “fala” com o computador. Ele “entende” — ou não entende. Ele “pergunta” e “responde” algumas questões. “Lembra” algumas coisas. Diz “por favor” e “obrigado”. Sobretudo, ele “ensina” e “corrige” porque “sabe” algumas coisas, e as conhece bem. Se a habilidade computacional conquistar seu lugar em nossas escolas, os estudantes poderão acabar aprendendo essas qualidades próprias da mente não a partir de outros seres humanos, mas mais freqüentemente a partir de uma máquina. Mesmo se estiverem também aprendendo com um professor, este não consistirá em um estrategista “poderoso”. Ninguém — certamente nenhum cientista da computação — jamais descreveu a mente de um professor como um “instrumento poderoso”. Por que não? Porque os professores não podem saber tanto quanto a caixa. Esta pode lidar com muito mais informação. Mesmo se o pequeno computador na sala de aula tem uma capacidade limitada, as crianças sabem que há outros computadores maiores no mundo em que elas vivem. Podem ser vistos no banco, nas lojas, no consultório médico. E quando os computadores são acoplados, têm um poder que nenhum professor pode ter. Nunca cometem erros. Este é o poder que os adultos respeitam e querem que as crianças aspirem: o poder de estar sempre certo, rápida e completamente. Mas este é um poder que pode somente ser detido pela máquina. Conforme afirmou uma criança: “Os computadores nunca cometem erros. Se há um erro, ocorreu por parte das pessoas que estão utilizando o computador ou porque ele está quebrado”.21 A mistura de metáforas frouxas e antropomórficas, software interativo e fantasias comerciais que acompanham o computador até a classe, traz consigo uma lição clara e subliminar. É a lição que os inventores do computador e os principais usuários entranharam na tecnologia: uma concepção de pensamento, de ordem, de prioridades intelectuais. Algo como: Aqui está uma forma de poder. O poder da mente. O maior poder da mente — o poder de processar informações sem limites, com absoluta correção. Vivemos na Era da Informação que precisa deste poder. Conseguir um emprego, ter sucesso, significam adquirir este poder. A máquina o tem, você não. A medida que o tempo passa, a máquina terá mais e mais poder. Será digna deste poder pois se ajusta melhor ao mundo do que o cérebro humano. Os únicos cérebros humanos que merecem confiança são aqueles que utilizam a máquina para que os ajude a pensar. Esta lição pode ser transmitida de uma forma não ameaçadora, mesmo convidativa. Este é o estilo de toda instrução dos computadores. Comece pelo simples. Divirta-se. Adquira confiança. A máquina deveria ser, do ponto de vista ideal, “amiga do usuário”, uma frase curiosamente condescendente que sugere que a máquina está sendo gentil o suficiente para simplificar e ir com mais calma com os usuários menos talentosos que precisam ser mimados. O mais encorajador é que a máquina fará com que seus usuários participem de seu poder. Pode ser domesticada e trazida para casa como se fosse um servente mental. Tudo o que se necessita é se ajustar ao modo de pensar da máquina. Ao 21

Melvin Berger, Computers, Nova Iorque, Coward, McCann & Geohegan, 1972.

adquirir a habilidade computacional, comenta Paul Kalaghan, decano de ciência da computação na Universidade Northeastern, “você terá a possibilidade de passar sua vida trabalhando com aparelhos mais espertos que você e ainda ter controle sobre eles. Ê como carregar uma arma na velha fronteira”.22

Um universo particular Para aqueles que passam a ter acesso a este poder, o computador oferece uma recompensa tentadora. Como declarou um hacker: “Você pode criar seu próprio universo e pode fazer tudo aquilo que quiser dentro dele. Você não precisa lidar com pessoas”.23 Uma vez mais, é uma atração que pode ser vista em seu ponto extremo nos viciados em video games. No computador pode-se criar um mundo de fantasia autônomo de lógica exata, parâmetros previsíveis e dados escolhidos. Quando alguém desenvolve talento suficiente para lidar com a máquina, este mundo se projeta em uma das capacidades técnicas mais impressionantes do computador: a simulação. Para engenheiros e cientistas (possivelmente mesmo cientistas comportamentais) isto pode ser um recurso de valor incalculável. Oferece a possibilidade de investigação de panoramas imaginários, percorrendo [running] um “se” após outro. A precisão gráfica e a claridade de comando que uma simulação revela na tela de vídeo pode levar a uma terrível confusão, especialmente nas crianças. O modelo — um universo particular previsível e ordenado — pode começar a parecer uma “realidade” melhor. Não devemos esquecer que a simulação se aplica apenas a modelos. O computador manipula uma série de suposições, de hipóteses sobre a realidade, não a própria realidade. Pode fazê-lo para estudar as implicações extremas ou de longo alcance de tais hipóteses, ou talvez opor uma suposição a outra. Tudo o que ele faz sob essa perspectiva, nunca pode estar “errado”. Suas simulações serão sempre coerentes e logicamente consistentes. Sem dúvida, o que ele faz pode não ter nenhuma relação com o mundo que está fora de seu programa. Ainda assim, uma vez que ele oferece uma pequena “realidade” própria controlável, ele pode acabar atraindo a atenção do usuário para as angulosidades confusas e frustrantes da vida diária. Este seria o caso em que “fatos” hipotéticos tomam o lugar de dados em função da simulação. Aqui, por exemplo, está “um sistema para ensino de um padrão de pesquisa através de simulação em computador”, conforme uma das maiores empresas de softwares educacionais anota no manual de instruções. O sistema é chamado Exper Sim (para simulação experimental), um programa disponível como parte do bastante divulgado PLATO, da Control Data Corporation. O Exper Sim é uma forma de ensinar o “método científico” através de simulações que superam as “limitações de tempo” da classe. Conforme a explicação da Control Data, o programa capacita “os estudantes a realizar experiências em um computador que foi programado para gerar dados peculiares. O computador substitui uma coleção de dados reais, economizando tempo e minimizando a necessidade de espaço, equipamento e supervisão em um laboratório dispendioso”.

22 23

Kalaghan, citado no New York Times, 13.1.1985, p. Al. Levy, Hackers, pp. 289-290.

Pode-se notar como, em nome da economia e da eficiência, a experiência do estudante acaba se restringindo ao computador, que, supostamente, contém todos os dados necessários. No experimento, o estudante recebe uma lista de variáveis do instrutor, formula uma hipótese e “pondera sobre qual tipo de dados ele gostaria de coletar para testar sua hipótese”. O experimento é então introduzido no computador, que fornece as informações “brutas” do tipo que ele teria coletado se tivesse realmente realizado o experimento. Após analisar estes dados, o estudante planeja outro experimento próprio para refinamento de sua estratégia de pesquisa e expansão de suas conclusões. O que se pode ver aqui é a possibilidade bem real de que o estudante e o computador se tornarão um sistema fechado que chega a “conclusões” baseadas apenas em simulações. A máquina se tornou uma “substituição para coleções de dados reais”. Mas como isto é possível? Os computadores processam informações; eles não as “reúnem” nem “geram”. Esta confusão desmascara mais dramaticamente a utilização dos computadores para rernontagem de experimentos clássicos com propósitos educacionais. Entre esses exemplos estão os famosos experimentos de reprodução de Mendel, que sustentam as leis de hereditariedade genética.24 Uma simulação pode ser realizada e mostrar rapidamente um resultado previsto pela teoria sobre muitas gerações. Sem dúvida isto economiza muito tempo. Mas também avança um longo caminho em direção à falsificação da ciência real. Porque isto não é um experimento; é a simulação de um experimento, e desta forma uma severa redução da realidade. O experimento, afinal de contas, já edita a realidade com fins de focagem e controle; a simulação edita o experimento através da eliminação do trabalho científico real envolvido: o arranjo cuidadoso da aparelhagem, a manipulação de materiais, as partidas falsas e ciladas, a espera freqüentemente maçante e atenta, a distinção cuidadosa dos resultados. Mas, o pior é que ela elimina os riscos, que são os traços característicos conjuntos da experimentação. Experimentos verdadeiros devem sustentar a possibilidade de falha para provarem suas hipóteses. Contudo, na simulação tudo ocorre perfeitamente, uma vez que a teoria de Mendel e todas as suas decisões faziam parte do programa. Apesar disso, os cientistas que se deram ao trabalho de repetir o trabalho de Mendel sempre tiveram de lutar com o fato de que ervilhas reais (ou as moscas-das-frutas) nunca caem obedientemente em categorias discretas. Elas apresentam casos anuviados, obscuros, intermediários, limítrofes, que exigem julgamentos difíceis a respeito dos quais diferentes observadores discordam. Talvez, como suspeitam alguns cientistas, mesmo Mendel permitiu que sua teoria desse forma aos dados: um importante aspecto da ciência a ser aprendido pelos estudantes. Quão verdadeiramente científicas são as simulações que tornam a realidade mais “teoricamente” ordenada do que jamais demonstrou sê-lo?25 Simulações são um passo fora da realidade desordenada que nos circunda é dentro das ficções ordeiras do computador. Onde os poderes gráficos incríveis do computador e cálculos magistrais são combinados com seu domínio da informação (com altas propagandas), pode ser criada a impressão de que os estudantes estão em contato com uma realidade superior e auto-suficiente no interior da máquina, uma realidade que eles teriam o poder de controlar. Eles devem seguir adiante. Não fosse pelo imoderado louvor e pelo 24

O software que simula a genética de Mendel está disponível nas séries PLATO de controle de dados e no programa CATLAB da Universidade de Iowa. 25 Nesse aspecto do trabalho de Mendel, ver Robin Dunbar, “Mendel’s Peas and Fuzzy Logic”, New Scientist, Londres, 30.8.1984, p. 38.

exagero pairante (o “hiper”) que circunda o computador, e isto poderia não ser um perigo sério. As crianças e o público em geral reconheceriam que o “universo” que podemos criar em uma tela de computador é uma pequena simulação altamente editada da realidade. Sobretudo é um universo criado por uma pequena simulação altamente editada de nós mesmos. Apenas uma estreita faixa de nossa experiência é representada no computador: a razão lógica. O contato sensual, a intuição, julgamentos não articulados de senso comum e gosto estético, foram deixados de lado amplamente, se não completamente. Não trazemos todos os recursos do “eu” [self] para o computador. Vivemos em um mundo em que as imagens e simulações eletrônicas já estão forçando os fatos maiores e mais refratários da vida para fora da consciência das pessoas. Em nossa busca de ordem em um mundo desordenado, recorremos a projeções, jogos de guerra, previsões econômicas, modelação global, apuração eleitoral — as muitas abstrações do computador que são supostas como nossas auxiliares na administração de uma realidade caótica. Desde a época em que as crianças começam a se encaminhar alegremente através desta paisagem apresentada como lógica, o computador promete o poder de entender, controlar e de estar sempre certo. Mas este poder enfraquece até se tornar ilusão sempre que esquecemos que aquilo que ele comanda é uma invenção de estruturas lógicas, suposições, hipóteses e dados selecionados — todos de nossa autoria e escolha. Esta ilusão se aprofunda rumo ao patético sempre que esquecemos o quão limitada é a parte de nossa natureza humana na criação dessa invenção. Obviamente os professores podem retificar toda essa tendência para a confusão por parte dos estudantes. Mas ainda haverá professores na classe eletrônica? Haverá em quantidade suficiente com suficiente autoridade aos olhos dos estudantes? Conhecerão ainda, eles próprios produtos da Era da Informação, alguma outra realidade que não seja a realidade do computador? Sobretudo, acreditarão que têm o direito de corrigir uma máquina que, como lhes foi dito, está rapidamente evoluindo rumo a “uma inteligência além da do homem”?

4. O programa dentro do programa O caso do LOGO O computador entrou nas escolas em uma onda de oportunismo comercial. Como se poderia esperar, isto conduziu a uma grande quantidade de experiências desperdiçadas, do tipo tentativa e erro, por parte dos educadores. A indústria de computadores, prometendo a Lua, tem desejado endossar qualquer uso de seu produto, não importando o quão frívolo ou deturpado. Os professores têm tido que se haver entre tais pretensões e alegações como podem. Alguns podem descobrir aplicações vantajosas, mas não tem havido nenhuma filosofia pedagógica para guiar tais improvisações. Em meio à confusão, houve uma exceção notável. Seymour Papert, co-fundador dos estudos de inteligência artificial do MIT, está entre os poucos cientistas da computação que procuraram desenvolver uma filosofia educacional consistente com relação à utilização do computador. Esta filosofia tem fundamentos profundos nas complexas teorias de aprendizado do psicólogo suíço Jean Piaget, com quem Papert estudou vários anos. O resultado desta fusão entre a psicologia de Piaget e a inteligência artificial é a linguagem de programação LOGO, que Papert procurou elaborar em um curriculum amplo e perceptivo. Mais do que um conjunto de softwares bem elaborados ou um simples roteiro de estudos, LOGO é oferecido como parte de uma visão radicalmente nova de educação, como o esforço mais sistemático no sentido de se pensar o papel do computador nas escolas. Pelo menos na visão de Marvin Minsky, o companheiro de Papert no laboratório de inteligência artificial no MIT, isto o coloca como “o maior de todos os educadores [educationalists] vivos”. Papert trabalha no LOGO e em suas aplicações desde meados da década de 60. Nesse caminho, ele utilizou o programa educacional bastante conhecido Turtle Graphics e escreveu o livro Mindstorms [Tempestades da Mente, 1980]. Foi também absorvido brevemente em uma aventura instrutiva em política computacional. No início da década de 80, o governo francês foi inspirado pelo jornalista e político Jean Jacques Servan-Schreiber a organizar um grande centro de pesquisas computacionais, o Centre Mondial Informatique et Ressources Humaines, em Paris. O interesse especial de Servan-Schreiber estava em auxiliar os países do Terceiro Mundo a “saltarem para a nova sociedade da informação”. Em sua inauguração, Papert escreveu o paper chave que apresentava o programa do centro. Juntamente com Nicholas Negroponte, do MIT, ele se tornou co-diretor. A visão de Papert com relação ao centro consistia em um plano idealista para o uso do LOGO como parte de uma campanha internacional pela habilidade computacional. O centro foi generosamente financiado, mas sua orientação passou rapidamente de acadêmica para econômica, cujos principais objetivos se tornaram os de comercializar computadores franceses nas antigas colônias francesas da África. Em menos de um ano, Papert e Negroponte tinham saído do centro. Como um “utopista educacional” de estilo próprio, ele não poderia apreciar tal comercialização neo-imperialista.1 1

Para um relato do trabalho de Papert no Centre Mondial Informatique, ver New Scientist, Londres, 10.2.1983, pp. 358-361.

Ao procurar dar ao computador uma identidade educacional significativa, Papert trabalha a partir de um conhecimento honesto com relação ao freqüente uso impróprio da máquina nas escolas. Não é um otimista fácil. Mas os inúmeros abusos não o dissuadiram de acreditar que o computador pode transformar radicalmente o mundo da educação, inflamando uma “revolução de idéias, não de tecnologia”. Para Papert, o computador pode ser “um instrumento para se ensinar de tudo”.2 LOGO é projetado para entrar na vida da criança desde os primeiros estágios — possivelmente no jardim de infância — como uma linguagem de programação engenhosamente acessível. Papert tem tido dificuldades para explicar que LOGO não é apenas para crianças; pretende que seja uma linguagem com múltiplos propósitos, igualmente aplicável em níveis sofisticados. Mas seu traço característico é sua disponibilidade aos mais jovens, e é aí que encontrou principal audiência e mercado. Muito poucos softwares de uso geral foram produzidos com LOGO. Em suas aplicações educacionais, LOGO é completamente interativo: os estudantes podem ver o resultado imediato dos comandos dados pela tela de vídeo. Normalmente, eles começam com simples gráficos geométricos, utilizando comandos de tecla para mover um marcador chamado de tartaruga (originalmente havia uma tartaruga mecânica real ligada ao computador, que se movia ao longo do chão conforme instruções. A maioria das escolas utilizam hoje o LOGO sem o brinquedo, mas a pequena flecha na tela continua a ser chamada de tartaruga). As figuras geométricas escolhidas pelos estudantes são esboçadas segundo tentativas e erros, de acordo com pequenos programas para se desenhar quadrados, círculos, pentágonos, etc. A linguagem para execução do programa é simples: a palavra to (como nos infinitivos dos verbos to circle, to square) constitui um comando. Os estudantes escolhem seus próprios nomes para esses programas, que podem, por sua vez, tornar-se sub-rotinas dentro de programas maiores e mais complicados. Uma vez que o computador responde simultaneamente a todos os comandos LOGO, os alunos podem estudar e corrigir seus programas à medida que avançam. Este processo “corrija enquanto prossegue” é o cerne do acesso instrutivo ao LOGO. As crianças vêem seus erros; estes se tornam bugs que devem ser debugged,* pensando-se novamente o programa e encontrando estratégias para sanar inconsistências. Papert enfatiza a importância educacional da “idéia poderosa” da depuração. É uma alternativa para a tirania das respostas corretas que tão freqüentemente carregam o computador. Ele afirma: A questão a respeito do programa não é se está certo ou errado, mas se está em ordem. Se esta forma de observar os produtos intelectuais fosse generalizada até o nível em que a cultura mais ampla pensa o conhecimento e sua aquisição, nós poderíamos ser menos intimidados por nossos medos de “estarmos errados”. Para Papert este é um primeiro benefício do computador como um “objeto para pensarmos com ele”. Já que encora ja o estudante a fazer tentativas e ver como elas funcionam, e a seguir a corrigi-las e ajustá-las, considera-se o approach de LOGO como “descoberta/aprendizado”.

2

As citações de Papert neste capítulo são de seu livro Mindstorms: Children, Computers and Powerful Ideas, Nova Iorque, Basic Books, 1980. Ver também Papert, “Misconceptions About LOGO”, Creative Computing, nov. 1984, pp. 229-230. * Em português utiliza-se a expressão “debugar”, que significa depurar, corrigir as falhas. Bug é a falha. (N. T.)

Neste processo de programação via autocorreção, os estudantes são levados a “pensar sobre o pensamento”. Estão se tornando “psicólogos e epistemólogos”. Papert observa que “esta poderosa imagem da criança como epistemóloga atingiu minha imaginação quando eu trabalhava com Piaget... Fiquei impressionado com esta forma de considerar as crianças como formadores ativos de suas próprias estruturas intelectuais”. O objetivo de Papert tornou-se utilizar o computador como forma de auxiliar as crianças a desenvolverem tais estruturas de forma autoconsciente. Piaget dividiu o desenvolvimento mental da criança nos estágios “concreto” e “formal”, o último (por exemplo, o pensamento matemático) exigindo mais maturidade, e portanto ocorrendo mais tarde na vida. Segundo a visão de Papert, o uso concreto do computador, em que a criança lida com ele, permite a ela uma introdução mais precoce ao estágio formal de desenvolvimento. Há um problema no esquema de Papert. Não é absolutamente claro que os estudantes estão “pensando no pensar” de uma forma ampla e perceptiva, que poderia, por exemplo, familiarizá-los no modo pelo qual um artista — mais que um geômetra — pensa sobre questões espaciais. Ao contrário, eles parecem estar criticando um determinado tipo de pensamento, chamado (como Papert o chama) “pensamento processivo”. A depuração, afinal de contas, envolve a descoberta do falso passo em uma seqüência de passos lógicos. Depurar [ou “debugar”] neste sentido específico se aplica a outro estilo de pensamento? Poder-se-ia imaginar uma forma de depuração para um conto de fadas ou um jogo de esconde-esconde? Como poderia alguém “debugar” o desenho de um dinossauro? Papert gosta de afirmar que LOGO, uma vez que é interativo até a transparência a cada passo, acaba permitindo que a criança programe a máquina, e não o contrário, como ocorre em muitos exercícios de computador. Ele fala da criança “ensinando a máquina”. Mas não fica claro que, com respeito a isso, LOGO não é diferente das outras linguagens. É certo que os estudantes escrevem o programa, mas eles fazem isso nos termos da máquina. Devem proceder segundo a linguagem e a lógica da máquina — ou a máquina os advertirá. “Eu não sei como...” Os estudantes podem chamar de quadrado uma caixa e podem instruir a máquina para virar a caixa de alguns graus para um ou outro lado. Mas não podem ordenar ao computador para colocar algo na caixa, ou fazer com que cresçam asas e a caixa voe até o centro da terra. LOGO permite que as crianças tenham controle sobre um “micromundo” experimental no qual fazem sua programação; mas o micromundo não é o amplo território da imaginação humana. É, afinal, uma tela de computador bidimensional que pode exibir apenas as possibilidades do programa. LOGO tem um repertório de muitas cores e formas (um avião, um caminhão, um foguete, uma bola, uma caixa, etc.). É bem adequado a jogos geométricos, mas não à fantasia que ultrapassa esses limites estreitos. Enquanto leio o que escreve Papert, descubro-me assediado pela imagem do prisioneiro a quem foi dada completa liberdade de perambular o “micromundo” chamado cela: “Permaneça aí dentro, siga as regras e você poderá fazer o que quiser”. Com LOGO, Papert acredita que a criança “adquire um sentido de domínio sobre uma parte da tecnologia mais moderna epoderosa”. Como muitos entusiastas do computador, ele está bastante preocupado com poder: a palavra poderoso [powerful] aparece de forma proeminente em Mindstorms. Em um dos mais desenvolvidos manuais de LOGO (o Learning with LOGO — Aprendendo com LOGO — de Daniel Watt), a expressão “idéia poderosa” — tirada de Papert — aparece como uma pequena bandeira que pontua a apresentação de cada capítulo. Mas como ocorre com todos os exercícios em computador, a mestria surge adaptada ao modo de proceder da máquina. A mesma relação ambígua entre

poder e dependência permanece em LOGO como em outros curricula computacionais; a mesma ilusão de controle paira sobre os micromundos de Papert. Muitos curricula de LOGO começam com geometria e terminam logo que um repertório pequeno, mas útil, de programas básicos, tenha sido aprendido. Isto pode ser o suficiente para dar à criança um gosto substancial pela programação. Mas a visão que Papert tem de LOGO na classe é muito mais ambiciosa. Ele acredita que pode ser utilizado em todos os cursos. É neste ponto que LOGO, o mais elaborado entre todos os programas educacionais, revela as ciladas que entusiastas podem perder de vista. Consideremos, por exemplo, o modo pelo qual o curriculum de LOGO procura abranger a arte.3 Dizem às crianças que elas podem desenhar “qualquer coisa”. Da mesma forma, o exercício começa com um esboço feito à mão. Ora, se este esboço fosse feito com cuidado e imaginação, poder-se-ia qualificar a lição como arte. Mas com LOGO, isto é apenas um estágio preliminar. A criança é a seguir instruída para simplificar este esboço através da análise e decomposição em um certo número de componentes geométricos. Um caminhão, por exemplo, se torna uma grande caixa anexa a uma pequena caixa apoiada em dois círculos (as rodas). O artista construtivista Piet Mondrian poderia aprovar tais exercícios de abstração geométrica, mas mesmo isto ocorre a nível preliminar. LOGO começa a funcionar realmente no próximo passo, em que deve ser escrito um programa que fará com que o computador desenhe as caixas e círculos na tela de vídeo, cada qual em seu lugar. É preciso ter astúcia e fazer várias experiências de tentativa e erro. Finalmente, quando todos os componentes estiverem programados, a combinação total pode ser substituída por um simples comando, CAMINHÃO [TO TRUCK]. Quando é dado este comando, o cursor desenha rapidamente um caminhão. Se tudo correr bem, se parecerá com o seguinte:

E aqui está o programa que desenha o caminhão, com todos os subprogramas, cada qual tendo sido montado como se fosse um exercício separado, e a seguir incorporado no programa geral:

3

Até o final do capítulo, seguirei os planos das lições desenvolvidas por Daniel Watt em Learning with LOGO (McGraw-Hill, Nova Iorque, 1983). Watt trabalhou extensivamente com Papert e com o Grupo LOGO do MIT, e fez cursos em escolas para testes e revisões. O material citado aqui com relação a arte e poesia está nos capítulos 6 e 13.

BIGBOX SUBPROGRAM: REPEAT 4 [FORWARD 60 RIGHT 90] END MOVEOVER SUBPROGRAM: RIGHT 90 FORWARD 60 LEFT 90 END SMALLBOX SUBPROGRAM: REPEAT 4 [FORWARD 30 RIGHT 90] END MOVEBACK SUBPROGRAM: LEFT 90 FORWARD 60 RIGHT 90 END WHEELS SUBPROGRAM: RIGHT 90 RCIRCLE 5 FORWARD 90 RCIRCLE 5 BACK 90 LEFT 90 END

De modo análogo, um desenho LOGO de uma flor se transforma em uma série de curvas programadas para serem repetidas em 360 graus, e um desenho LOGO de uma pessoa é uma figura como a que se segue: As crianças que aprendem a produzir programas para esses desenhos têm ocasião de pensar como resolver tal exigente exercício. Podem estar a caminho de se tornarem os primeiros da classe em programação de computadores. Mas não aprenderam nada sobre arte; ao invés disso, foram desviadas da habilidade de manipular um meio artístico (crayon, lápis, pincel) e do divertimento que é criar livremente um quadro. Se seu interesse é sustentado pelo exercício, isso não ocorre em função do prazer estético da tarefa ou do resultado, pois no caso ambos são mínimos. Pode ser apenas em função do desafio da programação, no qual alguns estudantes podem ser muito bons.

Então vejamos: LOGO pode ensinar arte? Apenas se definirmos arte como aquilo que LOGO pode fazer com respeito à arte, o que não é muito. LOGO não permite que se solte a imaginação artística; a criança que gostaria de desenhar um cavalo, ou um monstro do espaço ou um palhaço, que não ficassem parecidos com uma coleção de caixas e círculos, não ficará contente. LOGO também não permite a utilização de lápis que, conduzido pela mão, pode percorrer, escurecer e dançar na página. A arte, como tudo o que o LOGO ensina, chega até os dedos através do teclado. Em um sentido perverso, esta pode ser uma lição interessante em ciência da computação, especialmente em pesquisa em inteligência artificial que subjaz ao LOGO; as crianças aprendem o princípio redutivo principal: se o computador não pode se elevar ao nível do sujeito, então o sujeito deve abaixar-se até o nível do computador. Possivelmente, na Era da Informação, as crianças se encontrarão vivendo em uma sociedade em que este princípio se tornou a regra em todos os campos atingidos pelo computador. LOGO poderia, então, ser visto como uma preparação útil para a “vida real”. LOGO ganha sua compreensão na classe de aula através do encontro de modos similares de introduzir alguma coisa, algo que o computador possa fazer com relação a qualquer dos interesses que as crianças possam ter. Suponhamos que as crianças queiram dançar. O que deve fazer o computador? Em um videotape de uma aula de LOGO, observei que os estudantes eram encorajados a transformar sua dança em um exercício de coreografia, mas não em suas cabeças ou músculos. Ao invés disso, após alguns passos, deveriam correr até o computador para apertar as teclas, como se assim procedendo a dança se tornasse mais séria ou real. Isso nada tem a ver com o movimento cinestésico do corpo, com seus rodopios, saltos e expressões. Na sala de aula de LOGO, a dança se transforma naquilo que o computador pode manipular: padrões geométricos, ângulos, contagem... tantos passos por aqui, meia-volta, tantos passos por ali. O exercício carece de completa plasticidade do corpo, da qualidade da música, do tom emocional. Mas ele está sujeito a um programa, e para isto as crianças são elogiadas. A lição é um sucesso. Ou tomemos a poesia. Aqui o estudante é levado a fazer listas de palavras para cada parte do discurso: artigo, substantivo, verbo, etc. Cada lista é então sujeita a um processo randômico, como parte de um programa para unir palavras em uma ordem específica. A elaboração de listas como essa é uma das características especiais da linguagem de programação AI, chamada LISP, com a qual LOGO apresenta uma relação próxima. Em primeiro lugar, o resultado do trabalho com listas randômicas está propenso a ser disparate: “Um computador nada”, “Uma geladeira voa”. Assim pedem aos estudantes que tentem agrupar palavras que “caminhem juntas”. Esta instrução é dada muito rápida e casualmente, mas é, na realidade, uma exigência que nos deixaria perplexos se levada a sério. Que palavras sempre “caminham juntas”? O plano da lição sugere que sejam agrupadas palavras referentes a esportes, a animais, a natureza. Estas, por exemplo, são: “serpentear”, “arrastar-se”, “estar oculto”, “dormir”, “murmurar”. Neste ponto, o professor não é encorajado a fazer admoestações a respeito das limitações dos procedimentos do computador, como este por exemplo. Mas, a menos que isso ocorra, algo da natureza impalpável, essencialmente protéica da linguagem ficará obscurecida. Pois o que a lição de LOGO exige é uma absurdidade lingüística. A linguagem, em virtude de suas origens metaforicamente alegres, simplesmente não cai em tais categorias. A qual grupo — esporte, animal ou natureza — pertencem as palavras “defender” e “voar”? É precisamente este problema da conexão das palavras a contextos

bem definidos que governa seu significado o responsável pela quase impossibilidade de se fazer uma máquina de tradução. Atrás do problema se coloca a interessante especulação de que a linguagem, que trouxe tantas dificuldades aos programadores em função de sua fluidez e de sua rebeldia, se manifesta a partir da dotação poética da mente e continua a carregar o selo de sua origem. Esta possibilidade pode ser apropriada para o benefício de jovens poetas que germinam. Se o tipo de agrupamentos que a lição de LOGO hoje requer fossem uma parte real da linguagem (ao invés de uma ficção temporária de classe de aula), a arte da metáfora não seria possível. Em que ocasião, afinal de contas, as palavras “tigre” e “fogo” caminham juntas? Talvez apenas em: “Tigre! Tigre! brilho abrasador...” De qualquer modo, o manual Learning with LOGO sugere que com suas instruções, os estudantes podem finalmente alcançar resultados no computador que atingem algum tipo de coerência: “Ruidosamente o turbilhonante nevoento turbilhonante mar dorme”. Ou, algumas vezes, o resultado pode ser algo intrigante como um haicai: Cada pequeno lago límpido Um pássaro encara, do abeto gelado, A agreste luz azul Isto leva à especulação: “uma vez que as palavras se constituem bem em conjunto, este quase chega a parecer poesia. E se escolhermos nossa sentença-padrão cuidadosamente, talvez se torne poesia”. A certa altura, crianças mais curiosas podem imaginar como se pode esperar que uma caixa elétrica escreva algo que merece ser meditado, como a poesia, não importando quão acidentalmente ela seja coerente. Os poemas não falam sobre algo? Eles não têm significado que surge a partir da vida de alguém? Quando as crianças fazem poemas, suas próprias mentes não parecem estar fazendo nada semelhante ao programa-poema. Elas tencionam dizer alguma coisa que preexista às palavras como um todo de um pensamento. Não são simplesmente partes de discurso embaralhadas por meio de padrões arbitrários. O curriculum de LOGO antecipa esta questão. E é aqui que a verdadeira lição é ensinada. Em seu manual Learning with LOGO, Daniel Watt explica isso da seguinte forma: Quando vejo que um computador pode produzir um poema, isso me faz parar e pensar um pouco... Você e eu sabemos que o computador estava apenas seguindo um procedimento; este o ensina a escolher certos tipos de palavras de acordo com um padrão fixado. Ele escolhe as palavras de inúmeras longas listas de diferentes tipos de palavras: substantivos, verbos, adjetivos, etc... Mas eu não estava fazendo a mesma coisa quando escrevi o poema? Eu também estava seguindo determinado procedimento. A única diferença é que eu tinha uma escolha bem maior de padrões e uma lista de palavras em minha cabeça para fazer minha escolha... De que maneira isto difere daquilo que faz o computador? Neste ponto, a criança pode levantar uma questão sobre a importância poética dos sentimentos e significados, perguntando se o computador pode elaborar um poema a partir de material lingüístico bruto. Responde o professor: “Eu acredito que um programador muito inteligente possa fazer um programa de computador suficientemente complicado para escrever poemas que pareceriam tão “humanos” que um especialista em poesia teria dificuldade em achar a diferença”.

A lição prossegue com exemplos de outras simulações poéticas, mas não há sugestão em hora alguma do que estaria envolvido ao “escolhermos cuidadosamente nossos padrões de sentença” — que é, de fato, todo o estonteante segredo do próprio discurso. Ao invés disso, a implicação é: os “procedimentos da poesia” não são tão difíceis de descobrir; aliás, estão ali na esquina. Alguns cientistas da computação estão programando grandes computadores para fazerem poesias, estórias de mistério e outros tipos de “trabalhos literários”. Haverá ainda uma época em que você não será capaz de apontar a diferença entre algo escrito por um computador e algo escrito por alguém? Algum dia você poderá ter a oportunidade de tentar responder esta questão sozinho. As palavras se mantêm ao nível da simplicidade, mas por detrás delas há uma teoria da mentalidade que emerge diretamente no âmago da doutrina da inteligência artificial. Neste caso, as crianças aprendem que a literatura criativa é apenas filtragem de vocabulário através de fórmulas lingüísticas. Ao invés de fazer com que as crianças se demorem um certo tempo no poder e no insight de um ou dois poetas, o que seria melhor para familiarizálas com outra sensibilidade, a lição se apressa em ensinar o modelo de pensamento de processamento de dados. Isto conduz inevitavelmente à conclusão de que a mente humana e o computador são funcionalmente equivalentes, tendo o computador — pelo menos os “grandes computadores” dos cientistas — um lugar privilegiado no caminho rumo à conquista da performance atual. Assim, pela vinculação à máquina e pela adoção de seus termos com relação a estranhas concepções de arte e poesia, alguém pode ser capaz de se apropriar de um pouco daquele poder. Com relação a todas as pesquisas em inteligência artificial, é difícil estarmos seguros sobre o espírito com que se formula este programa dentro do programa. Seria outra demonstração cansativa de chauvinismo disciplinador por parte dos técnicos e dos lógicos, determinados a demonstrar a supremacia de seus métodos no mundo do intelecto? Ou seria uma má interpretação sobre a natureza da criatividade humana? Em ambos os casos, as crianças estão sendo expostas a uma concepção de arte que é ao mesmo tempo ridícula e falsa. Estão ganhando sua habilidade computacional sob o risco de se tornarem aleijados culturais. O próprio Papert tem sido cuidadoso em manter de modo mais suave a ligação entre LOGO e a doutrina da inteligência artificial. Ele defende seu curriculum como uma lição prolongada em pensamento processivo, mas enfatiza que a pretensão principal de levar os estudantes a aprender “a pensar como um computador” tem a função de torná-los autoconscientes sobre o modo pelo qual a mente funciona mais geralmente. Inventei formas de conseguir vantagens educacionais das oportunidades para dominar a arte de pensar deliberadamente como um computador, de acordo, por exemplo, com o estereótipo de um programa de computador que procede de uma forma mecânica, literal, passo a passo... Aprendendo deliberadamente a imitar o pensamento mecânico, o principiante se torna apto a entender o que é e o que não é o pensamento mecânico. O exercício pode conduzir a uma maior confiança sobre a habilidade de escolher um estilo cognitivo que esteja adequado ao problema.

Ele prossegue: Tenho argumentado claramente que o pensamento processivo é um instrumento intelectual poderoso e mesmo sugerido a analogia de pessoa e computador como uma estratégia para fazê-lo... A recomendação “pense como um computador” poderia ser tomada significando sempre pense sobre tudo como um computador. Isto seria restritivo e limitador. Mas a recomendação poderia ser tomada em muitos sentidos diversos, nada impossibilitando, mas fazendo um acréscimo ao estoque de ferramentas mentais da pessoa ... A verdadeira habilidade computacional não é apenas saber como fazer uso dos computadores e das ideias computacionais. É saber quando é apropriado fazer assim. Isto poderia parecer suficientemente razoável. Mas o problema é que LOGO pretende ser um amplo instrumento educacional que pode ser ligado a tudo. Isto só pode acontecer fazendo-se a conexão de tudo o que a criança sabe com o pensamento processivo, mesmo quando isto não faz sentido. Além disso, se os outros estilos cognitivos de que fala Papert entram na classe de aula, eles o fazem simplesmente como idéias na cabeça de alguém. O pensamento processivo embarca em um equipamento que tem sido agressivamente comercializado nas escolas como uma panacéia. Os professores que ensinam computação também foram dispendiosamente treinados. Somente o investimento financeiro já garante que a habilidade computacional será enfatizada em tantos campos educacionais quantos for possível. Além disso, há um ar de urgência circundando a máquina; o público pensa que o computador está associado a uma habilidade que deve ser ensinada às crianças para que possam, mais tarde, encontrar empregos com mais facilidade. Tomados em conjunto, estes fatores se destinam a deformar o curriculum rumo à maciça preeminência do computador. Se o curriculum prevalece nessas circunstâncias, as escolas podem realmente estar fazendo muita coisa para auxiliar seus alunos a pensar como computadores. Mas quem irá ensiná-los a pensar de outra forma? Onde, por exemplo, surgirá o estilo cognitivo chamado arte? Curricula em arte são notoriamente pouco desenvolvidos. As escolas terão mais ou menos tempo e dinheiro para contrabalançar o modelo de pensamento do computador? Como estas influências intelectuais de compensação atuarão? Há o perigo de que elas também venham a ser buscadas no computador, que seria o melhor a fazer para tirar dinheiro de alguém a partir da máquina. A arte se tornará a arte do LOGO, que, afinal, existe no repertório de programação de Papert. Se isto vier a ocorrer, seria pior do que nada ensinar de arte. Este perigo pode parecer aos entusiastas do computador como sendo o problema de outrem, não o deles. Podem ver sua missão como limitada a abrir as escolas para esse magnífico aparelho educacional. Mas eles podem estar entendendo incorretamente seus próprios interesses de matemáticos e lógicos. Conforme a argumentação de Papert, LOGO pretende ensinar o pensamento processivo. Ora, não há dúvida de que a mente pode ser treinada rigorosamente para pensar deste modo e esta é uma habilidade conveniente para uma série de projetos — uma vez que o projeto tem sido imaginado intuitivamente como um todo e eleito como uma valiosa atividade. Estas duas tarefas — imaginar coisas como todos significativos e decidir o que é importante e digno de valor — são justamente aquilo que a mente faz primeira e naturalmente. Em tempo e importância, acabam tendo

precedência sobre o mapeamento de procedimentos: fins antes de meios. Especialistas em inteligência artificial vieram, de certa forma, a entender isso em sua luta para enfrentar os fenômenos de atividades que visam propósito, e de senso comum em nossas vidas. Passaram a vê-los como conjuntos significativos que, de alguma forma, intuitivamente, parecem dividi-los em inúmeras atividades subsidiárias. Poderia quase haver algo mais musical do que matemático na questão: uma orquestração de partes que contribuem para o todo temático. Assim, os pesquisadores de IA procuraram desenvolver linguagens de programação que concedem o “auto-encaixe hierárquico” de sub-rotinas em padrões ou estruturas mais amplas de conduta que visa propósito. Mesmo os projetos mais usuais, como planejar uma refeição ou assar um bolo, são hoje entendidos como estruturas extremamente complexas de rotinas dentro de rotinas e de loops dentro de loops.4 Mas nenhuma das rotinas tem o menor sentido a não ser no contexto de um projeto específico. Planejar algo passo a passo (programação) dentro de um projeto é uma atividade estritamente secundária — que nem sempre é necessária. A arte e a poesia obviamente têm pouco a ver com o esboço de seqüências formais e lógicas. Nenhuma habilidade que envolve coordenação física é aí empregada. Esta é a razão de ninguém jamais ter aprendido a andar de bicicleta ou a tocar piano apenas tendo lido um livro sobre o assunto ou memorizando algumas regras. Se um cozinheiro, um carpinteiro ou o capitão de um navio tivessem que anotar todos os procedimentos de seu dia de trabalho, morreriam velhos antes de terminarem a tarefa. A esse respeito, mesmo os matemáticos — o ponto forte de LOGO — podem nada ter a ver com pensamento processivo, pelo menos não em seus mais altos níveis, em que a satisfação e a criatividade deste campo devem ser descobertas. Os matemáticos que encontrei (diversamente dos cientistas da computação) parecem desejosos em admitir que trabalham segundo estranhos empurrões de inspiração, segundo palpites, conjeturas, insights, segundo a súbita formação de surpreendentes Gestalts. De que outra forma explicar o fato de que eles sempre empacam ao tentar resolver um problema, já que toda a lógica de que necessitam está lá em suas cabeças? Como explicar este outro fato mais interessante de que, após uma impossibilidade de resolução que dura semanas, meses, anos, eles podem finalmente chegar à solução: a experiência do “ah ha!”. Conheço matemáticos que vão dormir com um problema e pela manhã acordam com a solução. Como ocorre tudo isso? Provavelmente é melhor deixar a questão para os psicólogos, não para os lógicos. O modelo de pensamento do computador pode distorcer a natureza fundamental da matemática, da mesma forma que no caso da arte. Conforme observou um matemático meu conhecido, “o pessoal ligado aos computadores parece não entender que a alta matemática foi criada por um místico chamado Pitágoras. Não foi inventada para medir coisas. Era destinada a uma visão de Deus”. Não é difícil imaginar o que poderiam dizer artistas e poetas sobre a atuação de LOGO em seus campos; mas quantos matemáticos concordariam que matemática é sinônimo de programação? Conforme constata Papert, é extremamente difícil pensar processualmente; os estudantes têm que ser atraídos para isso de forma inteligente e em seguida aí trabalhar com grande persistência. Será que já ocorreu aos educadores de LOGO que pode haver uma razão para a aparente tensão do exercício? Pode ocorrer pelo fato de a mente nem sempre resolver espontaneamente problemas dessa forma, especialmente as mentes jovens e em 4

Margaret Boden oferece um longo capítulo a respeito de programas para solução de problemas em Artificial Intelligence and Natural Man, Nova Iorque, Basic Books, 1981, pp. 370-389. Ela utiliza os exemplos: planejar refeições e assar um bolo.

crescimento. As crianças podem ficar bem mais absorvidas em experimentar seu caminho através dos principais delineamentos da vida mental. Podem ficar interessadas em aprender sobre a natureza dos projetos humanos e sobre a forma pela qual os alunos os escolhem. Imaginando as coisas como todos significativos e escolhendo entre eles: esta pode ser a primeira ordem dos negócios intelectuais para as crianças. Cuidado, pois a esquematização lógica de procedimentos pode ser prematura para elas e, assim, uma perturbação. O que não quer dizer que algumas delas não possam interessar-se pela tarefa específica de programar umas poucas questões geométricas. Isto pode ser feito por elas próprias com jogos e enigmas divertidos — como decifrar charadas. Computadores pensam processivamente porque é o melhor que eles podem fazer. As pessoas que os programam têm, portanto, que pensar desta forma. Mas esta é uma habilidade que devemos valorizar apenas porque temos uma máquina em nossa vida que precisa dela. Se levamos esta máquina à classe, as crianças aprenderão algo de importância básica sobre os hábitos naturais e talentos da mente? Ou, ao programarem computadores, estarão simplesmente aprendendo como pensam os programadores de computadores? Apesar de minhas reservas com relação a LOGO, eu não votaria contra seu uso como forma de se ensinar habilidades básicas de programação. Há crianças que serão bons programadores e gostarão de desenvolver seus talentos. Deveriam ter essa possibilidade — desde que as escolas possam suportar os custos sem perda de qualidade em outras áreas. No caso de LOGO, tais custos estão propensos a serem elevados, talvez porque seja o que exija uma dedicação mais intensa em termos de tempo de máquina, do que outros approaches da habilidade computacional. Ê necessário que haja muitas máquinas disponíveis para que os estudantes tirem a máxima vantagem. Mas, precisamente por derivar de uma teoria pedagógica ampla e concebida de forma ambiciosa, LOGO deveria servir para nos avisar sobre o perigo constituído pelo computador na classe de aula. Este perigo parece óbvio: uma vez lá, o computador pode ser utilizado para ensinar aquilo que é inerentemente incapaz de ser ensinado — exceto na forma de uma má caricatura. Muitos na instituição da ciência da computação podem não reconhecer que tal perigo existe. Seu modelo da mente como processadora de dados os encoraja a levar o computador a todas as áreas do curriculum. O que se pode fazer diante dessa formidável pressão a não ser recorrer a um princípio absoluto em filosofia educacional? Nunca depreciar. Qualquer método, qualquer projeto, qualquer filosofia pedagógica que deprecie o assunto ensinado deveria ser vista com suspeita e utilizada com cuidado. Um curriculum em habilidade computacional que aspire à generalidade do LOGO corre o risco efetivo de depreciar áreas completas do intelecto. Poder-se-ia esperar que os professores reconhecessem este risco ao entrar na sala de aula. E, em reconhecendo, poder-se-ia esperar que retivessem suficiente autoridade profissional contra os negociantes de dados e contra os entusiastas do computador, para falar abertamente e induzir alguns contornos defensivos nas mentes dos jovens.

5. Sobre ideias e dados As ideias primeiro Ao levantar essas questões sobre o papel do computador em nossas escolas, não pretendo questionar o valor da informação em si mesma. Bem ou mal, nossa civilização tecnológica precisa de dados, como os romanos precisavam de estradas e os egípcios do Antigo Império, das cheias do Nilo. Compartilho significativamente dessa mesma necessidade. Como escritor e professor, sou parte dos 5 ou 10% de nossa sociedade que têm inabalável apetite profissional por informações atualizadas e confiáveis. Há muito aprendi a valorizar os serviços de boas bibliotecas equipadas com computadores. Nem pretendo negar a superioridade com que o computador armazena e recupera dados. Não há nada de sagrado em páginas datilografadas ou impressas; se há maneiras de encontrar e manipular dados mais rapidamente, temos sorte em utilizá-las. Do mesmo modo que o computador tornou a regra de cálculo obsoleta, tem o direito de superar arquivos, fichários e livros de referência, caso seja comprovadamente mais barato e eficiente. Gostaria de insistir ainda que a informação, mesmo quando se move à velocidade da luz, não deixa de ser o que sempre foi: pequenos pacotes de fatos, descontínuos, que podem ser úteis ou triviais, mas nunca são a essência do pensamento. Eu ofereço este modesto conceito de informação, retirado do senso comum, como contradição deliberada, aos entusiastas da computação e teóricos da informação, que sugeriram definições bem mais extravagantes. Nesse capítulo e no próximo, meu objetivo será, à medida que a crítica for se desdobrando, desafiar esses ambiciosos esforços para ampliar o significado da informação a proporções mais globais. Acredito que esse projeto possa apenas ser concluído com a distorção da ordem natural das prioridades intelectuais. E, enquanto os educadores aceitarem essa distorção e concordarem em investir cada vez mais seus exíguos recursos em tecnologias da informação, poderão estar minando as habilidades de seus alunos para conseguirem pensar significativamente. Este é o grande mal perpetrado pelos negociantes de dados, futurologistas e aqueles que, nas escolas, acreditam que a capacidade de se lidar com o computador é a moda intelectual do futuro: eles não percebem a principal verdade: a mente pensa com idéias, não com informação. Esta pode ajudar a ilustrar e tornar uma idéia mais atraente; pode, ao ser guiada por uma idéia contrastante, nos auxiliar a questionar outras idéias; por si só não as valida ou invalida. Idéias só podem ser criadas, alteradas e suplantadas por outras idéias. A cultura sobrevive graças ao poder, plasticidade e fertilidade de suas idéias. Elas vêm primeiro porque definem, contêm e, algumas vezes, produzem informação. A principal tarefa da educação é, portanto, ensinar os jovens a lidar com idéias: como avaliá-las, expandi-las e adaptá-las a novos usos. Tudo isso pode ser feito com pouca informação, talvez com nenhuma. Mas, certamente, não exige nenhum tipo de equipamento para processamento de dados. Na verdade, um excesso de informação pode confundir as idéias, deixando a mente (especialmente as mais jovens e inexperientes) distraída por fatos estéreis e desconexos, perdida em montes informes de dados. Talvez seja útil, nesse momento, nos determos em alguns aspectos básicos.

A relação entre idéias e informação comumente é chamada de generalização. Generalizar pode ser considerada a ação básica da inteligência. Esse processo assume duas formas. Primeiro, ao ser confrontada com uma enorme quantidade não uniforme de fatos (sejam percepções individuais ou relatos indiretos), a mente procura um padrão sensível de conexão. Segundo, confrontada com um número pequeno de fatos, ela procura criar um padrão, ampliando o pouco que tem e tenta direcioná-lo até uma conclusão. O resultado em qualquer dos casos é uma proposição geral que não se esgota em pormenores, mas foi imposta a ele pela imaginação. Talvez, após acumular mais fatos, esse padrão caia e seja substituído por outro mais convincente. Aprender a abandonar idéias, inadequadas em favor de outras melhores faz parte da boa educação com relação às idéias. Generalizações podem ocorrer em vários níveis. No inferior, são formuladas a partir de muitos fatos densamente reunidos e óbvios. São generalizações cautelosas, chegando talvez à desinteressante certeza do truísmo. Há um outro nível, em que as informações são menos densas e mais dispersas, os fatos menos precisos e certos; encontramos aí generalizações mais arriscadas que assumem a natureza de uma adivinhação ou suspeita. Na ciência, as suspeitas devem possuir rigor formal e assumem, nesse nível, a forma de teorias e hipóteses sobre o mundo físico; são idéias que estão em fase de ensaio ou teste, esperando mais evidências para se fortalecer, modificar ou serem substituídas. É esse o nível no qual encontramos o tipo de generalizações perigosas que podemos encarar tanto como insights brilhantes quanto como preconceitos temerários, segundo nossa análise crítica: eliminando talvez proposições tidas como verdades inatacáveis, mas baseadas em poucas instâncias. As generalizações existem, portanto, ao longo de um espectro de informação que varia desde a abundância até a quase ausência. À medida que percorremos esse espectro, indo do ponto mais seguro até o excesso de fatos, as idéias tendem a se tornar cada vez mais instáveis e, por esse motivo, mais ousadas, mais controversas. Quando observo que as mulheres têm sido as donas-de-casa e educadoras dos filhos nas sociedades humanas, faço uma generalização segura mas desinteressante que abrange um grande número de dados sobre o passado e o presente dos sistemas sociais. Mas, suponhamos que eu continue e diga: “E sempre que as mulheres deixam seus lares e abandonam sua função primordial de donasde-casa, a moral declina e a sociedade desaba”. Nesse instante, posso ser pressionado a dar mais do que apenas alguns exemplos questionáveis da conclusão que ofereço. Mas estamos diante de uma generalização arriscada de uma idéia fraca. No teste psicológico de Rorschach é apresentado um arranjo de manchas e sinais aparentemente sem significado. Pode haver muitos ou poucos, mas em qualquer caso, eles não sugerem nenhuma imagem sensível. Então, após olharmos durante algum tempo, pode ser que as manchas subitamente tomem uma forma bastante definida. Mas onde está esta imagem? Não nas manchas, obviamente. O olhar, procurando um padrão razoável, projetoua no material; impôs um significado onde não havia nada. Da mesma forma, na psicologia da Gestalt, em que podemos ser confrontados com imagens perceptuais especialmente elaboradas: um arranjo ambíguo de sinais que primeiramente parecem algo e em seguida parecem tomar outra forma. Qual é a imagem “verdadeira”? O olhar é livre para escolhêlas, porque as duas estão realmente ali. Tanto no caso das manchas de Rorschach quanto nas figuras da Gestalt, o padrão está nos olhos do observador. O material sensível apenas oculta. A relação entre idéias e fatos é aproximadamente assim.

Os fatos são os sinais, dispersos e possivelmente ambíguos; a mente os ordena de uma maneira ou de outra, conformando-os em padrões que ela mesma criou. As idéias são padrões integradores que satisfazem a mente quando ela pergunta: o que isso significa? Sobre o que estamos falando? Mas naturalmente uma resposta que me satisfaz pode não satisfazer a você. Podemos ver diferentes padrões no mesmo conjunto de fatos. E então discordamos e procuramos persuadir um ao outro que um ou outro desses padrões é superior, o que significa dizer que está mais de acordo com os fatos disponíveis. A discussão pode centralizar-se em um fato ou em outro, de tal maneira que nós parecemos estar discordando sobre fatos específicos: se são realmente fatos ou sobre sua importância relativa. No entanto, mesmo aí, estaremos provavelmente discordando a respeito de idéias. Sugerirei mais adiante que fatos são eles próprios criações das idéias. Aqueles que concedem à informação uma elevada prioridade intelectual geralmente gostam de assumir que os fatos, por si só, podem causar discordâncias e superar idéias. Raramente isto ocorre, exceto talvez em certos períodos muito turbulentos, quando a idéia geral de “ser cético” e “questionar a autoridade” esteja em evidência e ligada a algum novo tópico discordante. Por outro lado, na ausência de uma idéia verdadeiramente nova, bem formulada e intelectualmente sedutora, é notável considerar quantas dissonâncias e contradições uma idéia dominante pode absorver. Há casos clássicos mesmo nas ciências. A cosmologia ptolomaica, que prevaleceu na Antigüidade e durante a Idade Média estava comprometida por incontáveis observações contraditórias durante muitas gerações. Mesmo assim, era uma idéia internamente coerente e intelectualmente agradável; por esse motivo, cérebros agudos e perspicazes continuavam no sistema antigo e familiar. Onde parecia haver conflito, simplesmente ajustavam e reelaboravam a idéia ou reestruturavam as observações para que elas se enquadrassem no sistema. Caso não fosse possível encaixálas, estas poderiam ficar à margem da cultura como curiosidades, exceções, extravagâncias da natureza. Foi necessário a criação de uma constelação de idéias extremamente imaginativas sobre a dinâmica celeste e terrestre, repleta de novos conceitos de gravitação, inércia, momento e matéria para que o velho sistema fosse abandonado. Durante os séculos XVIII e XIX, estratégias similares de “ajuste” foram utilizadas para salvar outras idéias científicas herdadas, nos campos da química, geologia e biologia. Nenhuma delas foi superada até que paradigmas completamente novos fossem inventados para subs tituí-las, algumas vezes com relativamente poucos fatos para apoiá-las de início. As mentes que se apegavam aos velhos conceitos não eram, necessariamente, obstinadas e teimosas; simplesmente precisavam de idéias melhores a que se poderiam agarrar.

Ideias mestras Se existe uma arte de pensar passível de ser transmitida aos jovens, ela deve estar bastante preocupada em ensinar como a mente pode percorrer o vasto espectro de informações, distinguindo entre generalizações sólidas e suspeitas e entre hipóteses e preconceitos temerários. Para atingir nosso objetivos, gostaria de me movimentar até a extremidade desse espectro, até o ponto em que os fatos, cada vez mais esparsos, finalmente desaparecem. O que encontramos ao entrarmos nessa zona em que os fatos estão completamente ausentes?

Lá descobriremos as idéias mais arriscadas e, ao mesmo tempo, as mais ricas e frutíferas. Aí se localizam o que poderíamos chamar de idéias mestras — grandes ensinamentos morais, religiosos e metafísicos que são a base da cultura. A grande maioria das idéias que ocupam nosso pensamento não são idéias mestras porque estão sempre presentes de alguma forma nos fundamentos da mente, moldando nossos pensamentos abaixo do nível da consciência. Gostaria de focalizá-las porque mostram uma relação particularmente reveladora com a informação, que é nosso principal tema de discussão. Idéias mestras não se baseiam em informações. Precisarei delas, portanto, para enfatizar a diferença radical entre idéias e dados, que o culto à informação tem contribuído bastante para obscurecer. Tomemos como exemplo uma das idéias mestras de nossa sociedade: todos os homens são iguais. Não escapará a nenhum de nós o poder dessa idéia tão familiar. A partir dela, surgiram inúmeras e infindas controvérsias jurídicas e filosóficas, organizaram-se movimentos políticos e eclodiram revoluções. Essa idéia amalgamou nossa cultura de formas que tocam a cada um de nós profundamente. Ela é parte, talvez a mais importante, de nossa identidade pessoal. Mas de onde veio essa idéia? Obviamente não de um corpo de fatos. Aqueles que a criaram não possuíam mais informações sobre o mundo do que seus ancestrais, que ficariam, sem dúvida alguma, chocados com tal pronunciamento. Eles possuíam bem menos informações sobre o mundo que nós (no final do século XX) consideraríamos necessário para apoiar uma afirmação tão universal e devastadora sobre a natureza humana. No entanto, aqueles que, através dos tempos, derramaram seu sangue para defender (ou oporse-a) essa asserção não o fizeram com base em dados que lhes foram apresentados. A idéia não tem nenhuma relação com informação. Dificilmente poder-se-ia imaginar uma linha de pesquisa capaz de prová-la ou negá-la. Na verdade, quando essa pesquisa foi tentada (por exemplo, pelos inveterados teóricos do QI), o resultado, como os seus críticos fazem sempre questão de lembrar, é uma irremediável confusão do significado real da idéia, a qual nada tem a ver com medidas ou descobertas, fatos ou projeções de nenhum tipo. A idéia da igualdade humana é uma afirmação sobre o valor essencial da pessoa aos olhos de seus companheiros. Em determinado momento histórico, essa idéia surgiu nas mentes de alguns poucos pensadores moralmente apaixonados como uma resposta misericordiosa às condições de brutal injustiça que não mais poderiam ser aceitas como toleráveis. Ela se espalhou de uns poucos para muitos; encontrando a mesma proposta insurgente nas multidões, logo se tornou o grito de guerra de toda uma era. Assim ocorre com todas as idéias mestras. Nascem não de dados, mas de firmes convicções que se incendeiam na mente de um, de poucos e, a seguir, de muitos; as idéias se espalham para outras vidas em que o suficiente da mesma experiência se encontra aguardando para ser despertado. Aqui estão algumas outras idéias, algumas delas mestras. Cada uma, embora condensada na forma, foi tema de incontáveis variações na filosofia, nas crenças religiosas, na literatura e na jurisprudência da sociedade. Jesus morreu por nossos pecados. O Tao que pode ser enunciado não é o verdadeiro Tao. O homem é um animal racional. O homem é uma criatura decaída.

O homem é a medida de todas as coisas. A mente é uma folha de papel em branco. A mente é governada por instintos inconscientes. A mente é uma coleção de arquétipos herdados. Deus é amor. Deus está morto. A vida é uma peregrinação. A vida é um milagre. A vida é absurdidade, absurdo sem sentido. No coração de toda cultura encontramos um núcleo de idéias como estas, algumas velhas, outras novas, algumas crescendo em preeminência, outras caindo em obsolescência. Uma vez que aquelas que enumerei acima estão formuladas de maneira muito concisa e são idéias verbais, elas podem ser confundidas com declarações intencionais de fato. Têm a mesma forma lingüística de uma informação do tipo: “George Washington foi o primeiro presidente dos Estados Unidos”. Mas, sem dúvida, não são fatos mais importantes do que uma pintura de Rembrandt, uma sonata de Beethoven ou uma dança de Martha Graham o são. Pois estas últimas também são idéias; são padrões integradores destinados a declarar o significado das coisas conforme os seres humanos as descobriram, seja por revelação, insight súbito ou através do lento crescimento da sabedoria calcada na experiência de uma vida. De onde vêm tais padrões? A imaginação os cria a partir da experiência. Da mesma forma que as idéias organizam informações, também impõem ordem no turbulento fluxo da experiência que deságua em nós no curso da vida. Esse é o ponto de Fritz Machlup ao observar a impressionante diferença entre “informação” e “conhecimento”. (Ele está utilizando o conceito de “conhecimento” aqui exatamente do mesmo modo que eu estou utilizando o de “idéia”, ou seja, como um padrão integrador). “A informação”, diz, “é adquirida quando se diz algo, enquanto conhecimento pode ser adquirido através do pensamento”. Qualquer tipo de experiência — impressões acidentais, observações ou até mesmo “experiências interiores” sem qualquer estímulo externo — pode iniciar um processo cognitivo que conduza a mudanças no conhecimento de um indivíduo. Portanto, novos conhecimentos podem ser adquiridos sem o recebimento de informação nova. (Que essa asserção se refere ao conhecimento subjetivo não há o que discutir; mas não há nada parecido com o conhecimento objetivo que não tenha sido antes o conhecimento subjetivo de alguém).1 As idéias, portanto, especialmente as idéias mestras, trazem ordem à experiência. Isso pode ser feito de maneira profunda ou superficial, nobre òu selvagemente. Nem todas as idéias são humanitárias; algumas, que tentam tornar-se idéias mestras e podem até mesmo ser bem-sucedidas, são perigosas, vis e destrutivas. O Mein Kampf de Hitler é um livro cheio de idéias tóxicas que nasceram da vingança e do ressentimento. Apesar disso, tornaram-se, por um breve período, a idéia mestra de uma sociedade conturbada. Ninguém que tenha lido aquele livro e odiado o seu conteúdo o leu porque pensasse que talvez o autor tivesse apresentado erradamente os fatos; ninguém que tenha lido aquele livro com paixão 1

Machlup e Mansfield, The Study of Information, p. 644.

importou-se com a precisão de informações. O apelo do livro, aceito ou rejeitado, está estabelecido em um nível diferente da mente. Aqui estão mais algumas idéias que, pelo menos a meu ver, são também tóxicas: Sociedade é a luta de todos contra todos. O interesse próprio é a única motivação humana digna de confiança. Que a justiça seja feita mesmo que o céu desabe. Bom índio é aquele que está morto. Os fins justificam os meios. Meu país, certo ou errado. É precisamente por serem algumas idéias, na verdade muitas delas, brutais e mortíferas que precisamos aprender a lidar cuidadosamente com elas. Uma idéia nos pode conduzir para dentro da mente das pessoas, acompanhando-nos através de suas experiências. Compreender uma idéia significa compreender a vida daqueles que a criaram e defenderam. Significa conhecer as peculiares fontes de inspiração, seus limites, suas vulnerabilidades e seus pontos obscuros. O que nossas escolas devem oferecer aos jovens é uma educação capaz de permitir-lhes fazer essa viagem através de outra mente à luz de outras idéias, incluindo-se aí algumas que eles próprios tenham criado a partir de suas próprias experiências. A mente que possui poucas idéias é tosca e limitada, mesquinha e defensiva em seus julgamentos. “Nada é mais perigoso que uma idéia”, disse em certa ocasião Emil Chartier, “quando é a única que temos”. Por outro lado, a mente que possui muitas idéias está equipada para fazer avaliações mais elegantes e oportunas. Está aberta e receptiva à sua própria experiência, e ainda capaz de comparar essa experiência com a de outros, fazendo distinções e escolhendo, dessa maneira, suas convicções com cuidado e elegância.

Experiência, memória, insight Um dos maiores perigos no modelo de pensamento do processamento de dados é a maneira pela qual são vulgarizadas e simplificadas algumas sutis distinções a respeito da anatomia da mente. O modelo pode assim proceder legitimamente para realizar análise mais efetiva; todos os modelos científicos procedem deste modo. Mas sempre há perigo, e muitos cientistas de computação já tiveram esse problema: de que o modelo se torne reificado e passe a ser tomado seriamente. Quando isso acontece com especialistas que deveriam estar preparados e atentos, pode ser que seja falsificado aquilo que sabemos (ou deveríamos saber) sobre o modo como nossa própria mente trabalha. Tomemos, por exemplo, o significativo intercâmbio entre experiência, memória e idéias que estão na base de todo pensamento. Tenho utilizado a palavra experiência para me referir ao curso da vida, à medida que molda a personalidade individual a cada momento. Uso o termo como — suponho — muitos artistas usariam; mais especificamente, é a experiência conforme seria descrita na linguagem técnica por fluxo de consciência; A experiência nesse sentido é a matéria-prima da qual as idéias morais, metafísicas e religiosas são moldadas pela mente que procura um significado. Esta pode parecer uma definição imprecisa, especialmente para os que têm inclinações empiristas. Na tradição

empírica, “experiência” se tornou o equivalente de informação. É o conjunto dos dados sensoriais soletrados em “porções” nítidas e bem organizadas para testar proposições sobre o mundo num sentido estritamente lógico. Quando os filósofos empiristas dos séculos XVII e XVIII assim definiram experiência, buscavam uma forma de conhecimento que servisse de alternativa às afirmações que tinham a pretensão de serem aceitas com base na autoridade, em boatos, tradição, revelação ou pura meditação introspectiva. A experiência pretendia ser aquele tipo de conhecimento vivido e pessoalmente testado. Pretendia, além disso, estar à disposição de outros através das experiências deles. Seria, portanto, o conhecimento público e, como tal, estaria livre de distorções e manipulação. Este era, segundo o argumento dos empiristas, o único tipo de conhecimento digno de mérito. A menos que todo o resto pudesse ser verificado pela experiência, provavelmente não mereceria ser considerado conhecimento. Mas a experiência do tipo que os empiristas procuravam era, afinal de contas, de uma variedade muito especial e bem tramada. Modelada sobre experimentos de laboratório ou sobre pesquisas profissionais bem documentadas, não existe em quase nenhum lugar, exceto no mundo da ciência, ou possivelmente como evidência numa corte de justiça. Normalmente, não coletamos muito desse tipo de experiência. Ao contrário, costumamos ser tomados pelo fluxo dos acontecimentos como a vida nos apresenta, sem previsão, de modo desestruturado, fragmentário e dissonante. Esse curso turbulento passa à memória, onde se estabelece como uma série de coisas lembradas de maneira vívida, semi-esquecidas, confusas, misturadas ou compostas. A partir dessa composição de eventos lembrados, nós cultivamos de alguma maneira um jardim secreto de certezas e convicções, nosso modo prático de fazer as coisas, nossos gostos e desgostos, nossos discernimentos, intuições e artigos de fé. Memória é o fator-chave aqui; é o registro da experiência onde o fluxo da vida diária toma a forma de padrões de guia e de conduta. Os computadores, dizem-nos, também têm memória, nas quais armazenam informações. Mas a memória de um computador é tão humana quanto o dente de uma serra é similar ao dente humano; estas são metáforas demasiado frouxas que abrangem mais divergências do que semelhanças. Não é pequena a responsabilidade do culto à informação ao obscurecer essa distinção, ao sugerir que a memória do computador é superior porque tem maior capacidade de recordar. Essa atitude interpreta mal o que é a experiência e como ela gera idéias. Os computadores “recordam” dados sob a forma de entradas distintas: o input de quantidades, gráficos, palavras, etc. Cada item é separável, designado por um único endereço ou nome de arquivo e tudo está sujeito a um recall* total. A menos que a máquina não esteja funcionando bem, pode “regurgitar” tudo que armazenou exatamente como foi guardado, seja um único número ou um documento extenso. É isso o que esperamos da máquina. A memória humana, por outro lado, é um adesivo psíquico invisível que mantém nossa identidade unida a cada momento. Isso a torna um fenômeno radicalmente diverso da memória do computador. Por um lado, ela é mais fluida que granular, muito mais parecida com uma onda que com uma partícula. Espalha-se como uma onda pela mente, vedando aqui e ali algumas estranhas associações pessoais do tipo inexplicável. Flui não apenas através da mente, mas também das emoções, dos sentidos e do corpo. Lembramo-nos de coisas de uma forma que nenhum computador pode fazer, em nossos músculos e reflexos: *

Através da função recall, os dados arquivados na memória do computador podem ser recuperados, “relembrados”. (N. T.)

como nadar, tocar um instrumento, usar uma ferramenta. Essas experiências armazenadas se abrigam abaixo do nível da consciência e da articulação, de tal maneira que é impossível contar a alguém como dirigimos um carro ou pintamos uma tela. Na verdade, nem nós mesmos “sabemos”. Numa antiga piada da sabedoria popular, a filha pergunta à mãe como ela faz uma torta de maçã tão boa. A mãe, embaraçada, responde: “Primeiro eu lavo as mãos. Em seguida, visto um avental bem limpo. Então, vou para a cozinha e faço uma boa torta de maçã”. Ao lidarmos, acima de tudo, com experiências lembradas, raramente encontramos uma completa lembrança [a total recall]. As experiências podem estar ali, profundamente enterradas em nosso cérebro e organismo, mas em sua maioria estão além da possibilidade de recuperação. Nossa memória é rigorosamente seletiva, sempre pronta a focalizar o que nos interessa. Ela edita e aglutina experiências, reprime e esquece — o faz de formas que nós podemos não entender completamente. À medida que vivemos cada instante, alguma coisa imediatamente anterior a nós pode realizar uma ligação com experiências que evocam associações sensoriais vívidas, dores, prazeres; elas, por sua vez, têm o poder de nos fazer rir, nos tornar tristes, podem até nos levar à náusea e a traumas bastante profundos. Algo do que experimentamos e armazenamos em nossa memória pode ter-se originado na mais remota infância; podem haver mesmo fantasmas de origem pré-natal. Muito é retirado de nossas fantasias particulares nunca reveladas e admitidas com relutância até para nós mesmos. Podemos dizer que nos lembramos do que interessa; mas podemos também, perversamente, ocultarmos ou recompormos coisas demasiado ameaçadoras para encarar. As lembranças que retemos são misteriosamente selecionadas e enigmaticamente organizadas na memória. Há pontos quentes e vívidos cheios de associações bastante ricas e fortes; há esquinas sombrias que apenas emergem vividamente em sonhos e alucinações; há zonas estranhas, sutis, que se deleitam em preencher nossas reminiscências com lembranças aparentemente caóticas e inúteis — coisas que lembramos sem saber por quê, até mesmo detalhes que adoraríamos apagar se pudéssemos (irritantes letras de música, insistentes jingles de TV, etc.)... mas não podemos. Se pudéssemos traçar a anatomia perfeita de nossa memória em sua completa e impalpável variedade, teríamos o próprio segredo da natureza humana. A forma dessa memória é, muito simplesmente, a de nossas vidas; é o auto-retrato que pintamos de todas as nossas experiências. Não foi um cientista da computação, mas um escritor, que nos falou sobre a estranha dinâmica da experiência. Vladimir Nabokov escreve: “Um passante assobia uma melodia no instante exato em que você percebe os reflexos dos ramos de uma árvore em uma poça que, por sua vez e simultaneamente, lembra folhas úmidas e pássaros agitados em algum jardim antigo; um velho amigo há muito morto, de repente sai do passado, sorrindo e fechando seu guarda-chuva gotejante. Tudo isso durou apenas um radiante segundo e as impressões e imagens são tão fugazes que não se pode verificar as leis exatas que levaram a seu reconhecimento, a sua formação e fusão... É como um quebra-cabeça que instantaneamente se organiza em nosso cérebro,

o qual é incapaz de observar como e por que as peças se encaixam. Nesse instante, você viveu uma estremecedora sensação de arrebatada magia”.2 A experiência, conforme a descrição de Nabokov, está muito mais próxima de uma efervescência do que de um sistema de arquivo organizado. Os ingredientes de toda uma vida se misturam e se confundem para produzir sabores inesperados. Algumas vezes é um simples componente picante que se sobrepõe ao resto: um momento de alegria, uma grande tristeza, a lembrança de um triunfo ou uma derrota. Eventualmente essa efervescência se reduz a um rico resíduo de sentimentos, impressões gerais, hábitos e expectativas. Então, em dada circunstância — mas quem pode dizer quando? — aquele resíduo aflora sob a forma de um insight bem constituído sobre a vida, que poderá ser dito, pintado, dançado ou encenado, para que o mundo o conheça. E tudo isso se torna, de forma articulada ou como um rasgo existencial mudo, uma idéia. Certamente esse processo está bastante associado ao “clima” de opiniões em que nos encontramos, às tradições compartilhadas e ao momento autobiográfico de nossa vida. Mas como tudo isso vai se combinar em determinada mente num dado momento e o que produzirá, isto está muito além de nossa capacidade de previsão. A efervescência de nossas experiências pessoais é bastante densa, e cheia de elementos inidentificáveis, misturados em proporções secretas. O que emerge dessa trama, dessa mistura, pode ser bastante surpreendente. Basta observar o que todas as culturas nos dizem: somos capazes de verdadeira originalidade. A história está repleta de incríveis exemplos de invenções e súbitas conversões. Paulo de Tarso estanca cego na estrada de Damasco e se recupera do trauma para tomar-se discípulo de um sábio que ele nunca encontrara e cujos seguidores até então perseguira; Tolstoi, caindo em depressão suicida, repudia todas as suas obras-primas e luta para se tornar um eremita e asceta; Gandhi, retirado do vagão só para brancos num trem da África do Sul, renuncia a uma promissora carreira de advogado para vestir uma túnica e se tomar mahatma de todo um povo. Vemos aqui o trabalho da experiência, misteriosamente formando novas idéias sobre a vida nas profundezas da alma. Assim é para todos nós, à medida que presenciamos a emergência de convicções em outras pessoas, confrontamos aquilo que dizem e fazem com toda a força de nossa experiência. Se há ressonâncias confirmadoras dentro de nós, deve ser porque nossa vida coincide com a dos que encontramos. Mas pode acontecer que o poder do encontro em si mesmo — ali, naquele momento único — destrua as convicções de toda uma vida e nós experimentemos a sensação de começar tudo de novo, de renascer, pois há exemplos de pessoas que estão sendo desfeitas e refeitas pela confrontação carismática e pressões de uma crise. Pode até mesmo acontecer que esses momentos de originalidade e súbita conversão assumam um papel crucial no crescimento da cultura. Talvez esta volatilidade da mente seja o que salva a sociedade humana da rigidez imutável de outros animais sociais, das formigas, abelhas, das feras da alcatéia e das manadas. Fomos, enquanto espécie, dotados de um emaranhado de células eletroquímicas que se tornaram um elaborador de idéias. Nosso cérebro cria tão espontaneamente novas idéias e joga com as já conhecidas, que nada podemos dizer sobre elas a não ser “ali estão”, moldando nossas percepções e revelando possibilidades. A cada momento, os seres humanos encontram novas coisas para pensar, fazer e ser: idéias que emergem aparentemente de nenhum lugar. Somos animais notavelmente plásticos e adaptáveis, e o alcance de nossa criatividade cultural parece 2

Vladimir Nabokov, “The Art of Literature and Common Sense”, Lectures on Literature, Nova Iorque, Harcourt Brace Jovanovich, 1980.

ilimitado. Seria uma grande perda se, menosprezando nossa concepção de experiência, memória e insight, o culto à informação embotasse esses poderes tão criativos. Há, porém, cientistas da computação que parecem estar rumando exatamente nessa direção. Acreditam poder simular nossa originalidade no computador utilizando programas que incluem elementos aleatórios. (O programa LOGO para poesia que analisamos no capítulo anterior é um exemplo.) Por não conseguirmos prever o output [resultado] do programa, isso o torna imprevisível, e é identificado como “criativo”. Mas há um abismo de diferenças entre um programa de aleatória forjada e a verdadeira originalidade. O modelo de processamento de dados trabalha novamente para obscurecer a distinção. Na mente humana, uma idéia original tem um significado vivo; está ligada à experiência e produz convicções. O que o computador produz é tão “original” quanto um espasmo muscular: imprevisível, mas dificilmente significativo. É claro que há outras formas de experiência que nos chegam de maneira bem mais elaborada e organizada: coisas aprendidas literalmente, memorizadas ou decoradas, instruções precisas, procedimentos, nomes, endereços, fatos, cálculos. O que tais experiências deixam atrás de si é muito similar ao que alimenta a memória do computador: informação no sentido exato da palavra. Nosso vocabulário psicológico não distingue claramente esses diferentes níveis e texturas da memória; nós temos apenas uma palavra para as lembranças das coisas passadas. Lembramos um episódio traumático e doloroso que mudou nossa vida. Manter esses tipos tão diferentes da experiência sob a rubrica informação só pode contribuir para vulgarizar a qualidade de vida. “O coração tem razões” — nos diz Pascal — “que a própria razão desconhece.” Eu entenderia essa frase no sentido de que a mente das pessoas está repleta de idéias que emergem de mananciais profundos de experiência mesclada e desordenada. Essas idéias, mesmo ambíguas, confusas, contraditórias, podem ser, bem ou mal, a essência de convicções firmes. Num debate que envolve tais “razões”, a informação raramente é útil. Ao contrário, devemos testar e provar à luz de nossas próprias convicções, buscando a experiência subjacente à idéia. Devemos fazer aquilo que eu arriscaria afirmar que você está fazendo nesse instante enquanto lê essas páginas, que são minhas convicções apresentadas a sua consideração. Você pára, reflete, procurando descobrir quais seriam minhas afinidades morais e filosóficas. À medida que você tenta captar a “sensação” das idéias que ofereço, vasculha suas recordações para ver se encontra um eco para as experiências que lhe apresento. Você pode demorar-se mais em nuances e sombras dos significados do que em questões mais prosaicas. Eventualmente você pode detectar implicações menos diretas ou suposições ocultas que talvez você não possa ou não queira endossar. Possivelmente, sente que alguns dos seus valores mais queridos estão sendo desafiados e você se apressa em defendê-los. Não há meios de saber como terminará essa “ruminação crítica”, mas um ponto deveria estar óbvio: nada disso é “processamento de dados”. É o toma lá dá cá do diálogo entre duas mentes, cada uma procurando suas próprias experiências. É o jogo das idéias, e todas as informações de todos os bancos de dados do mundo não poderão determinar as conseqüências que podem emergir dessa disputa.

O gambito do empirista Uma vez sintonizadas com o problema, muitas pessoas considerarão a primazia das idéias tão óbvia que perguntarão por que teve de ser o tema dessa discussão. Como os cientistas da computação conseguiram subordinar as idéias aos dados de forma tão persuasiva? Esta é uma intrigante questão histórica a que poderíamos dar certa atenção. No começo deste capítulo, referi-me à escola de filosofia empirista e à maneira como ela escolheu reinterpretar o significado da experiência. Voltemo-nos, por um momento, ao impacto do empirismo sobre a filosofia ocidental, pois ele cumpre papel bastante significativo no culto à informação. Há aproximadamente quatro séculos, naquele período turbulento de transição que vai da Renascença à era moderna, o reino do conhecimento no Ocidente era uma pequena ilha de certeza cercada por um mar de mistérios. Nas suas profundezas distantes, esse mar se mistura com a mente de Deus, cujo conteúdo só poderá ser atingido por um ato de fé. Na ilha, os principais corpos de pensamentos eram as escrituras, as obras dos pais da Igreja, um punhado de mestres gregos e romanos que haviam sido preservados e, possivelmente, um pequeno e seleto grupo de pensadores judeus e árabes. Por muitos séculos, durante a época medieval, essas fontes foram retrabalhadas muitas vezes com elaborações brilhantes, constituindo um intocável repertório de conhecimento que garantia as respostas a todas as questões que a mente humana pudesse esperar ver esclarecidas. Em tal cultura, não há essa categoria chamada “informação”. Os fatos contam muito pouco onde tudo o que pode ser conhecido já é sabido e já foi assimilado a verdades muito bem estabelecidas. No lugar da informação, encontramos confabulações: jogos constantes (às vezes inspirados) com idéias familiares, que são estendidas, combinadas e reformuladas. Em fins do século XVI, esse estilo intelectual se tornava cada vez mais incompatível com o dinamismo econômico e social do mundo ocidental. Estavam sendo descobertos novos mundos, grandes continentes e culturas até então ignorados por qualquer autoridade existente. Eram as descobertas. E se descobertas geográficas eram possíveis, por que não haveria também novos mundos na mente humana? Francis Bacon usou exatamente esse argumento para justificar sua incansável busca de uma “nova filosofia”. Ele, Descartes, Galileu e Giordano Bruno estavam entre os primeiros a equiparar a paixão efusiva de sua cultura por novas descobertas físicas, com uma correspondente ousadia intelectual. Essas mentes férteis do século XVII chegaram a um excitante projeto cultural. Sua proposição era: deixe-nos inventar um novo tipo de pesquisa que terá o poder de descobrir novos aspectos do mundo (sobre suas forças, estruturas e fenômenos). Esta maneira de pensar será equivalente às grandes viagens de descoberta que encontraram novos mundos no além-mar. Eles decidiram que esse estilo de investigação deveria incluir interrogações rigorosas e bem direcionadas sobre a natureza, através da observação atenta e da experimentação. Isso deveria ser feito com um espírito de total objetividade, evitando-se todas as hipóteses e suposições. Deveria apenas tentar ver as coisas como elas realmente são. O resultado desse novo método seria um crescente corpo de fatos (ou ocorrências) sólidos e confiáveis, usualmente medições, que até aquele momento não haviam sido examinados. Então, se um observador começa escrupulosamente a reunir tais fatos, eles eventualmente falam por si, tomando a forma de grandes verdades, tão vastas em seus propósitos quanto o tamanho de todo o universo.

Podemos reconhecer hoje esse método (o novum organum, segundo Bacon) como sendo o distante início da visão de mundo de nossa ciência moderna. Ninguém pode deixar de avaliar sua contribuição histórica, mas temos também suficiente perspectiva histórica para saber o quão mal compreendido foi esse método. Em sua estreita visão dos fatos, ele não considerou a crucial importância da imaginação teórica, da hipótese, da especulação e de inspiradas conjeturas — sem as quais a ciência não teria tido seu impacto revolucionário. Olhando o passado, podemos perceber nitidamente a imaginação teórica trabalhando na mente de Galileu, Newton, Kepler, Boyle e Hook, perfis do pensamento que lá estava, mas que eles não puderam notar, em função da sua excessiva proximidade. Sabemos que as grandes reviravoltas científicas nunca são montadas pouco a pouco a partir de uma pesquisa ordinária. Algumas vezes, a investigação limitada e preciosista pode conseguir levantar algumas dúvidas importantes sobre uma teoria científica, mas necessita ao menos ter essa teoria diante de si, como alvo ou linha de base. Sem algumas idéias-mestras que sirvam a essa função, não se saberia como começar a procurar pelos fatos (ou pelas ocorrências). A ciência é uma investigação estruturada e as estruturas que guiam seu progresso são idéias. Havia, entretanto, uma boa razão pela qual os pais fundadores da ciência moderna se desviaram na direção da supervalorização dos fatos em detrimento das idéias. Na época de Galileu, as idéias dominantes sobre a natureza se originavam a partir de algumas autoridades sacrossantas: a teologia cristã ou Aristóteles. Para se livrar dessa herança cada vez mais restritiva de idéias antigas e esgotadas, essas mentes ousadas passaram a questionar as próprias idéias. Procuraram, então, um novo ponto de partida que parecesse inócuo e neutro e, portanto, estrategicamente inofensivo às autoridades culturais da época: concentraram suas atenções nos fatos bem definidos e indiscutíveis da experiência comum: peso, tamanho e temperatura dos corpos. Os fatos primeiro, insistiam eles. As idéias depois. Essa abordagem provou ser bastante persuasiva. Revelou um grande número de novidades terrestres e astronômicas, que não poderiam ser adequadamente explicadas por Aristóteles, pela Bíblia ou pelos padres da Igreja; ou, talvez, nunca tivessem sido notados por eles. Se a missão dos primeiros empiristas é vista nesse contexto histórico particular, pode-se reconhecer que foi um inteligente gambito filosófico, cujos objetivos eram derrubar as bandeiras etnocêntricas e as autoridades eclesiásticas. Com relação a isso, eles foram bem sucedidos. Ao encorajarem um ceticismo obstinado sobre as idéias herdadas, liberaram as energias intelectuais reprimidas da sociedade ocidental. Sua ligação com o nascimento da ciência moderna sempre lhes reservará um status especial. O problema é que o próprio sucesso dos empiristas ajudou a estabelecer em nossa cultura certas concepções fortemente reducionistas sobre o conhecimento, que nos leva a subestimar o papel da imaginação na criação de idéias e o papel das idéias na produção de conhecimento, até mesmo nas ciências. Atualmente, mentes fiéis ao amor empirista de fato apoderaram-se do computador como um modelo de trabalho da mente ao armazenar dados, realojando-os, produzindo conhecimento — fazendo-o talvez melhor que seu original humano. Os que vêem o mundo aproximadamente deste modo, representam um dos pólos de uma discussão já existente nos tempos de Platão, Aristóteles e Demócrito. O que é mais “real”, as coisas ou a idéia que temos delas? O conhecimento começa nos sentidos ou na mente? Não é minha intenção tentar condenar aqui esses argumentos. Desejo apenas enfatizar que o modelo da mente como processadora de dados não é uma pura “descoberta” objetiva da ciência contemporânea. Cresce a partir de um compromisso filosófico bem

determinado; representa um lado do antigo debate, ainda presente e ainda agitado. O lado empirista da discussão merece ser respeitado pelas valiosas contribuições feitas a nossa herança filosófica. Não gostaríamos de ficar sem ele. Acho interessante, sempre que estou com pessoas que defendem uma posição rigorosamente empirista, lembrá-las de um paradoxo: seus próprios pontos de vista são ideias. É uma idéia sobre idéias... e sobre o conhecimento, a experiência e a verdade. Como tal, não se baseia em fatos ou informações, porque é essa mesma idéia que define a informação em primeiro lugar. Não há, basicamente, então, como escapar das ideias. É com elas que a mente pensa, mesmo quando ataca a primazia das idéias. Quanto a isso, o computador também é uma idéia, da mesma forma que todas as máquinas o são. É uma idéia sobre números, classificações e relações: todas materializadas. A proposição “a mente pensa como um computador” é uma idéia sobre a mente, que muitos filósofos adotaram e debateram. E como toda idéia, essa pode ser abandonada, olhada de certa distância e colocada em questão. A mente, ao contrário de qualquer computador jamais imaginado, é dotada de poder incontrolável de autotranscendência. É o maior de todos os escape artists,* logrando constantemente seus próprios esforços de autocompreensão. Pode constituir idéias sobre suas próprias idéias, incluindo as idéias sobre si própria. Mas ao fazêlo ocupou novo terreno; em seu próximo esforço para compreender sua própria natureza, será obrigada a avançar ainda mais. Essa incapacidade da mente para captar sua própria natureza é precisamente o que torna impossível a invenção de uma máquina que seja igual a ela, deixando em paz seu herdeiro. O computador só pode ser mais uma idéia na imaginação de seu criador. Nossa grande capacidade em fazer brincadeiras sobre computadores, ridicularizando-os e zombando deles, surge de nossa distância intelectual com relação a eles. Se há algo que frustra o talento dos técnicos é a potencialidade sem-fim.

Sem ideias não há informação Do ponto de vista do empirismo doutrinário e estrito, presente no culto à informação, os fatos falam por si. Acumule um número suficiente deles e, convenientemente, tomarão a forma de conhecimento. Mas como reconhecer um fato quando vemos um? Presumivelmente um fato não é uma invenção mental ou uma ilusão; é uma pequena partícula compacta de verdade. Mas para reunir tais partículas, em primeiro lugar precisamos saber o que procurar. Deve haver a idéia de um fato. Os empiristas estavam certos ao acreditarem que os fatos e as idéias estavam ligados de modo significativo, mas eles inverteram essa relação. As idéias criam informação, e não o contrário. Todo fato surge a partir de uma idéia; é a resposta a uma questão que não poderíamos ter formulado, se em primeiro lugar uma idéia não tivesse sido inventada; esta, ao isolar uma porção do mundo, a torna importante, chamando nossa atenção e estimulando a pesquisa. Às vezes, uma idéia se torna tão lugar-comum, tão parte do consenso cultural, que se afasta da consciência, transformando-se numa linha invisível no tecido do pensamento. *

Artistas que, em espetáculo público, se livram de algum problema num mínimo de tempo. É o caso daqueles amarrados com correntes sob a água. (N. T.)

Assim, questionamos e respondemos, reunindo informações sem refletir sobre a idéia subjacente que torna isso possível. A idéia se torna tão subliminar quanto a gramática que governa nossa língua sempre que falamos. Vejamos um exemplo. A hora do dia ou uma data. Estes fatos estão entre os mais simples e menos ambíguos. Podemos estar certos ou errados sobre eles, mas sabemos que estão sujeitos a uma decisão verdadeira ou falsa estritamente direta. Ou são 2hl5 da tarde em nosso fuso horário, ou não. Ou estamos no dia 10 de março ou não. Estas informações estão em seu nível mais irredutível. Detrás, porém, desses fatos tão simples, existe uma idéia imensamente rica: a idéia de tempo como um ritmo regular e cíclico do cosmos. Em algum lugar do passado distante, uma mente humana criou este excelente conceito, talvez a partir de uma poética contemplação do universo portador de uma complexidade desnorteante. Essa mente resolveu que o fluxo aparentemente informe de tempo poderia ser ordenado em círculos e estes divididos em intervalos iguais que poderiam ser contados. A partir desse insight imposto pela imaginação ao fluxo da experiência, inferimos o relógio, o calendário, os minutos, os dias, os meses e as estações, que são hoje para nós simples fatos. A maioria de nossas idéias-mestras sobre a natureza e a natureza humana, lógica e valores, eventualmente se tornam tão subliminares que raramente refletimos sobre elas como invenções humanas, artefatos da mente. Consideramo-las recebidas como parte de nossa herança cultural. Vivemos muito acima dessas idéias, apenas colhendo fatos em sua superfície. De modo análogo, os fatos históricos existem como afloramentos de insights interpretativos ou míticos, que dão sentido e ordem à confusa memória popular do passado. Pegamos um livro de consulta ou solicitamos acesso em um banco de dados em busca de uma simples informação. Quando a declaração de independência foi assinada e quem a assinou? Fatos. Mas por detrás destes fatos encontra-se um importante paradigma cultural. Nós datamos o passado (nem todas as sociedades o fazem) porque herdamos a visão judaico-cristã do mundo, que nos diz que o mundo foi criado no tempo e que está rumando para algum lugar no processo histórico. Comemoramos os nomes de pessoas que “fizeram a história” porque (entre outras coisas) herdamos a visão antropocêntrica e dinâmica do mundo, que nos leva a acreditar que todo esforço humano é importante e que coisas valiosas podem ser alcançadas pela ação humana. Quando solicitamos informações históricas a respeito de questões simples, tudo isso permanece por detrás dos fatos que recebemos como respostas. Perguntamos e respondemos as questões encerradas dentro de idéias sobre a história que se tornaram tão familiares para nós como o ar que respiramos. Mas, afinal, são criações humanas, cada uma passível de ser questionada, submetida à dúvida ou alterada. Os dramáticos momentos de decisão em cultura acontecem justamente nesse ponto — quando novas idéias se insurgem contra as velhas e o julgamento e a escolha devem ser feitos. O que acontece, então, quando obscurecemos a distinção entre idéias e informações e ensinamos às crianças que o processamento de informações é a base do pensamento? Ou quando nos empenhamos em construir uma “economia informacional” que gasta mais e mais recursos acumulando e processando fatos? Nós enterramos ainda mais profundamente as subestruturas das idéias em que se apoiam as informações, situando-as além das reflexões críticas. Começamos, por exemplo, a prestar mais atenção nos “indicadores econômicos” — que são sempre números simples e convenientes, do que nas asserções sobre trabalho,

riqueza e bem-estar que fundamentam a política econômica. Na verdade, nossa ciência econômica ortodoxa está na superfície de uma inundação de invenções estatísticas, que servem principalmente para ofuscar as questões fundamentais sobre valores, objetivos e justiça. Qual a contribuição do computador com relação a tal situação? Aumentou o nível da inundação, derramando informações enganosas e perturbadoras a partir de todas as agências governamentais e diretorias de corporações. Mas o que há ainda de mais irônico, esta fixação na informação, que o computador tanto encoraja, deverá ter o efeito de sufocar novas idéias, que são a fonte intelectual que gera fatos. Afinal de contas, sem idéias não há informação.

6. O computador e a razão pura A luz na caverna de Platão Concentramo-nos até aqui na capacidade do computador de armazenar e recuperar uma quantidade aparentemente ilimitada de dados. Esse é um dos poderes mais impressionantes e vantajosos da máquina; é o traço mais marcante na mente daqueles que saúdam o advento da Era da Informação. Eles enfatizam a capacidade do computador de ter acesso a bancos de dados, que existem já aos milhares, e de canalizar esse rico material para as residências e os locais de trabalho. Ao falarmos, porém, do computador como “um processador de dados”, não devemos esquecer que essas duas palavras se referem a duas funções distintas, as quais aparecem associadas na máquina. O computador armazena dados, mas também tem a capacidade de processá-los — ou seja, ele pode manipular os dados de várias formas com a finalidade de elaborar comparações, contrastes, classificação e dedução. Os dados podem ser números que são calculados através de procedimentos matemáticos ou podem ser nomes, endereços, registros médicos, arquivos de pessoal, instruções técnicas também processadas por um programa a ser escolhido, ordenado, filtrado ou colocado numa determinada seqüência. Assim, quando solicitamos ao computador que reúna informações para um determinado negócio ele recorre a todos os dados necessários e à sua disposição (inventário, despesas gerais, ganhos, desempenho periódico, etc.), mas também adapta os dados de acordo com as instruções do programa. Até uma simples lista de endereços pode ser organizada no banco de dados, correspondendo a um determinado programa, por exemplo, segundo uma separação por códigos postais, a fim de ordená-los para a remessa de assinatura de uma revista ou para a verificação de crédito, origem étnica, idade, etc. Essas duas operações se tornaram de tal forma integradas ao funcionamento da maioria dos computadores que já deixaram de ser consideradas como funções distintas. Contudo, cada uma delas deve ser avaliada em separado. Armazenar dados relaciona-se, no computador, à tarefa de conservar registros, remontando ao livro-razão, aos fichários e arquivos, os quais vêm sendo atualmente substituídos pelos bancos de dados eletrônicos. Nesse sentido, o computador imita a faculdade da memória. O processamento de dados, por outro lado, representa um outro tipo de evolução tecnológica. Neste caso, o computador remonta à época da máquina de somar, imitando o poder da razão humana. Para muitos entusiastas do computador, esta segunda linha de desenvolvimento encarna o verdadeiro significado da máquina, pois valoriza sua capacidade de efetuar longos procedimentos lógico-matemáticos com uma altíssima velocidade e absoluta precisão. Para eles, trata-se da afinidade mais próxima entre o computador e a mente humana. No capítulo 4, falamos a respeito do curriculum de LOGO, de Seymor Papert. LOGO é o exemplo de aplicação do computador que tem muito pouca relação com dados. Segundo Papert, seu valor está na capacidade de ensinar e desenvolver o “raciocínio processivo” e de disciplinar as faculdades racionais de uma forma que um matemático valorizaria. Papert acredita que as crianças deveriam ser ensinadas a “pensar como um

computador”, pois para ele essas máquinas têm, de alguma forma, a capacidade de pensar como seres humanos, auxiliando as crianças a desenvolver suas habilidades mentais. Tenho argumentado que aqueles que exaltam o computador como armazenador de dados e provedor de informações tendem a subestimar e até ignorar o valor das idéias, afirmando como muitos empiristas ortodoxos que a informação, de alguma forma, é acumulada automaticamente dentro do conhecimento, sem a intervenção ativa da imaginação teórica. Contudo, essa segunda linha de evolução tecnológica que flui no computador — e que tem relação com o pensamento processivo — deriva de uma tradição filosófica distinta, a qual está intimamente ligada ao poder da razão pura. Baseado nessa linha racionalista de evolução, o computador lança mão de uma série de idéias que provaram ser convincentes e duradouras, ainda que não tenha ligação com quaisquer dados ou qualquer tipo de experiência humana. Trata-se de idéias matemáticas, idéias descobertas à luz da própria razão, forjadas unicamente pela estrutura lógica da mente. Na história da filosofia é ainda a matemática que tem sido utilizada e reutilizada como um exemplo do conhecimento a priori, o qual supostamente não tem nenhuma ligação com a experiência sensível, com os dados da observação e medição. Segundo observou Bertrand Russel: A matemática é... a fonte principal da crença no eterno e na verdade exata, perfeita, assim como num mundo inteligível suprassensível. A geometria trata de círculos perfeitos, mas nenhum objeto sensível é perfeitamente circular; ainda que utilizemos cuidadosamente nosso compasso, haverá algumas imperfeições e irregularidades. Isso sugere que a noção de que todo pensamento exato, aplicado ao ideal, se opõe aos objetos sensíveis; é natural que se vá além e que se argumente que o pensamento é mais nobre do que o sentimento, e que os objetos do pensamento são mais reais do que as percepções sensíveis.1 A formulação clássica dessa idéia a respeito das idéias matemáticas é de Platão, para quem a geometria servia como modelo de todo conhecimento confiável. Platão afirmava que as idéias geométricas nascem na mente como nossa fonte única de conhecimento. A solidez da matemática é o nosso único guia no meio da escuridão e da confusão da vida. Na sua famosa alegoria da caverna, Platão retrata a raça humana como uma população de míseros escravos confinados em sua mortalidade física no interior de uma gruta tenebrosa, onde só conseguem vislumbrar uma exibição embaraçada de sombras animadas; não conhecem nada que não seja efêmero e ilusório. Na sua prisão esquálida, há apenas um tênue vislumbre da claridade do sol. Somente o verdadeiro filósofo pode discerni-lo; é o poder da razão pura que nos dá, especialmente na forma da matemática, o conhecimento das verdades eternas, as formas puras que transcendem o fluxo do tempo e a fragilidade da carne. Através dos séculos, de maneiras diversas, os filósofos têm discordado da teoria do conhecimento de Platão e da mística que ela empresta à matemática. Contudo, apesar de todas as críticas, permanece uma qualidade persistente das idéias matemáticas, a crença na certeza dos números e na lógica matemática que chega à ciência moderna e que sobrevive nas teorias da cibernética e da informação. O misticismo de Platão pode ter sido banido 1

Bertrand Russel, A History of Western Philosophy, Nova Iorque, Clarion Books, 1945, p. 37.

dessas novas ciências, mas o espírito da certeza geométrica permanece. Assim, muito ironicamente, o grande poder da máquina que traz o culto à informação está baseado num corpo de idéias — idéias matemáticas — que não têm nenhuma relação com a informação, e que podem concebivelmente ser vistas como a melhor prova que temos a oferecer da primazia das idéias. À medida que o computador se tornou mais “esperto” (isto é, mais rápido, mais capacitado, mais intrincado em sua programação), nas últimas duas décadas, os cientistas de computação têm freqüentemente mostrado um certo desassossego a respeito do nome dessa máquina. Como a maioria dos livros recentes sobre a ciência da computação se apressa a mostrar a seus alunos logo no primeiro capítulo, o computador não é mais meramente um instrumento de computação; ele já transcendeu esse nível de origem para se tornar uma forma de inteligência artificial no sentido amplo. Desta forma, Margaret Boden observa: É fundamental perceber que o computador não é um mero mastigador de números ou uma supermáquina de cálculos aritméticos, embora essa seja a maneira como normalmente o computador é visto por pessoas que não têm familiaridade com essa inteligência artificial. O computador não é um mastigador de números, ele manipula símbolos... Computadores digitais originalmente desenvolvidos para solucionarem problemas matemáticos são, na verdade, máquinas manipuladoras de símbolos para fins genéricos... Os termos “computador” e “computação” são infelizes, em vista de sua conotação aritmética enganadora. A definição de inteligência artificial citada anteriormente — “o estudo da inteligência como computação” — não implica que a inteligência seja realmente uma operação de contagem. A inteligência pode ser definida como a habilidade de manipular símbolos de forma criativa ou processar informações, desde que estabelecidos os requisitos para que a tarefa seja realizada.2 É indubitável que o computador está bem distante de sua origem, quando ainda era uma máquina de calcular. Mas também é verdade que, num sentido mais amplo, a reputação que a ciência do computador e as formas computadorizadas da “inteligência” adquiriram na nossa cultura popular deve muito à antiga era mística da matemática. Na medida em que os cientistas da computação acreditam que o computador é uma “máquina que pensa” e que algum dia pensará melhor do que o homem, é porque existe uma conexão histórica com aquilo que os cientistas e técnicos sempre pensaram ser a mais clara e a mais produtiva forma de pensamento: a matemática. A esperança de muitos entusiastas no computador é precisamente de que, no futuro, ele produzirá uma forma de inteligência que levará a exatidão da matemática a vários outros campos da cultura. O repertório de símbolos do computador não se limitará mais a números; todavia permanece a esperança na capacidade de seus mais sofisticados programas em manipular símbolos com o rigor lógico do pensamento matemático. Fritz Machlup observa que o termo computação adquiriu um sentido muito amplo, abrangendo quaisquer operações que o computador realiza enquanto manipulador de símbolos. Quando, por exemplo, um cientista da área cognitiva fala dos programas de inteligência artificial e o público “lê uma sentença ou oração no sentido de 2

Boden, Artificial Intelligence and Natural Man, pp. 15,16-17.

que ‘processos mentais são processos computacionais’, provavelmente pensará que se trata de processos de computação numérica — o que é um engano”.3 É exatamente esse tipo de erro, contudo, que acentua o prestígio do computador, fazendo com que se acredite que qualquer coisa processada pelo computador adquire assim a certeza indestrutível da matemática pura. Ainda que sintam vergonha ao verem seus nomes associados ao misticismo de Platão, muitos oportunistas em ciência da computação e especialmente da inteligência artificial têm explorado esse erro, como se nota na mente confusa do público. É curioso, porém, como às vezes, e da forma mais imprevisível, algo do antigo espírito platônico emerge no universo da ciência da computação. Platão estava convencido de que é a corrupção da carne que nos separa das formas mais altas de conhecimento. Por esse motivo recomendava o estudo da geometria como uma espécie de purgação dos sentidos que elevaria a mente acima da mortalidade do corpo. Podemos notar exatamente a mesma aliança entre o ascético e o matemático no seguinte trecho do estudo de Robert Jastrow sobre a “mente no universo”: Quando as ciências do intelecto alcançarem esse ponto, um cientista audaz será capaz de retirar o conteúdo de sua mente e de transferi-lo para o interior de pequenas treliças metálicas do computador. Se a mente é a essência do ser, pode-se dizer que esse cientista adentrou o computador e que esse é o lugar onde ele habita. Finalmente, abrigado no interior do computador, o cérebro humano se libertou da fragilidade da carne efêmera... Tem o controle de seu próprio destino. A máquina é o seu corpo; é a mente da máquina... Parece-me que esta deve ser a forma madura da vida inteligente no universo. Resguardada em pequenas treliças indestrutíveis de silício e finalmente liberta do ciclo biológico (vida/morte) característico dos organismos vivos, esse tipo de vida poderia ser eterno.4 Jastrow imagina que, em sua forma desencarnada, o computador nos transformará em “uma raça de imortais”.

A antiga mágica da matemática O modelo matemático da certeza absoluta é uma das esperanças imortais de nossa espécie. Por mais inflexível que possa ser a maioria dos cientistas (ou gostaria de aparentar) com referência a sua visão sobre a antiga mágica da matemática, o sonho platônico sobrevive, particularmente no campo do culto à informação. Os dados — a velocidade e quantidade de seu processamento — são talvez o aspecto mais enfatizado pelo culto ao celebrar o computador. No entanto, tão importante quanto os dados é a precisão matemática com a qual os programas de computador manipulam a informação a eles fornecida. Isto é o que os cientistas da computação chamam de procedimento efetivo. Sabemos que um computador 3 4

Machlup e Mansfield, The Study of Information, p. 671. Robert Jastrow, The Enchanted Loom: Mitid in The Universe, Nova Iorque, Simon & Schuster, 1984, pp. 166-167.

pode realizar qualquer coisa para um determinado (e dado) “procedimento efetivo”. A frase significa “um conjunto de regras (o programa) especificando, de formas a não causar ambigüidades, certos processos, os quais podem ser realizados por uma máquina construída de tal forma a aceitar aquelas regras como instruções que determinam suas operações”.5 A busca de um tal procedimento seria pura extravagância se não fosse o fato de existir um campo de pensamento que nos ofereça o modelo de uma lógica rigorosa: a matemática, campo que produziu o computador em primeiro lugar. O computador funciona em sua plena capacidade quando limitado ao âmbito daquilo que pode ser tratado com tal rigor lógico. Todavia, quanto mais nos afastamos desse âmbito, mais rapidamente o seu poder enfraquece. Infelizmente, nem todos os cientistas da computação estão dispostos a reconhecer esse aspecto. Eles esquecem — e fazem o público esquecer — que as idéias matemáticas são de uma espécie peculiar. São idéias formais, isto é, são construídas através de axiomas por meio de regras específicas muito precisas. Podem ser divididas em partes (análise), as quais são basicamente princípios lógicos e postulados que podem ser manipulados mecanicamente. O valor das idéias matemáticas repousa precisamente em sua clareza analítica e em ausência de ambigüidade. Dentro de seu campo apropriado de aplicação, possuem o poder de conferir uma transparência lógica; elas afastam a ambigüidade para revelar a estrutura esquelética que une as partes, etapas e procedimentos. Elas podem ser programadas. É por esse motivo que, através de um espantoso exercício da imaginação humana, os sistemas matemáticos têm sido desenvolvidos fora do âmbito real da experiência cotidiana, a qual freqüentemente se apresenta de forma turva, obscura e infinitamente complexa. Uma vez que há áreas do mundo real que parecem se relacionar com uma ordem formal, há partes da matemática que podem ser aplicadas a esse mundo para isolar aqueles seus elementos mais mensuráveis e que estão sujeitos a regras. Onde isso acontece, encontramos o reino da ciência teórica e aplicada. Da mesma forma, aqui os computadores podem ser altamente vantajosos para canalizar uma grande quantidade de informação através de programas científicos e técnicos. Mas, mesmo nesse caso, devemos ter em mente que há idéias fundamentais de tipo não matemático (podemos chamá-las de insights ou, talvez, de artigos de fé) que governam todo o pensamento científico. Considere-se nossa convicção inicial de que existe uma ordem racional na natureza, um modelo que pode ser compreendido pela mente humana. Essa é a mais fundamental de todas ás idéias científicas. Mas em que ela se baseia? Trata-se de um pressentimento ou uma esperança desesperada provocada talvez por uma frágil percepção de simetria e da regularidade da natureza, a qual apresenta ritmos e ciclos — sendo que todos estão em contínua dissolução no interior da esfera confusa do cotidiano. Porém, tomando-se essa idéia como uma espécie de filtro, separamos as exceções e obstáculos e encontramos regularidades mais profundas que começam a parecer uma ordem de coisas. Mas que espécie de ordem? Nossa ciência optou por uma ordem de números. Trabalhamos a partir da poderosa idéia de Galileu de que “o grande livro da natureza está escrito em linguagem matemática”. Contudo, poderíamos ter escolhido um outro tipo de ordem. Há a ordem da música (o astrônomo Kepler passou a maior parte da vida pesquisando a harmonia das esferas); há a ordem da arquitetura e do teatro; a ordem de uma estória (um mito) contada repetidamente; há a ordem da conduta 5

Boden, Artificial Intelligence and Natural Man, pp. 6-7.

divina, baseada na qual ficamos atentos a recompensas e ao castigo, à ira e à misericórdia. Qual é a ordem mais importante? Fazer uma escolha é também uma idéia a ser selecionada a partir de todas as possibilidades. Quase toda a ciência moderna foi desenvolvida a partir de uma série de idéias metafísicas e estéticas como: O universo consiste de matéria em movimento. (Descartes) A natureza é governada por leis universais. (Newton) Conhecimento é poder. (Bacon) Nenhuma dessas idéias é uma conclusão adquirida através de pesquisas científicas; nenhuma delas é o resultado de processamento de informações. Pelo contrário, são premissas que tornam possível a pesquisa científica e conduzem à descoberta de dados seguros. Novamente, são ideias-mestras sobre o mundo, e, enquanto tais, transcendem a informação. Elas emergem de uma outra dimensão da mente, de uma capacidade para insights que talvez tenha afinidade com o poder artístico e inspiração religiosa. Não se pode duvidar que na área das idéias científicas e matemáticas o computador suplementa consideravelmente a mente. Ele é capaz de realizar cálculos numa velocidade bastante elevada; pode fazer projeções hipotéticas; pode surpreendentemente oferecer representações gráficas flexíveis; é capaz de produzir simulações complexas que expandem a imaginação. Esse já é um ótimo desempenho para uma máquina. Entretanto, pode acontecer que, mesmo nas ciências, a competência do computador como um processador de informações tenha suas imperfeições. Pelo menos um cientista de renome trouxe à tona uma advertência desafiante sobre o uso de computadores no campo da astronomia. Sir Bernard Lovell afirma: Temo que a pesquisa computadorizada sem imaginação e de enfoque restrito prove ser antitética no que se relaciona ao livre exercício da faculdade conhecida como serendipity.* Teria a existência de rádio-galáxias, quasars, pulsares e efeitos de micro-ondas, sido revelada se a sua descoberta tivesse dependido das rádio-observações computadorizadas? O computador atua como um estreitíssimo filtro de informação; ele precisa ser orientado para observações específicas. Em outros termos, ele deve ser programado para o tipo de resultado esperado pelo observador. Isso significa então que os computadores são antiserendipitious? Se assim for, não deveríamos estar preocupados com a possibilidade de estarem impedindo que avance nossa compreensão das principais características e feições do universo?6

As seduções do software Existe uma resposta previsível para o argumento discutido até aqui. Gostaria de insistir que o computador também pode ser programado com idéias não matemáticas. De fato, isso acontece o tempo todo. Pois um “programa” não é mais que um algoritmo, um conjunto de * 6

Faculdade de se fazer descobertas geniais de forma acidental e inesperada. (N. T.) Science Digest, jun. 1984, p. 94.

instruções que organizam informações com algum objetivo. As idéias que animam um programa podem ser muito óbvias, como no caso do programa que efetua o orçamento de uma família que opera a partir do pressuposto de que a ruína é indesejável e deve, portanto, ser evitada. (O programa pode, inclusive, acentuar a advertência com o auxílio de um comando bem marcado ou de um sinal de piscar). Ou a idéia pode ser tão simples quanto o alvo de um video game em que se estabelece que o senhor Pacman deve matar sem se deixar ser morto. Muitos programas são bem mais complexos. São pacotes integrados de gerenciamento e administração que pretendem realizar o trabalho de toda uma equipe e, talvez, de um vice-presidente ou dois. Há jogos de computador que são terrivelmente complicados, ao ponto de exigir tanto intuição quanto cálculo — o que significa que as complexidades da estratégia ultrapassam a análise lógica. A questão é que, no universo da ciência e da computação, tanto as idéias que governam o programa, quanto os dados que são nele inseridos, acabaram sendo incluídos no conceito de “informação”. O culto à informação, ao associar o programa e os dados num mesmo território, ganhou terreno com relação a sua mística. Mas esta confusão pode tornar-se desastrosa. Pois seria o mesmo que dizer que não há diferença entre, de um lado, o projeto arquitetônico de um edifício (a planta) e, de outro, os cálculos dos inúmeros materiais necessários para a construção deste edifício. Os materiais e seus cálculos abrangem uma vasta série de informações detalhadas que podem (com vantagens) ser inseridas em um computador, juntamente com diretrizes de referências e, em seguida, chamadas para conferência com apenas o apertar de uma tecla. Mas é o projeto do edifício que dá forma e significado a esse caos de quantidades e números. Esta seria a resposta à questão: afinal, do que trata essa informação? É também o projeto, que nos permite colocar questões ainda mais essenciais que os dados da memória do computador não são capazes de resolver. Será que a construção de tal estrutura deve ser encarada como prioridade? Será que ela tem uma relação razoável com o terreno, sua vizinhança e seu meio ambiente? Ela é bela? É prática? Dará resultado? Fará com que nos sintamos orgulhosos? Será que nos sentiremos confortáveis? Ela tem calor, nobreza, obedece à escala humana e tem noção de seu tempo e espaço, para que acolha bem aqueles que nela irão morar e trabalhar? Podemos discutir o projeto visando todos esses aspectos sem nos referirmos a quaisquer medidas ou cálculos de materiais (mesmo a verdadeira noção de “escala humana” nem sempre precisa ser uma questão de tamanho, mas geralmente das particularidades do ambiente). Deste modo, estamos falando da ideia do edifício, assim como a tínhamos em mente ou, talvez, como exista num simples rabisco ou pedaço de papel. Atualmente o rabisco pode ser efetuado por um arquiteto com um estilete eletrônico em uma tela de vídeo, mas a diferença persiste: a idéia aparece primeiro, a idéia contém os dados, a idéia governa os dados. Uma vez que refletimos a respeito do assunto, fazendo nossa crítica, não podemos deixar de notar que os dados e o programa que os processa estão em níveis diferentes, um se subordinando ao outro. Por que, então, ambos acabaram sendo denominados “informação”? Em parte, isso pode ter relação com o fato de que tudo aquilo que alimenta o computador é instantaneamente traduzido em números binários. Os números se tornam bits, as letras das palavras transformam-se em pacotes de bits, chamados bytes. O código binário, então, passa a ser visto como uma “linguagem” ampla que homogeneiza tudo o que expressa. Em algumas universidades, os sistemas utilizados para auxiliar os tradutores

(BASIC, PASCAL, LISP, etc.), metaforicamente mencionados como “linguagens de programação”, podem ser agora substituídos pelo estudo de francês, alemão, russo... o mais rápido para tornar os estudantes hábeis em computação [Computer literate]. É claro que essas não são, de forma alguma, linguagens; são sistemas de codificação. Mas, no metabolismo eletrônico do computador, o onívoro bit devora tudo — números, palavras, formas geométricas, gráficos, música — em extensas seqüências de 0 e 1. Isso não cancela, então, a diferença entre os dados e a idéia? Conforme ouvi certa vez de um especialista em computação, informação é tudo que pode ser introduzido na máquina sob a forma de off/on, sim/não. Bem, se houvesse algo como um transistor consciente, esta poderia ser a estranha forma pela qual esta entidade singular veria o mundo: como uma coleção infinita de 0 e 1. Mas o fato de um transistor não ser capaz de diferenciar bits que são dados de bits que são idéias, não significa que nós possamos ignorar essa distinção fundamental. Se assim fizermos, estaremos correndo o risco de submeter nossa inteligência ao controle dos programas que cada vez mais governam nossas vidas. Cada software tem um certo repertório de suposições, valores e limitações básicos nele embutidos. Em nenhum dos significados da palavra estão essas “informações”. Por mais toscas que possam parecer, são idéias sobre o mundo e, como todas as idéias, devem ser claramente expostas à crítica. No início de 1985, um cronista financeiro realizou uma experiência que envolveu quatro dos mais conhecidos programas de planejamento financeiro. Imaginou uma família hipotética de classe média. Seus recursos financeiros, necessidades, projetos e preferências foram registrados no programa. O resultado consistiu em quatro séries de recomendações completamente diversas, propondo opções como investimentos, economias, liquidez, seguro, aposentadoria.7 Por quê? Ora, as informações de cada projeto foram programadas a partir de diferentes suposições, fato que não havia sido notado por nenhum dos serviços mencionados. Para o usuário parecia apenas ser uma questão de introduzir informações financeiras pessoais e obter um resultado com a aparência de absoluta autoridade. Essa ilusão de certeza matemática se torna especialmente acentuada na obsessão usual com os spreadsheets* na comunidade dos negócios. Desde que, no final dos anos 70, o primeiro software que utilizava spreadsheets foi divulgado por David Bricklin, da Harvard Business School, essa forma de contabilidade computadorizada se tornou o que Steven Levy chama de “culto virtual” entre os empresários.8 Caracterizando-se como uma forma de modelar e projetar decisões financeiras, o spreadsheet, como todos os programas, é construído segundo uma matriz fundamental de suposições. Algumas são idéias sobre pessoas, seus gostos e motivações; algumas são juízos de valor que estabelecem prioridades. Todas requerem algum tipo de ponderação numérica, talvez de forma tosca ou superficial. Assim, mesmo no mundo dos negócios há questões imponderáveis como a boa vontade, o moral, a satisfação com a empresa, a conduta moral; todos esses fatores exigem atenção, e já que resistem à quantificação, não podem ser incluídos no programa de spreadsheet. O equívoco causado pelo spreadsheet é que sua aparência de organização matemática, sua lógica rigorosa e sua profusão de números podem tornar seu usuário cego em relação à não 7

Jane Bryant Quinn na seção financeira do San Francisco Chronicle. 14.5.1985. Folha de lançamentos de dados; formulário preenchido com uma série de dados utilizados como inputs de programas a serem rodados no computador. (N.T.) 8 Steven Levy, “A Spreadsheet Way of Knowledge”, Harper’s, nov. 1984. *

verificação das idéias e omissões que governam os cálculos. Como observa Levy, “em função da aparência autoritária da spreadsheet — e ela foi feita por um computador, não foi? — o modelo hipotético acaba sendo aceito como se fosse evangelho”. Trata-se novamente de um exemplo de mistificação da matemática que obscurece a avaliação crítica do programa. Não é preciso prolongar o assunto, pois mesmo os simples video games usados por nossos filhos trazem à tona algumas idéias questionáveis. Esses jogos são claramente dominados por uma competição cruel e uma destruição intencional. O que importa é vencer, o que conta é matar. Muitos desses jogos são altamente preconceituosos, elaborando imagens machistas e estereotipadas que atraem os garotos adolescentes — a maior clientela entre o público de vídeo. Em contraste, uma firma que lançou uma série com o nome de “Jogos de Computador para Garotas”, inseriu no software idéias convencionais de feminilidade, tais como evitar brigas violentas com derramamento de sangue, incentivar a cooperação, reservar tempo para a limpeza e colher flores. As garotas jogam na qualidade de parceiras, não de adversárias, e seus jogos exigem pouca coordenação visual e manual.9 É louvável que a firma tenha incluído em seu mercado o público feminino, mas seus jogos também lidam com preconceitos e estereótipos sexuais. Em uma sensata crítica aos jogos de video game, Ariel Dorfman conclui que a maior parte deles é baseada em premissas e objetivos que contribuem para a formação de uma “psique entorpecida”. Aqueles que jogam vídeo games e deixam sua sensibilidade e ética de lado enquanto brincam com a exterminação fictícia na tela iluminada de vídeo, militarizando seu tempo livre, se comportarão da mesma maneira na mesma sociedade que contempla assassinato em massa como inevitável, cadáveres como estatística, quarenta milhões de mortos como vitória.10 Talvez a maioria dos jogos infantis criados até hoje tenham girado em torno de prazéres violentos, especialmente aqueles para os garotos cuja concepção de virilidade ainda está tristemente constituída. Mas, com certeza, o computador com seus gráficos hipnóticos e suas respostas rápidas em forma de flashes (um inimigo pode ser magistralmente destruído com um simples apertar de uma tecla) faz com que o fraco reflexo das glândulas pubescentes se torne mais excitante e, portanto, mais sedutor. É apenas quando nos deparamos com uma distinção clara entre idéia e informação que reconhecemos que estes são níveis de discurso radicalmente distintos, exigindo também níveis diversos de avaliação. Na maioria dos casos, temos a possibilidade de chegar aos dados que emergem do programa como “certos” ou “errados”, uma questão que conduz aos métodos padronizados de pesquisa. Mas, as idéias que governam os dados, não são informações; nem são temas sacrossantos da lógica matemática. São compromissos filosóficos, produtos da experiência, insights, convicções metafísicas, que devem ser avaliados como sábios ou não, infantis ou maduros, realistas ou fantásticos, morais ou corrompidos. Este projeto crítico abrange toda a gama dos softwares para computadores, desde os jogos de vídeo em que se dá a aniquilação fantasiosa das galáxias sob o poder do toque da criança, até a máquina de guerra computadorizada que permite a escolha do 9

Ver a coluna “The Apple Connection” em Bay Area Computer Currents, 20.11 — 3.12.1984, p. 29. Ariel Dorfman, “Evil Otto and Other Nuclear Disasters”, Village Voice, 15.6.1982.

10

genocídio por nossos presidentes e generais. Pesar esses fatores numa escala crítica exige uma educação que a habilidade computacional padronizada nunca possibilitará. Uma vez que a tecnologia da informação está ao nosso alcance, seus usuários reconheceram o princípio do GIGO; garbage in — garbage out [lixo dentro — lixo fora]. O computador nada pode fazer senão aquilo que a inteligência humana selecionou no que se refere à qualidade da informação que será por ele processada. Mas esse princípio deve abranger outros níveis. O rigor matemático do computador pode levar alguns a se equivocarem ao interpretarem GIGO como sendo o que Ashley Montague traduziu por: garbage in — gospel out [lixo dentro — evangelho fora]. Necessitamos de outro princípio que nos conscientize das falhas que podem constar dos programas e que estão à espera de informações. Mesmo quando os dados são bem selecionados, podem ser emboscados pelo “lixo intelectual” ou por qualquer outra determinação oculta nas profundezas do programa.

Uma inteligência alienígena “Independentemente de quanta inteligência os computadores venham a atingir, agora ou no futuro, ela será sempre uma inteligência alienígena com relação aos problemas e preocupações humanos genuínos”. Joseph Weizenbaum11

A genialidade da ciência da computação está na sua notável capacidade de elaborar programas extremamente complexos a partir de estruturas muito primitivas. Não são muitos os usuários que observam que, em última análise, tudo o que a máquina faz deriva da manipulação rápida de algumas relações lógicas fundamentais, como as que são expressas pelas palavras e, ou, ambos, nenhum, implica. Um programa de computador produz muito pouco além daquilo que pode ser rastreado em algumas regras simples, como: Isto é igual a aquilo; reúna-os. Isto não é igual a aquilo; coloque isto em outro lugar. Se isto é desta forma, então aquilo é daquela; prossiga. Se isto é assim, então aquilo não é; elimine aquilo. Ou isto ou aquilo; escolha. E assim por diante. Este é o tipo de regra de escolha entre duas alternativas que são facilmente conversíveis para a notação zero/um dos números binários para se movimentarem sem problemas através dos canais on/off dos transistores elétricos. Assim, obtemos um sanduíche: procedimentos efetivos (a idéia do programa) baseados na aritmética binária, e baseados no movimento físico stop/go (para/recomeça) dos elétrons nos semicondutores. Essa é uma inter-relação intrigante que conecta operações humanamente úteis com um substrato invisível de fenômenos físicos não humanos. Quando as regras de programação 11

Weizenbaum, Computer Power and Human Reason, p. 213.

que governam essa inter-relação estão densamente empacotadas em longas seqüências e se movimentam em uma elevada velocidade, o que faz o computador não pode ser considerado como algo simples. Especialmente quando se inseriu no programa o cálculo de probabilidades, prioridades e ponderações, pode dar a impressão de uma pequenina e astuta inteligência trabalhando, deliberando, escolhendo, decidindo. Contudo, seus inventores sabem que ela opera através de regras matemáticas e de leis físicas estritas. Compreendese, então, por que alguns cientistas da computação se perguntam o quanto esses procedimentos poderiam se estender ao âmbito do intelecto. Quantas faculdades da mente humana — intuição, criatividade, juízo — poderiam ser simuladas pelo processamento de dados através do tipo de processos formais que caracterizam o pensamento matemático? O estudo chamado inteligência artificial (IA) representa essa procura: encontrar formas de programar tantas maneiras de pensamento quantas forem possíveis, para que um computador possa simulá-las. Trata-se de um desafio que gerou programas muito mais sofisticados do que seus críticos poderiam ter previsto há dez ou vinte anos atrás, quando o campo estava apenas sendo introduzido nas universidades. Entre suas realizações bastante apregoadas estão os inúmeros “sistemas especializados”, que podem servir como instrumentos valiosos para médicos, geólogos, químicos e geneticistas. Esses sistemas são basicamente programas que indicam como os especialistas em certas áreas poderiam desenvolver o seu trabalho para solucionar problemas. Por exemplo, um médico poderia introduzir no computador um conjunto de sintomas que poderiam ser classificados, sugerindo um diagnóstico com o qual muitos especialistas concordariam. A lógica da questão é simples: os especialistas chegam a certas conclusões a respeito de seus pacientes, de acordo com os sintomas encontrados. Evidentemente, eles também poderão fazer uso de sua intuição, levando em consideração o aspecto geral do paciente — a má postura, o olhar vidrado, as bochechas pálidas — características de difícil inserção no programa. Ou os especialistas, enquanto especialistas, deixam de observar particularidades vitais que não fazem parte de seu campo de ação. É duvidoso que mesmo um sistema engenhoso como esse possa funcionar, exceto como elemento auxiliar, para os médicos que, em última instância, têm de confiar em seu próprio julgamento — até o ponto de arcar com as conseqüências últimas de uma prática irresponsável. Por mais notáveis que sejam esses progressos, a IA ainda deixa a desejar quanto às promessas enunciadas pelos seus entusiastas desde o início dos estudos na década de 50. Como vimos, a IA tem sido particularmente caracterizada como extravagante, o que é freqüentemente reiterado pela propaganda, sendo que as autoridades da área contribuem tanto para o aspecto folclórico do computador quanto os publicitários, prometendo máquinas que traduzem, entendem discursos, processam imagens visuais, tomam decisões legais, políticas e financeiras e, em geral, suplantam a inteligência humana em todos os campos. Assim, em 1959, Herbert Simon e Allen Newell previram que “num futuro muito próximo”, sua pesquisa produziria computadores cujo poder de resolução de problemas seria “tão amplo quanto o da mente humana”.12 Marvin Minsky contundentemente vai mais além: Num período de três a oito anos, teremos uma máquina com a inteligência geral de um ser humano mediano, ou seja, capaz de ler Shakespeare, engraxar um

12

Idem, ibidem, p. 138.

carro, fazer política de gabinete, contar piadas, brigar. Nesse estágio, a máquina começaria a se educar a uma velocidade espantosa. Em poucos meses ela teria o nível de um gênio e, alguns meses depois, um poder incalculável.13 Essa previsão foi feita em 1970. Mesmo os colegas de Minsky do laboratório de inteligência artificial do MIT acharam-na extravagante. Mais cautelosos, eles previram que tais resultados levariam pelo menos mais quinze anos. Na época, pensaram que Minsky estava provavelmente certo ao acreditar que o computador ocuparia uma posição de “nos ter como animais de estimação”. A razão dessa autopropaganda consciente não é difícil de ser identificada. Há muito dinheiro em jogo. Comparada às ciências mais recentes do conhecimento, a IA se tornou um dos campos da pesquisa acadêmica de maior investimento nas últimas duas décadas. Sua imagem pública e seu destino flutuaram incrivelmente nesse período, depèndendo do sucesso de séus esforços; mas atualmente tem fortes ligações com a indústria militar e não é bem vista pelo público em geral. Tornou-se a grande esperança da indústria de computadores ao tentar produzir uma nova geração de mercadorias mais sofisticadas — a assim chamada quinta geração. A IA tem sido considerada em função de seus empreendimentos, que poderão levá-la à criação de máquinas superinteligentes para cada estágio de vida, desde geladeiras falantes até campos de batalha automatizados. Alguns observadores estimam que em meados da década de 90, a IA será o centro de um mercado de 50 bilhões de dólares por ano, se todas as invenções prometidas forem concretizadas. De acordo com o comentário de Michael Bywater (publicado no London Observer, em novembro de 1985), a “inteligência artificial é uma expressão de duas palavras que faz os funcionários do Departamento de Defesa dos EUA salivarem quando a ouvem”. A IA e a ciência cognitiva têm atuado oportunisticamente nessa nova onda de investimentos especulativos, associando seus interesses profissionais a superempresas que auxiliam no financiamento de suas pesquisas. Importantes corporações como a IBM, a Digital Equipment e a Data General, juntamente com a DARPA-Pentagon’s Defense Applied Research Projects Agency [Agência de Projetos de Pesquisa Aplicada da Defesa do Pentágono] têm feito contratos lucrativos com as mais importantes universidades para estimular as pesquisas necessárias. Esse desenvolvimento não deixou de sofrer críticas entre os profissionais da computação. Alguns temem que o dinheiro da indústria militar venha a distorcer as prioridades das pesquisas; outros se preocupam (tardiamente) com as implicações éticas que surgem da aliança entre a tecnologia da informação e o Pentágono. Mais fundamentalmente ainda, há aqueles que acusam a IA de ter sido comercializada a ponto de esbarrar na fraude. O campo não é capaz de produzir aquilo que anuncia em suas propagandas. Esse desafio foi levantado em 1984 por Lewis M. Branscomb, da IBM, no encontro da Association for Computing Machinery, que observou, a respeito da IA: “as afirmações extravagantes dos últimos anos se tornaram fontes de preocupação para muitos de nós que vimos excessivas reivindicações de pesquisadores em outros campos, criando expectativas imoderadas entre o público”. Esse aspecto foi levantado muito mais contundentemente por Herbert Grosch, também outrora da IBM:

13

Life, 20.11.1970, p. 586.

O imperador — referindo-se à quinta geração ou à IA — está completamente nu acima do tornozelo. Nos pés ele usa sapatos bem confeccionados e bastante ornamentados, chamados sistemas especializados. Eles são úteis, mas já os tínhamos há mais de 30 anos. Tudo o que os meninos da quinta geração fizeram foi dar-lhe novos nomes.14 As dificuldades encontradas pela IA ao perseguir suas asserções inflacionadas são reveladoras, pela simples razão de que elas apontam as limitações da mente matemática ao ultrapassar os limites da razão pura — ou ao procurar ampliar essas fronteiras até o mundo real. No princípio — assim que a primeira geração de computadores do pós-guerra começou a ser introduzida nas universidades — os cientistas da computação se exaltaram com o rápido progresso que haviam conseguido ao programarem suas máquinas para executarem jogos de estratégia, como o jogo-da-velha, damas e xadrez. A estratégia do jogo-da-velha foi rapidamente dominada pelo computador, como aconteceu com a maioria dos computadores que têm dez anos. O jogo de damas também teve seus segredos desvendados rapidamente. Desde que o primeiro programa de xadrez foi desenvolvido em 1957, as estratégias do computador elaboradas para esse jogo alcançaram um alto nível de especialização.15 Tais sucessos foram altamente encorajadores. Se o computador respondia tão bem a essas tarefas, então o que não poderia fazer? Mas desde seu surgimento a IA se deparou sucessivamente com inúmeros problemas relacionados com outro nível, mais simples, da atividade mental. Enquanto os computadores funcionam extremamente bem ao lidar com os jogos de estratégia, continuam limitados nas áreas da vida em que o “senso comum” e a “linguagem natural” são decisivos. Imaginemos, por exemplo, que a tarefa seja desenvolver um programa que trate de uma questão bastante corriqueira: Queremos descobrir o que está acontecendo no mundo. Como isso pode ser feito? Digamos, lendo o jornal matutino. Onde ele se encontra? Na entrada de casa. Devemos então, sem dúvida, sair, recolhê-lo e entrar em casa novamente. Correto. A menos que esteja chovendo. Se estiver, você não quererá ficar molhado. Como evitar isso? Vestindo uma capa de chuva. Depois, é só sair e pegar o jornal. Este é um projeto real de pesquisa que tem sido desenvolvido pela Fundação Alfred P. Sloan na Divisão de Ciência da Computação da Universidade da Califórnia, em Berkeley. Este projeto inclui o desenvolvimento de procedimentos efetivos que procuram, numa seqüência sensível, determinar se está chovendo, o quanto está chovendo, a colocação de capa de chuva, a saída, o apanhar o jornal — tudo isso ocorre de forma simulada, obviamente; o computador não abandona o laboratório para vaguear no campus à caça de um verdadeiro jornal.16 Aqui não parece haver muita dificuldade. Contudo, para o computador, essa pequena fatia de aventura vivida deve ser descrita segundo um programa-roteiro bastante detalhado. 14

Para estudo e crítica da IA na América, na Europa e no Japão, ver New Scientist, Londres, 15.11.1984, pp. 18-21; 22.11.1984, pp. 17-20:29.11.1984, pp. 12-15. 15 Ver Fred Hopgood, “Computer Chess Bad, Human Chess Worse”, New Scientist, Londres, 23 e 30.12.1982, pp. 827-830. Ver também M. David Stone, “Electronic Chess Experts”, Science Digest, mar. 1985, p. 8. 16 O programa do jornal e da capa de chuva é detalhado em Rose, Into the Heart of the Mind, cap. 4.

Se introduzirmos na situação a possibilidade de se usar um guarda-chuva ou a decisão de quão molhados aceitaríamos ficar antes de utilizarmos o guarda-chuva ou a capa, o programa se torna uma parafernália de contingências conflitantes. É assim que a mente humana reage frente a tais problemas de senso comum? É claro que não. Essa é, porém, a única forma do computador resolver tais questões — e deixa muito a desejar. Uma verdade irônica, mas muito significativa, emerge de tal estudo. A IA e a ciência cognitiva podem provar algo muito valioso: a elevada limitação da lógica matemática frente a uma vasta gama de problemas do mundo real. Parece que não conseguimos lidar com problemas corriqueiros de nossas vidas através de “procedimentos efetivos”. Podemos ter um computador que chega a se equiparar a um mestre de xadrez, mas ainda incapaz de se furtar da chuva. Isso sugere que existe uma discrepância radical entre as formas pelas quais a máquina simula o pensamento e as formas pelas quais as pessoas pensam realmente. De fato, essa discrepância poderia incluir aquelas áreas, como a matemática e o jogo de xadrez, em que o computador produz os mais admiráveis resultados. Como sugerimos em nossa discussão sobre o LOGO, no capítulo 4, não se trata das pessoas jogarem xadrez ou fazerem matemática da maneira do computador. A mente humana, também nesse caso, funciona da mesma maneira evasiva, informal e imprecisa de quando decide (sem pensar conscientemente) não haver razão suficiente para se recolher o jornal molhado em frente de casa, e que melhor seria ligar o rádio e escutar confortavelmente o noticiário. Os tipos de procedimento efetivo que têm sido desenvolvidos para a matemática e o xadrez são o que de melhor pode oferecer a IA como um approach para a compreensão da mente humana. Se eles são tão estranhos quanto o raciocínio real, como afirmam alguns críticos, isto é mais um motivo para estarmos atentos para a forma pela qual o software manipula os dados. Pois o rigor matemático do procedimento pode inclusive não ser o resultado da matemática real, mas de uma tosca caricatura mecânica da mente matemática em funcionamento. A antiga mágica da matemática que habita a raiz da tecnologia da informação pode ser enganadora a ponto de nos decepcionar. O computador imita uma qualidade da mente, porém inadequadamente, impondo uma autoridade que não merece. O vício que sempre paira sobre a IA e sobre a ciência cognitiva é a insistência de que aquilo que o procedimento efetivo deixa de lado não tem muita importância ou pode ser introduzido mais tarde como parte de um programa ainda a ser desenvolvido. Assim, no que se refere às tarefas computadorizadas que venham a necessitar de um certo aroma emocional, Marvin Minsky assegura: Seremos capazes de programar emoções no computador assim que pudermos pensar. Poderíamos fazer algo como uma grande cólera, mas seria uma cólera insensata. Não seria muito interessante. Tenho certeza de que assim que tivermos uma certa quantidade e decidirmos que tipo de emoções desejamos introduzir no computador, não haverá grandes dificuldades.17 Observações simples como essa estão baseadas no fato de que toda atividade humana pode ser reduzida a algum tipo de descrição formal — se eliminarmos todas as ambigüidades não programáveis, sutilezas e imponderabilidades. Um computador, por exemplo, pode ser programado com palavras-chaves que acionam uma série de regras que evocam uma seleção de “estruturas” que representam “amor romântico”, “amor familiar”, 17

Minsky, citado por Muyghe, Psychology Today, dez. 1983, p. 34.

“amor platônico”. Se a estrutura do amor romântico é ativada, o computador poderá imprimir “Eu te amo”, ou melhor ainda, “Eu realmente te amo”, seguida de “parêntesessuspiro-parênteses”. Pode, inclusive, ser alimentado com uma vasta antologia de poemas de amor que ele, em seguida, cita. Para alguns especialistas em IA, a simplificação grosseira envolvida em tal procedimento efetivo pode ser vista como uma primeira etapa de uma longa procura por algo mais autêntico. O perigo está em que, em algum ponto do processo, a busca se torne frustrante e seja abandonada, mas essa primeira etapa não é anulada. Por ser tão logicamente rigorosa, a primeira etapa pode vir a ser considerada segura: um verdadeiro avanço, ou, talvez, a própria meta. Isto significa aceitar uma caricatura grosseira como um substituto adequado de um retrato — ou mesmo da pessoa real por detrás da imagem.

Um voo além da realidade Os exemplos dados aqui de IA desenvolvidos em experimentos de laboratório altamente planejados podem parecer inocuamente acadêmicos ou até mesmo um pouco recreativos, pois os projetos em estudo são absolutamente distanciados da realidade. Daí podemos concluir que se as atividades comuns do dia-a-dia não podem ser duplicadas com sucesso pela IA, então as pesquisas irão além da maquete e podem no final se juntar à série de esforços frustrados, tais como a busca do movimento perpétuo ou do solvente universal. Mas não é bem assim que o mundo funciona, especialmente quando instituições poderosas necessitam maximizar suas influências e seus lucros. A IA está agora penetrando em nossa vida econômica trazendo uma imensa variedade de conseqüências relevantes como parte de uma conversão econômica maciça para a alta tecnologia. É de conhecimento geral que uma quantidade elevada e crescente de automação na área industrial tem sido introduzida no setor de fabricação visando a robotização de linhas de montagem. Esse esforço para diminuir os custos do trabalho pela crescente mecanização está largamente difundido pela direção industrial, através dos níveis de supervisão altamente especializados. A cada passo do longo caminho, a tecnologia de automação está baseada no mesmo pressuposto que guia a pesquisa com relação ao jogo de xadrez e na resolução de problemas do senso comum, nos laboratórios de IA: ou seja, tais procedimentos efetivos podem ser desenvolvidos, considerando-se o que fazem no processo produtivo quaisquer trabalhadores especializados ou semi-especializados, e talvez até capatazes ou gerentes. Hoje, o público em geral acredita que isso pode ser feito; afinal de contas lemos relatos cintilantes e vemos filmes impressionantes sobre fábricas automatizadas em funcionamento. A propaganda das indústrias e do governo continuam nos dizendo que o resultado pode significar produtividades cada vez maiores e menos dispendiosas. Graças à high tech, o trabalho humano de alto custo será completamente realizado por meio da automação, fora do salário de mercado, e a indústria americana se tornará, uma vez mais, competitiva no mundo. Há pelo menos alguns textos discordantes sobre a questão da automação, especialmente no que diz respeito ao esforço para substituir mão-de-obra altamente especializada por importantes programas industriais como ICAM — assistência integrada à fabricação por meio de computador. As dúvidas dizem respeito a problemas que surgem quando os cientistas da computação procuram reduzir o trabalho de um mecânico

especializado a um processo formal e numericamente controlado: em outras palavras, jogar xadrez com o trabalho das pessoas. Está sendo descoberto que nada a respeito de tal trabalho é tão simples quanto pode parecer à primeira vista, a partir do distante e excelso ponto de vista do cientista da computação. Um trabalho especializado requer maior adaptabilidade, julgamento com base na experiência e intuição do que qualquer pessoa jamais foi capaz de programar. A realidade do dia-a-dia de uma área industrial nada tem a ver com um tabuleiro de xadrez. Num estudo detalhado notável, David Noble coletou um impressionante corpo de evidências — incluindo o ponto inicial da experiência dos trabalhadores industriais —, isso ressalta as falhas custosas, mas normalmente escamoteadas, que continuam a infestar a ofensiva rumo à completa automação.18 Apesar disso, prossegue o esforço para criar fábricas atropelando outros, na busca do “controle adaptativo”. A procura é bem fundamentada pela indústria e pelos militares e representa um “doce problema” para os cientistas da computação, especialmente para os pesquisadores de IA, os quais estão sempre prontos a reivindicar o poder de fazer milagres. Noble observa: O controle adaptativo é a tentativa de fazer máquinas completamente autocorretivas, com a utilização de sensores sofisticados, delicados mecanismos de feedback e mesmo “inteligência artificial”. Espera-se que tais dispositivos efetuarão a compensação automática no caso de todas as variações e condições de mudanças, dando à máquina a condição de um processo completamente automático, relacionável com um controle gerencial remoto. O resultado desta campanha dispendiosa e determinada para criação da “fábrica do futuro” é um processo de produção sem operários, operado com “sensores, monitores, contadores, alarmes e dispositivos de auto-reparo”, os quais estão cada vez mais propensos a quebras e mau funcionamento. As fábricas se tornariam como aqueles sofisticados sistemas militares de armamentos — como o caça F-16, o cruzador AEGIS, o míssil antitanque Maverick — que atingiram um nível de complexidade e delicadeza que suplantou a habilidade daqueles que devem manejá-los.19 “A maior complexidade exigida para terminar com a falibilidade”, comenta Noble, “simplesmente aumenta a falibilidade.” Ele chama o projeto “Um vôo além da realidade” — a realidade do funcionamento da mente e do organismo humano, os quais não são nem um pouco parecidos com o modelo de processamento de dados, mesmo nas rotinas mecânicas supostas complexas do processo de produção. Quando a IA é descrita como uma “inteligência alienígena” por críticos como Joseph Weizenbaum, pode parecer que é uma reação sentimental à fria lógica do computador. Certamente muitos defensores da IA tentaram interpretá-la e criticá-la dessa forma, menosprezando-a como um mero grito do coração”. Mas, também, pode ser o caso de inteligência alienígena, que simplesmente não pode fazer a maioria dos serviços que deveria fazer, porque não está em contacto com a realidade em que todos devemos viver. Ela 18

David Noble, Forces of Production: A Social History of Industrial Automation, Nova Iorque, Knopf, 1984. Noble oferece um exame crítico do programa ICAM e vários esforços similares para eliminar o fator humano da tecnologia industrial. Ver especialmente seu último capítulo, “Another Look at Progress”, que estou comentando nesta seção. 19 A respeito de problemas referentes aos novos sistemas de armas altamente computadorizados, ver Ernest Canine, “Weapons: Quality vs. Quantity”, Los Angeles Times, 8.8.1982, pt. 2, p. S. Também o relato no New York Times, p. 3-1.

procura então criar uma “outra realidade”, que possa encontrar as especificações rarefeitas da razão pura. Foi exatamente isso que Platão fez ao criar a primeira academia e lá se refugiar para contemplar os contornos da sua república ideal. Ele foi franco em admitir que nenhuma sociedade poderia atingir a perfeição geométrica procurada, sem se tornar uma autocracia. Sua utopia filosófica nunca ultrapassou as fronteiras da academia; não havia riqueza ou poder para destruí-la. Os tirânicos expoentes da razão pura estão hoje entre nós sob a forma de cientistas da computação, manipulando o velho misticismo da matemática em causa própria. E tendo inventado uma máquina que incorpora essa mística, encontraram as forças sociais que têm o poder de transformar sua utopia em propostas políticas sérias.

A quinta geração... e muito além Aqueles que labutam nas fileiras da IA e da ciência cognitiva são extremamente persistentes. Assim que suas promessas esvaziam, eles as renovam com intensificado vigor. Eles são obstinados. Aquilo que Marvin Minsky prometeu, em 1970, realizar num período “de 3 a 8 anos” (“uma máquina com a inteligência global de um ser humano médio” e mais tarde a de nível de um “gênio”) ainda permanece na agenda da IA, e agora com propaganda ainda mais ativa do que nunca, pois tem havido inovavações conceituais e rupturas tecnológicas. Atualmente, podemos encontrar essas rupturas e inovações reunidas sob o título de “a quinta geração”, os computadores superinteligentes há muito previstos e agora quase acessíveis. Nos estudos divulgados a respeito desses novos horizontes tecnológicos, dois proeminentes cientistas da computação parecem ter chegado a algumas conclusões idênticas às que apresentei nestas páginas: a saber, que a informação processada no computador e as idéias humanas são duas “entidades distintas” que funcionam em níveis mentais significativamente diversos. Mas os cientistas continuam a desenvolver essa distinção de uma maneira extraordinariamente reveladora. Em seu estudo A Quinta Geração, Edward Feigenbaum e Pamela McCorduck concordam que a informação bruta que os computadores podem agora processar tão abundantemente podem ter, afinal de contas, pouco valor; mais tarde, pode inclusive nos sobrepujar. Desta forma, argumentam que para termos um “poder intelectual”, a informação deve ser “bem executada” [engineered]. Isso quer dizer que deve ser “constante, selecionada, interpretada, atualizada e adaptada às mudanças de circunstância”. Isto é mais ou menos o que eu tinha identificado como sendo a função das idéias; selecionar os dados e organizá-los. As informações que foram assim “executadas”, tornam-se o que Feigenbaum e McCorduck definem como “conhecimento” e isso, eles nos dizem, é o que nossa economia emergente de “trabalhadores do conhecimento” deve ter. Dentro do culto à informação isso poderia parecer uma importante concessão. Isso quer dizer que o processamento de informações não é tudo. Seria como se um calvinista convicto (com o qual a ciência da computação algumas vezes partilha uma curiosa similaridade) fosse flagrado flertando com uma heresia: apenas a fé trará a salvação. Mas deve ser suplementada pelas boas ações. Assim, ainda no estilo dos teólogos calvinistas

apressados em preservar a soberania de Deus — Feigenbaum e McCorduck rapidamente tramam uma forma de resgatar a onipotência do computador. Está diante de nós, eles anunciam, uma “nova revolução do computador”, a qual nos levará da “transição do processamento de informações ao processamento do conhecimento”. Essa transição será conquistada pela próxima geração (a quinta) de computadores. Estas notáveis máquinas não serão nem um pouco parecidas com os atuais computadores; serão PICs [knowledge information processors-KIPs] — processadores de informações do conhecimento. Os PICs terão o poder de “subordinar a confusão de detalhes, dados e informação sempre em transformação, em interpretações gerais, ordenadas e plausíveis”. É difícil entender o que significa “interpretação” neste contexto. Normalmente uma interpretação é resultado de um juízo moral, estético ou ideológico — uma idéia — quando aplicado a um problema intelectual. É aí que as pessoas discordam com relação às interpretações umas das outras, Poderíamos, por exemplo, ter uma interpretação marxista a respeito de A Riqueza das Nações, ou uma interpretação freudiana de Hamlet, ou uma interpretação existencialista de Marx e Freud. O choque de tais idéias entre pessoas que refletem é o que sustenta e revigora nossa vida cultural. Comparamos e confrontamos nossos diferentes pontos de vista, utilizando as idéias que nossa experiência nos oferece para selecionar, filtrar e amoldar os fatos disponíveis. O resultado é, em última instância, um diálogo frutífero, ou, na pior das hipóteses, violência. O que podemos fazer então com a previsão de que os PICs produzirão “interpretações gerais ordenadas e plausíveis” de forma que “a responsabilidade da produção do conhecimento futuro no mundo será transferida da cabeça humana para um artefato mecânico”?20 Na quinta geração devemos esperar computadores marxistas, freudianos ou existencialistas, possivelmente discutindo entre si? Ou, não tendo a experiência vivencial que conduz a tais compromissos na vida, funcionarão de maneira peculiar, não humana, interpretando os fatos, talvez baseados em modificações químicas em seu silicone? A idéia de uma máquina que interpreta não é apenas extravagante, é absurda. A interpretação é privilégio da mente viva, da mesma forma que o nascimento para os corpos vivos. Desligada da mente, a interligação se torna o que o nascimento é quando não se refere a um corpo vivo — uma metáfora. Mas Feigenbaum e McCorduck não estão falando metaforicamente. Falam literalmente e pensam que o que dizem faz sentido. Se tivesse, seria como um pesadelo. Isso é suficientemente ruim para que tenhamos entusiastas de computadores insistindo que a informação processada pelo computador é indiscutivelmente correta. Imagine-se um confronto com uma interpretação feita pela máquina que foi prevista para ser autoritária. Podemos nos deparar com a leitura do último boletim da imprensa presidencial, saído do computador na mais “correta interpretação”. Numa triste constatação, isso poderia tornar a vida mais fácil para mentes perturbadas que já não encontram sentido no mundo. Mas para quem, exceto os derrotados e resignados, fica o “encargo” de produzir o conhecimento do mundo? Há ainda, com certeza, mais do que uns poucos que gostam de pensar. Feigenbaum e McCorduck reconhecem — de maneira recomendável — que a mente precisa mais que toscas informações para pensar (processar), mas sua noção de 20

Feigenbaume McCorduck, The Fifth Generation, p. 40.

conhecimento é profundamente desconcertante. Ao mesmo tempo que reconhecem que o conhecimento está relacionado com seleção, julgamento e interpretação, falham completamente ao assumir o papel desempenhado pelas idéias nesse processo, e isto faz com que, sem dúvida, acreditem que uma nova geração de computadores possa ser transformada em máquinas de produção de conhecimento. Uma idéia (ou a informação que dela flui) se torna conhecimento ao se reunir com um amplo consenso na sociedade. O conhecimento é um status conferido à idéia por tal consenso. Como aparece esse consenso? Ocorre quando um número suficiente de pessoas concorda que a idéia é verdadeira. E como chegar a essa conclusão? Aplicando algumas idéias compartilhadas sobre verdade ao fato a ser discutido. Na Idade Média, por exemplo, havia a idéia amplamente compartilhada de que a verdade poderia ser encontrada no ponto de intersecção entre o ensino das escrituras, a autoridade da Igreja e (possivelmente) na lógica de Aristóteles, constituindo uma unidade harmoniosa. Mentes-guias da época, como os escolásticos, discutiram inúmeros assuntos sob esse ponto de vista, procurando a intersecção. Se uma idéia — como aquela do pecado original, ou da natureza da trindade divina, ou a ordem dos planetas no cosmos — passasse através do filtro dessas autoridades, tornar-se-ia “conhecimento”. Três séculos mais tarde, quando a verificação empírica se tornou a idéia prevalecente de verdade, esse “conhecimento” — uma vez aceito por mentes capazes e honestas da época — passou a ser olhado como questionável e, gradualmente, desapareceu da cultura. O critério de verdade de uma sociedade está entre suas idéias-mestras. E os argumentos acerca do critério são, portanto, os mais interessantes e geralmente os mais veementes. Cada sociedade que não está completamente isolada e moribunda está permeada de idéias competitivas a respeito da verdade, cada uma com seus leais seguidores. Atualmente testemunhamos trocas vividas e freqüentemente desagradáveis entre os cristãos evangélicos e seus contendores “seculares humanistas”, que estão em veemente disputa, pois seus critérios de verdade estão irremediavelmente em desacordo. Para uns, a Bíblia é a suprema, se não a única medida da verdade em matéria de fé, moral, história, geologia, biologia. Para os outros, a Bíblia é simplesmente um livro antigo repleto de idéias obsoletas. Essas e outras idéias em contenda lutam e colidem entre si diariamente; ou se mesclam, se diluem e se unem a outras. O resultado é que nesta coisa problemática e turbulenta a que chamamos vida civilizada, em que o que é informação para uns pode ser absurdo para outros, o conhecimento de alguém é superstição para o outro. Geralmente há uma linha de consenso que o clero, os acadêmicos ou outras instituições dominantes refletem e reforçam, e que é normalmente rotulada de “conhecimento”. Mas, em uma cultura viva, esse consenso está sempre sob pressão e à mercê de elementos discordantes. Se a Era da Informação prosseguir até a quinta (ou décima) geração, quando os computadores se tornarem microscópicos em tamanho e com uma capacidade de armazenamento de dados equivalente a milhões de vezes a atual, ainda assim não haverá possibilidade de mecanizar os dilemas do debate cultural ou as difíceis escolhas pessoais. As idéias produzem conhecimento, e a mente humana, misteriosamente, cria idéias. Quem gostaria que fosse de outra forma? A quinta geração de computadores dotados de IA está começando agora a funcionar em aplicações mais práticas. Contratos milionários com militares e corporações possibilitaram a injeção de muito dinheiro nas pesquisas mais recentes. Mas antes dos frutos

desses investimentos serem colhidos, há rumores de uma nova geração de tecnologia da informação já em estudos. Podemos perguntar até onde a IA e a ciência cognitiva podem chegar, uma vez que já prometem ultrapassar os próprios limites da inteligência humana. Dizem que os japoneses já estão muito além desse ponto, atingindo fronteiras inimagináveis. A Agência Japonesa de Ciência e Tecnologia anunciou a formação de um projeto conjunto entre várias empresas de high tech para pesquisa a respeito de uma “sexta geração” de telecomunicações computadorizadas. Sob a direção de Hiroo Yuhara, da Uniden Corporation, o projeto está examinando várias formas de percepção parapsicológica e extra-sensorial. Para ver se essas forças ocultas da mente podem ser utilizadas.21 Yuhara acredita que o corpo humano possui sensores que podem atuar como transmissores elétricos. Eles poderão ser conectados aos computadores através de uma ligação magnética. O resultado serão os poderes extra-sensoriais da psique humana integrados de alguma forma etérea a dispositivos globais de telecomunicação. Como diz a Agência de Ciência e Tecnologia, o computador ESP conduz a pesquisa industrial adiante, rumo ao “estudo das atividades espirituais do homem”. Da mesma forma que os japoneses tomaram a dianteira na tecnologia da quinta geração, pressionando americanos e europeus a os acompanharem, certamente esse novo esforço terá o mesmo efeito. Talvez, muito antes do que possamos imaginar, haverá uma nova disciplina nos laboratórios de computação: a clarividência artificial. E os militares, tendo comprado grande parte dos restos dos cenários de “Guerra nas Estrelas” e querendo que a “força” esteja com eles, se apressarão em conseguir recursos para a pesquisa.

21

Alexander Besher, seção financeira, coluna “Pacific Rim”, San Francisco Chronicle, 15.7.1985, p. 31.

7. O computador e a contracultura Big blue e os hackers guerrilheiros Até meados dos anos 70, a imagem pública que se fazia da tecnologia da informação era austera e exótica. Era vista como uma maquinaria misteriosa, muito cara, podendo ser operada apenas por técnicos treinados. As operações tinham que ser discutidas na linguagem esotérica da teoria da informação com a ajuda de muita matemática. Como uma extensão da mente humana, o computador começava a ser visto como um complemento necessário para todo o pensamento científico avançado e para as decisões de alto nível, um papel que distanciava ainda mais o computador do alcance público. A reputação do computador como rival da inteligência humana talvez se deva aos exageros da ficção científica (como o computador rebelde HAL no filme 2001), mas já havia uma acalorada discussão sobre como a automatização iria revolucionar rapidamente a linha de montagem e os escritórios, substituindo contingentes cada vez mais amplos do trabalho especializado. Muito pouco era conhecido sobre computadores que não fizesse as máquinas parecerem elitistas e intimidadoras.1 Talvez o mais dramático seja o seguinte: através de uma cobertura extensa de televisão, ofereceu-se várias vezes ao país as imagens do Centro de Controle Johnson Mission, em Houston, onde inúmeras fileiras de técnicos sentados diante de uma série de computadores supervisionavam os triunfos de um programa espacial que ainda era glamoroso. Estranhamente, as apresentações de televisão do Centro sempre mostravam panorâmicas vistas das telas dos computadores, como se as máquinas fossem as estrelas do evento. Os técnicos, virados de costas e sem rostos, pareciam apenas servis atendentes anônimos, recebendo suas deixas das máquinas. Como resultado desta familiar cena nacional, tornava-se quase impossível imaginar cientistas e engenheiros sem a presença de cintilantes terminais de vídeo em que cálculos misteriosos surgiam numa velocidade espantosa. O computador, rapidamente assimilado à mística científica, acabava dominandoa. Tão ameaçador quanto o imaginário criado pelo meios de comunicação de massa era o fato social de que a área da tecnologia da informação ainda estava sob rígido controle de corporações. Na verdade, era dominada pela mais elitista e privada das corporações: a IBM, um colosso da alta tecnologia que cavalgava sobre o mundo, suave, distante e imperial. Desde a guerra, Big Blue [a Grande Azul], o nome pelo qual a IBM é conhecida no setor industrial, se desenvolveu segundo a requintada incorporação do estilo dos negócios tecnocráticos. Mais próxima de um monopólio mundial do que qualquer outra empresa, a IBM é conhecida por ter um controle da indústria tão eficiente que poderia ser classificado de infalível. Em meados dos anos 60, tinha o controle de dois terços dos negócios de tecnologia da informação. O que não pertencia à IBM sobrevivia graças a sua tolerância, com as migalhas que a IBM deixava cair do seu prato. Tão grande e dominadora era a IBM 1

Para a história da indústria de computadores dos anos 60 aos 80, ver Shurkin, Engines of the Mind·, Rogers e Larsen, Silicon Valley Fever, Levy, Hackers·, e Paul Freiberger e Michael Swaine, Fire in the Valley, Berkeley, Calif., Osborne/McGraw-Hill, 1984.

que nunca foi considerada como “concorrente” de outra empresa; na verdade, a IBM era o “ambiente” onde todos faziam seus negócios. Outras empresas rodeavam a IBM como se fossem vassalos da coroa; os negócios consistiam principalmente em fazer aquilo que a IBM escolhia não fazer, ou produzir apenas equipamentos que fossem compatíveis com os da IBM. Fiel a sua postura endeusada, a IBM conduziu no pós-guerra o pessoal de sua organização à sua perfeição. A empresa era conduzida como um barco tenso cuja tripulação disciplinada era friamente cruel no mercado de trabalho, fanaticamente leal à firma, moldada como máquina para servir às cadeias de comando da corporação. Mas em algum momento dos anos 60, a infalível Big Blue fez um cálculo errado. A IBM tinha em mãos a possibilidade de produzir computadores pequenos, de baixo custo. Isto seria tão simples quando desligar os terminais existentes em seu sistema principal e torná-los processadores de dados autônomos. Tais máquinas teriam uma memória mínima e só poderiam contar com programas reduzidos, mas seriam mais compactas e mais baratas do que os microcomputadores então utilizados em escritórios e laboratórios. Com efeito, poderiam ser eletrodomésticos. De qualquer maneira, a IBM optou por manter seu dinheiro e seus cérebros concentrados no desenvolvimento de computadores de maior porte. É claro que era aí que se encontrava a maioria dos prósperos mercados militares e civis: dispendiosos sistemas compostos pelas máquinas e seus acessórios. Talvez, em parte, a decisão da IBM também tenha vindo do fato da empresa encarar o futuro da tecnologia da informação como sendo a sua própria imagem de corporação: rigidamente hierarquizado e com controle centralizado. A IBM nunca foi planejada para vender computadores ao público em geral. Sempre preferiu vender grandes máquinas produzidas sob encomenda para grandes clientes. Mais do que isso, preferia alugar seus produtos, mantendo-os sob seu próprio controle. As máquinas da IBM ganharam o mundo exterior como caixas negras trancadas; a arquitetura interna era patenteada, destinada a ser acessível apenas aos engenheiros da empresa. Onde Big Blue não liderava, outras empresas de computadores não estavam preparadas para caminhar; assim, a decisão de manter o estilo elitista permitiu a abertura de uma brecha nas paredes da cidadela industrial. Essa brecha era o microcomputador, uma máquina de mesa, de preço altamente acessível, para uso pessoal e doméstico. A IBM e as outras empresas principais sabiam da possibilidade técnica de tal computador. Os computadores têm se tornado cada vez menores à medida que adquirem maior poder, e também progressivamente mais baratos. Engenheiros da IBM e de outras empresas tinham trabalhado em protótipos de computadores domésticos suficienmente pequenos para serem carregados em uma pasta de documentos. Mas havia um mercado significativo para tal invento? Big Blue achou que não. Outros pensaram de modo diverso. A parcela mais importante entre esses “outros” era a crescente população de jovens entusiastas dos computadores que vinha acompanhando as pesquisas em computação. Em seu estudo Hackers: Heroes of the Computer Age [Hackers, Heróis da Era dos Computadores], Steven Levy traça a origem destes jovens no laboratório de computação do MIT no final da década de 50, onde alguns talentosos estudantes freqüentemente tinham permissão para se reunir, e algumas vezes permanecer a noite toda operando o equipamento. A maioria destes primeiros adeptos da computação era moldada de acordo com o padrão de Tom Swift: adolescentes gênios “mecânicos”, capazes de improvisar brilhantemente a partir de fragmentos pelo simples amor de resolver deliciosos problemas. Entre eles,

encontravam-se os inventores dos primeiros jogos para computadores e robôs de brinquedo, novidades que eles nem ao menos se deram ao trabalho de patentear. No final da década de 60, alguns desses jovens talentosos encontraram seu caminho nos mais baixos escalões da indústria de computadores. Alguns deles já faziam experiências com microcomputadores primitivos, mas nenhum seria aproveitado pelas empresas para as quais trabalhavam. No folclore da história da computação, os primeiros hackers são lembrados com especial carinho. Segundo alguns relatos, muitos deles eram socialmente desajeitados e materialmente desapegados. Eles são os “calouros” arquetípicos da profissão. Como um grupo, eles possuíam menos consciência política do que senso comercial; eram puramente técnicos, do princípio ao fim. Aproximadamente em fins da década de 60, havia uma outra espécie de hackers no horizonte, vindos principalmente da costa Oeste, das fileiras do movimento antibélico. Estes eram os hackers radicais ou guerrilheiros, que estavam destinados a dar ao computador uma imagem completamente nova e uma orientação política que jamais poderia ter surgido com a Big Blue ou com qualquer de seus vassalos. Nas mãos deles, a tecnologia da informação se tornaria mais próxima de um instrumento da política democrática.

Um populismo eletrônico Na primavera de 1970, um pequeno grupo de cientistas da computação que tinham abandonado a universidade, envolvidos no movimento de protesto contra a guerra na Universidade da Califórnia, em Berkeley, se uniram em meio à crise do Cambodja para discutir a política da informação. Formaram um dos primeiros grupos de encontro de hackers com preocupações sociais. Eles lamentavam o fato de o computador estar sendo monopolizado para benefício e poder do mesmo complexo industrial-militar que já controlava todas as outras principais tecnologias. Além disso, estavam convencidos de que sua profissão era a chave para uma democracia participativa (vital). Nas palavras do People’s Computer Company, um jornal radical dos hackers que começou a ser publicado no final de 1972: “Quase sempre os computadores são usados contra as pessoas, e não a favor delas, para controlá-las, ao invés de libertá-las. É hora de mudar tudo isto — nós precisamos de uma... empresa de computadores para as pessoas”.2 O que, então, deveria ser feito? A solução para os hackers de Berkeley era o Recurso Um, “uma empresa comunitária de computadores”, alojada numa cooperativa de artistas, num armazém do setor industrial de São Francisco. Seus fundadores seguiram o seguinte argumento: Tanto a quantidade quanto o conteúdo da informação disponível é estabelecido pelas instituições centralizadas — imprensa, TV, rádio, agências de notícias, serviços de informações, agências governamentais, escolas e universidades — que são controladas pelos mesmos interesses que controlam o resto da economia. Mantendo a informação fluindo de cima para baixo, eles nos mantêm isolados uns dos outros... A tecnologia de computadores tem sido bastante usada para isso... principalmente pelo governo, e por aqueles que ele 2

Citado em Levy, Hackers, p. 165.

representa, para armazenar e dispor rapidamente de grandes quantidades de informação sobre um enorme número de pessoas... É este padrão que nos convence de que o controle sobre o fluxo de informação é tão crucial.3 Várias corporações e fundações contribuíram com pequenas verbas para Recurso Um: a mais importante, a Corporação Transamérica, cedeu um computador IBM XDS-940, um velho monstrengo que estava próximo à obsolescência. Recurso Um reformou a máquina e a anunciou como verdadeira utilidade pública, esperando que os ativistas políticos usassem a máquina e a habilidade de seus operadores para realizar pesquisas entre os eleitores, fazer levantamentos de estatística social, organizar listas de correspondência. Um “banco de dados urbanos” tornou-se uma das principais prioridades; coordenaria dados sobre censos, resultados eleitorais, o uso do solo e avaliação de prioridades. Entre os planos, também constavam na agenda serviços sociais e um serviço de contabilidade para grupos comunitários não lucrativos. Recurso Um sobreviveu por alguns anos sustentada principalmente pelo suor de seus organizadores, mas nunca conseguiu suficiente subvenção ou uma utilização que trouxesse a proeminência que procurava. Segundo alguns membros frustrados, o problema era técnico. A tecnologia era restrita demais; era necessário atingir a comunidade, onde as pessoas poderiam ter a experiência de manusear esta máquina exótica. Dando continuidade a esta idéia, surgiu um novo projeto: a Memória Comunitária, planejada para ser uma rede de pequenos terminais de computadores distribuídos pela Bay Area [área da baía de São Francisco]. Os terminais estariam disponíveis para utilização gratuita e estariam ligados ao banco central de dados e à unidade de processamento de dados do Recurso Um. Alguns previram um projeto bem maior: um sistema de informações alternativas, de alcance nacional, usando as linhas telefônicas da AT&T para unir cidades e campi universitários em toda a América. O objetivo era criar uma “democracia direta da informação”. A Memória Comunitária teve seu primeiro terminal operacional instalado em agosto de 1973; estava localizado em uma loja de discos bastante freqüentada, próxima ao campus da Universidade da Califórnia, em Berkeley. O terminal mostrou-se tão popular quanto um mural eletrônico. Transmitia também muitos boatos, desabafos terapêuticos, fofocas e grafitos. O terminal mudou de lugar algumas vezes; dois outros foram acrescentados ao projeto, sendo que mais alguns foram também instalados, um em uma divisão da biblioteca de São Francisco, outro em uma comunidade de trabalhadores. Mas quando o Recurso Um faliu em 1975, a Memória Comunitária sofreu uma rápida bancarrota, embora tenha reaparecido aproximadamente dez anos depois com uma rede de três terminais, que ainda atuam no nível de mural e grafitos: um auxílio marginal, um divertido avanço com relação à folha três por cinco presa numa lâmina de cortiça, mas dificilmente um instrumento de mudança social significativa, mesmo em um local tão politizado quanto Berkeley. Embora hesitantes, essas tentativas despertaram um novo acorde populista na percepção do público com referência à informação. O computador foi potencialmente identificado como sendo um “artefato social radical”. Nas palavras de Michael Rossman, um dos teóricos do projeto: Memória Comunitária... é “sociável e participatória”... Um sistema MC é um sistema de informação ativamente aberto (“livre”), permitindo a comunicação 3

Boletim do Recurso Um, número 2, abr. 1974, p. 8.

direta entre seus usuários, sem edição centralizada ou controle sobre a informação que é trocada. ... Tal sistema representa uma perfeita antítese do uso dominador tanto da comunicação eletrônica dos meios de comunicação de massa (os quais enviam mensagens estabelecidas por uma central a plateias passivas), quanto da tecnologia da cibernética, o que envolve processamento centralizado e controle dos dados advindos dos usuários ou a eles enviados... O pagamento é a interação eficiente não-intermediada (ou melhor, automediada), eliminando papéis e problemas que surgem quando uma parte tem controle sobre qual informação é trocada entre duas ou mais partes. Esta liberdade é complementada pela maneira segundo a qual o sistema democratiza o poder da informação, pois nenhum grupo de usuários tem qualquer preferência de acesso às principais informações.4 Do ponto de vista daqueles que lançaram Recurso Um e Memória Comunitária, a informação era muito mais do que necessidade industrial ou mercadoria comercial. Era o sangue do processo democrático e, como tal, precioso demais para ser concedido a corporações e sujeito ao controle do governo. Para os políticos ativistas que passaram os anos do Vietnã e de Watergate protestando contra o sigilo, o ocultamento e a manipulação de notícias por parte do governo, o computador parecia ser o antídoto contra o elitismo tecnocrático — desde que seu poder pudesse ser universalmente acessível. Mas como isso podia ser feito? Recurso Um tentou trazer as pessoas até o computador — uma máquina simples e exotérica; Memória Comunitária tentou trazer o computador às pessoas, sob a forma de pequenos terminais amistosos. Nenhuma destas tentativas de aproximação chegou a despertar o ímpeto das pessoas. Mas, nesse meio-tempo, a própria tecnologia estava mudando de formas que sugeriam uma outra estratégia para a criação de um populismo eletrônico. Em meados dos anos 70, o microcomputador, que tinha sido considerado pela IBM como um investimento “pobre”, começou a parecer cada vez mais um instrumento acessível, com condições de atrair uma considerável população ao mercado. Suponha, então, que a tecnologia estava para ser trazida para dentro dos lares da América da mesma forma que aparelhos de rádio, televisão, aparelhos estéreos de som. Com isso, não teríamos a distribuição e o acesso necessário para quebrar o monopólio do processamento da informação detido pelo governo e pelas corporações?

A heroica era do microcomputador Desde seus primórdios, o microcomputador estava cercado por uma aura de vulgaridade e radicalismo que contrastava agudamente com as pretensões de mandarim da alta tecnologia. Isto acontecia porque grande parte desta nova tecnologia em menor escala foi deixada para ser desenvolvida fora da cidadela, por jovens e impetuosos hackers — especialmente na Califórnia, onde os tipos socialmente divergentes tinham se reunido na faixa da península de São Francisco, que estava começando a ser chamada de Vale do Silício. Em meados dos anos 70, pequenos grupos destes hackers começaram a se reunir em sessões informais onde a ciência da computação era livremente discutida como se fosse mexerico provinciano num 4

Michael Rossman, “What is Community Memory?”, 1979, mimeo.

armazém de biscoitos. O tom desses encontros era deliberadamente caseiro: uma rejeição autoconsciente do estilo formal das corporações. Os nomes expressavam muito do espírito daquela época. Uma empresa iniciante daquele período chamou-se Itty-Bitty Machine Company (uma IBM alternativa); outra era Kentucky Fried Computers. Havia um ambiente em que tipos barbudos, usando jeans, podiam reunir-se livremente para discutir as máquinas que estavam desenvolvendo em sótãos e garagens. O Homebrew Computer Club [Clube do Computador Feito em Casa] em Menlo Park (perto do campus e do parque industrial da Universidade de Stanford) era o mais colorido e o mais produtivo dessas reuniões urbanas. O clube, desde então, assumiu proporções lendárias na memória desse período. Foi no Homebrew que Stephen Wozniak revelou seu novo microcomputador em 1977. O nome dado por ele — Apple [Maçã] — trouxe um novo tom orgânico, ligeiramente rústico e destinado a suavizar as pontas duras da tecnologia, tornando-a completamente familiar e amistosa. O nome também lembrava a antiga empresa de discos dos Beatles (uma outra estória conta que o nome veio de uma dieta frutífera que Steven Jobs, parceiro de Wozniak, trouxe quando voltou de sua curta viagem mística à Índia). A linhagem dos hackers que se reuniram em lugares como Homebrew tinha andado nas margens do mundo da high tech por alguns anos. Muitos deles eram pessoas que abandonaram a universidade e veteranos de uma política recente de contracultura de Bay Area. Segundo um participante-observador, o estilo “tinha o código genético dos anos 60, com atitudes contra-instituições, contraguerra, pró-liberdade e antidisciplina”.5 A percepção dos computadores e da informação que os hackers guerrilheiros trouxeram para seu trabalho era um estranho amálgama de rebelião política, ficção científica, sobrevivência do tipo “faça você mesmo”. Se na verdade eles não leram os trabalhos de E. F. Schumacher, ainda assim o lema poderia ter sido “o que é pequeno é bonito” — talvez pelo simples fato de que “pequeno” era tudo o que eles tinham como condição econômica para construir para si mesmos. De maneira similar, se eles não estudaram as teorias de Ivan Illich, mesmo assim procuravam algo no estilo da tecnologia “de convívio” de Illich, que criava uma comunhão de interesses e necessidades entre os usuários. Misturado a estas linhas de pensamento mais sérias, havia um toque de extravagância, uma pitada de fantasia de criança que via o computador como uma espécie de caixa mágica que podia sair de algum conto de fadas. Assim, o primeiro microcomputador a circular no submundo hacker apareceu em 1975, na forma de um pacote de correio, embalado por um casal de excêntricos ex-trabalhadores em computação de Albuquerque — recebeu o nome de Altair, que era um planeta desconhecido, da série de televisão Star Trek [Jornada nas Estrelas]. Embora primitivo, o kit de Altair se tornou aquilo que a arrogante IBM nunca poderia imaginar que um processador de dados de tamanho econômico se tornaria: “um absoluto, rápido, imediato, insano sucesso”.6 Logo ele começou a fazer parte do Whole Earth Catalog, o que ajudou ainda mais as vendas. Os hackers guerrilheiros, com uma postura de forte autoconfiança e espírito pioneiro, eram os primeiros exemplos da visão de mundo do Catálogo. Na sua edição inicial em 1968, o Catálogo se anunciou ao mundo como sendo “um serviço de informação ilegal”, dirigido aos leitores excêntricos e rebeldes, sem filiações. Na sua maior parte, o Catálogo consistia de artigos para uma vida simples, rústica: 5 6

Jim Warren, citado em Freiberger e Swaine, Fire in the Valley, p. 99. Freiberger e Swaine, Fire in the Valley, p. 37.

fornos para queimar madeira, roupas de couro, técnicas de obstetrícia e horticultura de quintal. Mas desde o início apresentou-se fascinado por certas formas de alta tecnologia [high tech]: sistemas estéreos, câmaras, sintetizadores e, logo no primeiro número, computadores. Afinal, o Catálogo foi inspirado no trabalho de Buckminster Fuller, engenheiro dissidente que patenteou o domo geodésico. De fato, o domo poderia ser visto como o precursor de uma espécie de tecnologia populista que, de acordo com seus inventores, o microcomputador algum dia se tornaria. Graças ao especial talento de Fuller para a obscuridade grandiloqüente, o domo adquiriu uma aura metafísica que atraía o gosto da contracultura. Fuller não apenas fez com que parecesse barato e fácil de construir, ousando viver num domo, divergindo culturalmente em estilo, mas insistindo que sua unidade estrutural básica — o tetraedro — de alguma maneira se harmonizava com a lógica geométrica do cosmos. Como resultado, no final dos anos 60, começa a crescer um culto em torno do domo: os discípulos de Fuller, a começar por Stewart Brand, editor do Catálogo, apregoavam esta peça exótica de engenharia como unicamente uma tecnologia do “povo” — o emblema de uma causa. Na verdade, havia aqueles que previam que comunidades inteiras de domos apareceriam em breve nos arredores das grandes cidades, como acampamentos bárbaros, as tendas da nova cultura. Alguns anos mais tarde, o microcomputador, uma invenção tão dissidente quanto a de Fuller, sendo desenvolvido domesticamente, acabou por ser visto sob a mesma luz — como tecnologia da libertação. Por uma estranha coincidência que só poderia ser imaginável na Califórnia, esta visão insurgente da tecnologia da informação foi partilhada, ou pelo menos ocasionalmente mencionada, pelo governador que estava no poder na mesma época em que os produtos do Homebrew Computer Club estavam começando a assumir proporções industriais. Jerry Brown estava entre os primeiros políticos americanos a compreender as futuras possibilidades da high tech. Como se poderia esperar, o interesse do governador, assim como os dos governadores da Califórnia que vieram antes e depois, estava solidamente fincado nos grandes contratos militar-industriais que representavam a base da economia estadual. Mas Brown tinha a aptidão de se associar, ainda que apenas oblíqua e ambiguamente, a pessoas de valores e a grupos da contracultura. Ele se manifestava firmemente contra a energia nuclear e era um forte defensor do meio ambiente. Era conhecido por se encontrar com zen-budistas, estrelas de rock e economistas do estilo de Schumacher; em pouco tempo, tinha aliciado Stewart Brand como confidente e conselheiro. Em Sacramento, o governador fundou o State Office of Appropriate Technology, onde eram criados ambiciosos programas de energia solar e eólica, fazendas urbanas e plantações orgânicas. E quando se tratava de computador, ele fazia comentários como: Mais pessoas estão gastando mais tempo colecionando, analisando e processando informação, e isto é uma cultura inteiramente diferente daquela que nós conhecemos... Com o apertar de um botão, você consegue mais e mais informações sobre a decisão que pretende tomar... Informação é o que equaliza e destrói a hierarquia.7 Houve um intervalo no início dos anos 80 — não durou mais do que alguns anos intoxicantes — quando, pelo menos na Califórnia, os hackers guerrilheiros pareciam estar 7

Jerry Brown, citado em Esquire, fev, 1978, p. 65.

a ponto de refazer a Era da Informação em seus próprios termos. Saindo de suas garagens emboloradas e atravessando a paisagem da alta tecnologia, eles conseguiram desequilibrar as gigantescas corporações da indústria. Sua realização não foi mera questão de mercado, embora isto também tenha sido uma parte significativa da história. Os fabricantes de microcomputadores descobriram um público comprador que havia sido negligenciado pelas grandes empresas. Mas seus lucros se baseavam em sólidas inovações técnicas. Desde o lançamento da primeira máquina da Apple, os hackers ligados a microcomputadores aproveitaram a capacidade limitada de armazenamento de dados que era disponível, desenvolvendo uma conexão interativa entre o teclado e a tela de vídeo. O usuário podia ver imediatamente o que estava acontecendo na máquina. Isto intensificou a habilidade do computador para os jogos; mas o que é mais importante, estabeleceu uma nova relação, quase uma conversação entre usuário e máquina. Muitos começaram a ver convidativas possibilidades educacionais nesta relação. Quando essa capacidade para interação imediata foi combinada com o engenhoso disk drive de Stephen Wozniak para o Apple II, o mundo dos softwares em discos flexíveis floresceu subitamente, para se tornar rapidamente uma indústria própria, muito além do alcance de hackers e profissionais. Até mesmo a Big Blue teve que considerar uma ruptura tecnológica de tal importância; teve que rever seus planos e entrar com determinação na concorrência de computadores pessoais. Mas a IBM estava bem atrás na corrida, pois faltava a ousadia empresarial e o estilo inovador dos hackers guerrilheiros. Sua invenção, o microcomputador, causou uma sensação desenfreada que parecia poder mudar o estilo de vida americano em todos os níveis — inclusive as condutas e os costumes do mercado. Os hackers tinham até mesmo um amigo no escritório do governador, que podia falar a seu favor e conduzir a audiência nacional de maior vulto. A exuberância impetuosa desse período se acentuou com a feira anual de comércio da nova indústria, sendo a primeira em Marin County, em 1977, onde foi apresentado, pela primeira vez, o surpreendente Apple II. Estes acontecimentos estavam se tornando encontros de contracultura na área da baía de São Francisco. Aqueles que compareceram, ainda hoje falam da experiência de ter vivido momentos de excitação, ao caminharem pela exposição, examinando o poder tecnológico que parecia estar diante deles, prestes a ser capturado. Subitamente, em todo o Vale do Silício, firmas novas, produtos novos e bem concebidos, novas e chamativas possibilidades sociais estavam surgindo rápido demais para ser avaliadas. E o dinheiro jorrava. A empresa Apple surpreendeu seus fundadores com uma renda de 200 mil dólares em 1976. No ano seguinte, foram vendidos 7 milhões em Apples. Cinco anos mais tarde, chegou perto da marca de um bilhão de dólares. Enquanto isso, aumenta a procura das ações, transformando instantaneamente aqueles que apostaram no Apple em multimilionários. No apogeu de seu sucesso, Stephen Wozniak, co-fundador da Apple e, agora, Horatio Alger, da contracultura, decidiram que era o momento de fazer um bom uso de todo o seu dinheiro. Abandonando a empresa, decidiu reviver o espírito dos tumultuados anos 60. Produziu um festival de rock ao ar livre — maior do que o de Woodstock, e inteiramente dedicado a revelar a promessa da Era da Informação. Aconteceram dois destes eventos, um em 1982 e outro em 1983. Juntos custaram a Wozniak 20 milhões de dólares de seu próprio bolso. Os rebeldes, os que haviam abandonado a faculdade, os sobreviventes do movimento hippie, as estrelas de rock vieram de todo o país para se juntarem à nova riqueza do Vale do Silício e criar ... quem poderia dizer que possibilidades revolucionárias? Foram os “U. S. Festivais.”

Saudosistas e tecnófilos As visões do futuro foram geralmente divididas em dois campos filosóficos. O primeiro — que poderia ser chamado de panorama saudosista, queria o final do mundo industrial. O artista e líder socialista do século XIX, William Morris, é um exemplo deste ponto de vista. Angustiado com os horrores morais da vida industrial vitoriana e com os horrores estéticos da produção de massa, Morris (no seu News from Nowhere — Notícias de Lugar Nenhum) imaginava um futuro pós-industrial que recriava o passado pré-industrial, sociedade de aldeias, fazendas de famílias e organizações tribais. Seu ideal econômico se baseava em trabalhos manuais; o governo era um arranjo comunitário informal entre bucólicos virtuosos. Por outro lado, outros utópicos — os tecnófilos — apoiaram entusiasticamente o sistema urbano-industrial, esperando vê-lo amadurecer em direção a uma ordem de vida totalmente nova, na qual ciência e tecnologia dominariam permanentemente as forças da natureza e reprojetariam o planeta. Este é o futuro previsto por Francis Bacon em seu New Atlantis e por H. G. Wells em seu Shape of Things to Come. O futuro imaginado pelos hackers guerrilheiros é único em sua determinação de sintetizar estas duas imagens aparentemente contraditórias. Comprometidos por seus dotes e preferências no que se refere à expansão da high tech, não hesitaram em percorrer todo o repertório da eletrônica computacional e de telecomunicações globais. Mas a nova tecnologia faria parte de um contexto político orgânico e comunitário. De alguma maneira, os caminhos populares do Homebrew Computer Club e da Memória Comunitária seriam preservados. Tudo poderia ser mantido descentralizado e numa éscala humana; de fato, o computador poderia tornar isto possível. Isto engendraria uma nova democracia “jeffersoniana”, baseada não na distribuição igualitária da terra, mas no igual acesso à informação. O destino do microcomputador era criar uma cultura global de aldeias eletrônicas localizadas num ambiente natural e saudável — o tipo de mundo que se encontra nas páginas do Whole Earth Catalog. Neste panorama charmoso e idealizado, pode-se imaginar o terminal de computador como uma espécie de lareira ou fogueira em volta da qual, através de transmissores de satélite, os clãs se reuniriam para fofocar e fazer grafitos com seus parceiros do outro lado do mundo. Esta imagem do mundo era tão rústica que se poderia acreditar que o computador era um novo tipo de arado. Havia, por exemplo, o poema escrito por Richard Brautigan no fim dos anos 60. O título, “All Watched Over by Machines of Loving Grace” [“Sob os Olhos Atentos das Máquinas de Graça Amorosa”], foi mais tarde usado pela Loving Grace Cybernetics, a companhia que instalou o experimento da Memória Comunitária, em Berkeley, 1973. “I like to think (and the sooner the better!) of a cybernetic meadow where mammals and computers live together in mutually programming harmony like pure water touching clear sky

I like to think (right now, please!) of a cybernetic forest filled with pines and electronics where deer stroll peacefully past computers as if they were flowers with spinning blossoms I like to think (it has to be!) of a cybernetic ecology where we are free of our labors and joined back to nature returned to our mammal brothers and sisters, and all watched over by machines of loving grace” 8 * O computador não foi nem a primeira, nem a única peça da tecnologia avançada a ser assimilada por esta híbrida visão saudosista-tecnófila. Antes disso, como vimos, havia uma fascinação similar com o domo geodésico de Fuller, que se tornou, para muitos participantes da contracultura dos anos 60 e 70, uma espécie de tenda futurista. O maior esforço feito neste período para se construir uma aldeia de domos foi a chamada Drop City, localizada nos arredores de Trinidad, Colorado. Os domos foram montados a partir de sucatas de automóvel encontradas no monturo mais próximo. Enquanto durou, de 1965 a 1975, Drop City procurou ser uma mistura da engenharia sofisticada e simplicidade tribal.9 Seguindo a mesma linha de pensamento, estava a burlesca metafísica de media de Marshall McLuhan, que via a televisão e o computador como grupos de edifícios eletrônicos da “aldeia global”, aldeia esta que seria aconchegante e participativa, ainda que tecnologicamente sofisticada. Havia o arquiteto Paolo Soleri, que acreditava que a solução para a crise ecológica poderia ser encontrada nas suas “arcologias” megaestruturais — cidades-formigueiros, nas quais bilhões de pessoas poderiam ser ordenadamente compactadas. Havia Gerard O’Neill, que viajava pelo país fazendo palestras onde fosse possível, distribuindo entusiasmo como o mais desenfreado de todos os esquemas: a criação de uma colônia espacial auto-suficiente, uma espécie de “fronteira elevada” onde o espírito pioneiro poderia renascer. Em determinado momento entre os anos 60 e 70, cada uma dessas visões se tornou favorita dos adeptos da contracultura; O’Neill, de maneira especial, foi durante alguns anos 8

O poema aparece em The Pill Versus the Springhill Mine Disaster, Nova Iorque, Dell/Laurell, 1973. Tradução livre em português: Eu gosto de pensar (e/ quanto antes melhor!)/ numa campina cibernética/ onde mamíferos e computadores/ vivem juntos em mútua/ harmonia programável/ como água pura/ tocando o céu límpido./ Eu gosto de pensar/ (agora, por favor!)/ numa floresta cibernética/ cheia de pinheiros e acessórios eletrônicos/ onde cervos vagueiam pacificamente/ perto de computadores/ como se fossem flores/ com botões suaves./ Eu gosto de pensar/ (tem que ser!)/ numa ecologia cibernética/ em que, livres do trabalho/ e unidos novamente à natureza/ retornamos a nossos irmãos e irmãs mamíferos/ e tudo sob os olhos atentos/ das máquinas de graça amorosa. (N. T.) 9 Hugh Gardner, The Children of Prosperity, Nova Iorque, St. Martin’s Press, 1978, pp. 35-48. *

o projeto favorito de Stewart Brand e o Co-Evolution Quartely, sucessor do Whole Earth Catalog.10 Permeando cada uma dessas visões, pode-se perceber a mesma interação de valores e fantasias, a mesma esperança de que a estrada da tecnofilia nos conduza a um futuro saudosista. Quando H. G. Wells imaginou Things to Come [O Devir], ele vislumbrou um mundo urbano estéril, dirigido por uma elite tecnocrata benevolente. Mas para muitos adeptos da contracultura, o resultado da alta tecnologia industrial seria algo como uma democracia tribal, onde os cidadãos estariam vestidos com peles de animais e iriam colher morangos nas florestas. Algumas vezes, esse desejo de síntese rústica e tecnologia avançada parecia ter origem em apenas algumas metáforas muito enganosas. Assim, a concepção de McLuhan dos meios de comunicação de massa urbanizados, levada a extremos, torna-se uma “aldeia”. Para O’Neill, o foguete espacial e o satélite, desenvolvidos numa escala gigantesca, voltamse para nós como uma “fronteira”, que para seus entusiastas parece ser algo como o mundo da cabana de madeira e do fogão à lenha. Os fãs que organizaram a Sociedade L-5 para divulgar as idéias de O’Neill gostavam de imaginar um panorama de lares e jardins orgânicos que se estendiam até milhas dentro de caixas orbitais de aço, além de infindáveis brincadeiras em função da falta de peso, jogos de mergulhar no céu e a prática de wind surf com gravidade zero. Mesmo as elevadas colméias humanas de Soleri eram vistas como uma maneira de preservar o ameaçado mundo selvagem na sua forma primitiva — embora se possa apenas estremecer ante a perspectiva de dez mil moradores colocados na fila de elevadores, esperando para ir até a área de piquenique. Finalmente, para os remanescentes da contracultura do final dos anos 70, mais do que domos e colônias espaciais, seria a informação digital que conduziria o mundo para a terra prometida pós-industrial. O computador pessoal daria a milhões de pessoas acesso a bancos de dados de todo o mundo, os quais — assim se encaminhava a argumentação — eram a condição essencial para uma cidadania autoconfiante. Redes computadorizadas e jornais-murais manteriam as aldeias eletrônicas em contato, trocando informações vitais que a elite do poder estaria talvez evitando fornecer. Ao mesmo tempo, inteligentes hackers iriam penetrar nos bancos de dados classificados que guardavam os segredos das corporações e os mistérios de estado. Quem teria previsto isto? Através dos terminais de vídeo da IBM, de linhas telefônicas da AT&T, de fotografias espaciais do Pentágono e dos satélites de comunicação da Westinghouse, um movimento mundial de rebeldes possuidores da “habilidade computacional” se insurgiria para construir uma comunidade orgânica. Eles poderiam mesmo sobreviver ao colapso total do sistema industrial que tinha inventado essas tecnologias, pois havia uma visão desolada do holocausto termonuclear profundamente misturada aos instintos de sobrevivência da contracultura. Uma das expressões mais bizarras da visão de mundo dos hackers guerrilheiros era a de Lee Felsenstein, um dos fundadores do Homebrew Computer Club e da Memória Comunitária, e mais tarde, o criador do computador portátil Osborne. O estilo tecnológico de Felsenstein — enfatizando simplicidade e reaproveitamento de material — surgiu de uma visão apocalíptica do futuro industrial. Assim ele via o futuro: A infraestrutura industrial poderia nos ser arrebatada a qualquer momento, e as pessoas deveriam estar preparadas para surrupiar partes que serviriam para 10

Para O’Neill, ver seu livro High Frontier, Nova Iorque, Doubleday, 1982, e a publicação de outono de 1975 Co-Evolution Quarterly apresentando seu projeto. Para Soleri, ver sua Arcology, MIT Press, Cambridge, 1970.

manter suas máquinas funcionando nos entulhos da sociedade devastada; o ideal seria que o projeto das máquinas fosse suficientemente claro para permitir que os usuários soubessem como instalar essas partes. Como Felsenstein disse uma vez: “Devo projetar de tal maneira que você possa montar tudo com peças tiradas de latas de lixo”.11

Domos, dados e drogas É importante perceber o idealismo político que sustentava as esperanças dos hackers guerrilheiros. Também é muito importante reconhecer que a síntese saudosista-tecnófila em que se baseavam essas esperanças é tão ingênua quanto idealista. Tanto é assim que sentimos a necessidade de irmos mais fundo para descobrir o segredo disto que é a estranha persuasão para tantas mentes brilhantes. Pois, como alguém pode acreditar em alguma coisa tão improvável? Se nós investigarmos um pouco mais a fundo as origens da contracultura — voltando ao final dos anos 50 e início dos anos 60 — vamos encontrar o que pode ser uma reveladora conexão entre os valores saudosista e tecnófilo. No começo era a música — sempre o maior condutor do movimento: música folk, depois rock and roll e depois rock com todas as mutações. Logo de início, a música, da maneira que era apresentada em concertos e nos novos clubes daquela época, assumiu um modo especial, que hoje em dia é comum no cenário da música popular: era amplificada eletronicamente. Seu poder vinha do equipamento. A jovem audiência que lotava os clubes podia estar portando emblemas de não filiação à sociedade industrial, mas queria a música explosivamente amplificada e modulada com perícia através dos melhores meios disponíveis; queria sentir a pulsação em seus poros. A música precisava, então, de máquinas. E conforme ia chegando a década seguinte, a música passava a necessitar cada vez mais de máquinas, pois o gosto estético da época clamava por uma tecnologia de gravação totalmente nova, substituindo os músicos e seus instrumentos pela mais complexa engenharia de som, e finalmente com vários tipos de realces digitais. Por vezes, o estilo do músico procurava ser cru, sem adornos, “natural”. No caso de Bob Dylan, talvez tenha havido um desejo de encontrar uma autenticidade sem polimento e singular. Mas os técnicos assumiam com firmeza o controle da música. Queriam ter a certeza de que o som sairia “profissionalmente” sem polimento, “peritamente” singular. O rock era apenas uma experiência sonora, nada além disso e esperava-se que produzisse uma explosão na mente. Como um especialista do rock daquela época colocou, Por si mesmo, sem a ajuda de luzes estroboscópicas e outros artifícios subimaginativos, [o rock] atrai todo lado sensorial, apelando para a inteligência sem a interferência do intelecto... O rock é um fenômeno tribal... e constitui naquilo que poderia ser chamado de mágica do século XX.12

11 12

Levy, Hackers, p. 251. Chester Anderson, San Francisco Oracle, 6.11.1967.

Mas logo a audiência também passaria a exigir as luzes estroboscópicas: êxtase tanto para os olhos quanto para os ouvidos. Assim, em toda parte, os shows de luzes se tornaram um acessório para as apresentações de rock. Os shows eram mais que um acompanhamento visual para a música. Eram absorvidos de um só gole, como uma forma de reproduzir e/ou criar a experiência psicodélica. Eram uma visível assinatura das drogas. Desde o início, a principal droga da época foi o LSD, ele próprio, uma tecnologia, um produto de laboratório que surgiu após uma pesquisa avançada da empresa farmacêutica suíça Sandoz. No início do período de pós-guerra, o LSD e outros alucinógenos de laboratório pertenciam a um público pequeno, elitista, constituído principalmente de ricos psiquiatras e sua clientela da alta sociedade. Naquele época, antes do LSD ter adquirido uma aura criminosa, publicações importantes como Time e Life estavam preparadas para louvar as suas muitas vantagens terapêuticas. Mas no começo dos anos 60, os alucinógenos encontraram um outro público, menos respeitável; eles estavam sendo vendidos aos poetas beat e à juventude que fugira da universidade, nas ruas de Haight-Ashbury e em Greenwich Village, como a salvação de nossa perturbada cultura. Em pcruco tempo, Thimothy Leary estava disseminando a droga por toda a América; na área da baía de São Francisco, em 1966, Ken Kesey e seus “Felizes Traquinas” distribuíam alegremente, para grandes audiências, doses deste misterioso elixir (ou prometiam distribuir) em eventos públicos como os Testes Ácidos ou o Festival de Viagens. A asserção subjacente a tais esforços de maciça distribuição era simples: a droga salva sua alma. Como os sacramentos católicos, faz efeito ex opere operato — através de sua própria aplicação. Depois que essa promessa encontrou o crescente interesse no misticismo oriental, as drogas psicodélicas foram lançadas como sendo uma força cultural. Parecia claro que os laboratórios de pesquisa da sociedade ocidental — incluindo as gigantescas corporações farmacêuticas — apresentaram ao mundo um substituto para as antigas disciplinas espirituais do Oriente. Ao invés de uma existência de contemplação, umas poucas gotas de ácico feito em casa, numa pílula de vitamina, concretizariam a mágica. Era o caminho mais curto para a “iluminação”. “Para viver melhor através da química” era o lema da Companhia Dupont. E milhares de jovens com as cabeças cheias de ácido estavam prontos para concordar. Eles tinham ouvido a música; eles tinham visto as luzes coloridas, eles tinham experimentado a droga. Nada foi mais significativo para conduzir a contracultura até o caminho da tecnofilia ingênua do que este sedutor trio de delícias. Se a alta tecnologia do mundo ocidental poderia oferecer um tesouro espiritual tão grande, por que não ter mais? Esta é a razão pela qual Buckminster Fuller, Marshal McLuhan e outros acertaram o acorde sensível entre os jovens da contracultura. O ácido e o rock tinham preparado uma audiência para a mensagem daqueles homens, e a prepararam de maneira especialmente persuasiva, que atingia os níveis do cérebro cheio. Pois os psicodélicos permitem uma experiência poderosa, às vezes até mesmo destruidora. Combinados com a música e com as cores que invadem os sentidos de maneira total, os psicodélicos fazem com que qualquer coisa pareça impossível. Eles trazem uma sensação de magnificência e de euforia que faz com que os mais austeros problemas políticos pareçam ser tigres de papel. Ao mesmo tempo, a experiência conduz aos primordiais poderes místicos da mente — isto, de acordo com seus disseminadores — que ainda brotam, ou deveriam brotar, em regiões exóticas do globo, entre os praticantes nativos e as figuras tradicionais como o lendário Don Juan, de

Carlos Castaneda. Esta experiência, adquirida através dos laboratórios da nossa cultura industrial, de alguma maneira, aliou seus discípulos com o antigo, o primitivo, o tribal. Aqui encontramos a mesma combinação surpreendente do sofisticado-científico e do naturalcomunitário que Buckminster Fuller reivindicou para a geometria do domo geodésico e que os hackers do Vale do Silício poderiam eventualmente reivindicar para o computador pessoal. Numa entrevista de 1985, comenta-se que Stewart Brand teria dito: “Esta geração engole computadores inteiros, da mesma forma que a droga”. Esta metáfora pode ser literalmente mais verdadeira do que ele pensava.13

Declínio e queda A meteórica história da “revolução” do microcomputador pode ser resumida em dois sensacionais esforços de propaganda. No começo de 1984 — e não nos esquecendo do livro de Orwell — a Apple Computadores exibiu um comercial de um minuto na televisão, com custo de um milhão de dólares, durante a transmissão de um jogo super-bowl. O anúncio foi planejado para ser visto apenas uma vez, estrategicamente colocado no clímax da quarta parte do jogo — uma extravagância sem precedentes, que provocou muitos comentários nos meios de comunicação de massa. Espelhando o tema do ano, o comercial mostrava o rosto do “Big Brother” [Grande Irmão], dentro de uma monumental tela de televisão, fazendo um discurso bombástico para uma patética massa de servis indivíduos uniformizados. Além de tudo o que a cena poderia significar, estava clara a representação da estrutura monolítica corporativista da indústria de computadores, mais obviamente da dominação da IBM, naquela época o principal competidor da Apple e avançando rapidamente no mercado de computadores domésticos. De repente, no meio do passivo auditório, surge um espírito rebelde. É uma jovem musculosa. Ela se lança para frente e atira na tela um martelo que poderia pertencer a Thor. A tela se despedaça. Os milhões de escravos estão livres. Estas são imagens poderosas de desafio e libertação. Deixando de lado algum exagero histriónico, o comercial capta o espírito dos guerrilheiros hackers que lançaram a empresa Apple, com grandes esperanças para um populismo eletrônico que eles poderiam encorajar. No final de 1984, porém, o panorama da indústria de microcomputadores tinha mudado significativamente. As vendas estavam paralisadas; o mercado parecia completamente saturado. O reflexo da crise estava claro no enorme investimento que a Apple fez em uma campanha de fim de ano. Novamente, com muita fanfarra, a empresa fez uma extravagância sem precedentes. Adquiriu cada polegada do espaço dedicado a comerciais na edição especial de eleições de novembro da revista Newsweek e preencheu as páginas com seu próprio material. O tema da edição era audaciosamente definido como o “princípio da democracia aplicado à tecnologia: uma pessoa, um computador” — o novo Macintosh da Apple. Mas o que a Apple tinha agora a dizer em favor do computador pessoal? Na revista, foi publicada a estória fictícia de um jovem empresário inteligente (um yuppie, como foi chamado), presumivelmente um “ex-escravo” da IBM, agora capaz de 13

Brand, cit. em San Francisco Focus Magazine, fev. 1985, p. 107.

exercitar a liberdade que a Apple lhe concedeu. O jovem tem uma idéia “quente” e quer entrar nos negócios. Sendo magnata bem informado e esperto, ele seleciona os computadores e os programas da Apple para planejar seu produto e manter sua contabilidade. E qual é o seu produto? Splendora Gourmet Baby Food (comida para bebês). Realmente, uma queda com relação ao ataque idealista contra o “Grande Irmão” do começo do ano. Mas, sem dúvida, uma assertiva mais realista a respeito de onde se pode encontrar mercado para os microcomputadores. No começo de 1985, Steven Jobs, naquela época ainda presidente da Apple, estava preparado para admitir o que muitos críticos já suspeitavam há algum tempo: que o mercado de computadores domésticos foi bastante superestimado. Sem ter um uso específico claramente definido, que todo eletrodoméstico deve ter, o computador doméstico se tornou uma confusa máquina que serve para tudo, sendo que muitas das suas aplicações (controlar talões de cheques, guardar receitas, fazer listas de endereços) eram perfeitamente dispensáveis. Gente demais — talvez a maior parte daqueles que podiam pagar o preço da máquina — comprou o computador doméstico sem ter nenhuma idéia sobre como utilizálo. As instruções que acompanharam o equipamento (estranhamente chamadas de “documentação” — em si um sinal de mistificação técnica) eram freqüentemente incompreensíveis; muitas vezes, o computador fazia as coisas simples ficarem inanemente complexas. E então, não importando o quão cuidadosos os usuários pudessem ser ao selecionarem seus programas na confusão desordenada das lojas, certamente, em poucos meses, sempre aparecia algo melhor ou mais novo no mercado. O preço, incluindo os acessórios e programas necessários, nunca era tão baixo quanto o anunciado. De fato, todo equipamento doméstico de computação dificilmente chega a ser completamente adquirido; sempre há mais alguma coisa para ser acrescentada de maneira a se tirar todo o proveito do computador. Pelo menos, em relação ao consumidor comum, o dinamismo prolífico da indústria de computadores — empresas novas, produtos novos, conceitos totalmente novos — mostrou ser frustrante. “Agora” nunca parecia ser o momento para comprar. Encarando as frouxas perspectivas para o mercado doméstico, Jobs estava preparado para acreditar que o futuro do microcomputador estava no escritório e na escola. Se isto for verdade, significa que existe um território pródigo para a tecnologia da informação, um território que vai continuar a exercer uma poderosa influência em nossa economia, em nossa política educacional, em nossa vida profissional. Mas, de qualquer maneira, isto foi uma mudança dramática na carreira do microcomputador. Algo importante foi perdido, possivelmente a visão idealizada da informação e da sua utilização social. Durante os dez vertiginosos anos, entre meados de 1970 e meados de 1980, o ideal de um populismo eletrônico baseado na distribuição quase universal de computadores pessoais se tornou mais débil. A empresa de computadores Apple, a defensora da causa, ganhou seu espaço comercial — duramente conquistado — atacado não apenas pela indómita IBM (agora unida à MCI Telecommunications, aos telefones ROLM e à Merrill Lynch MarketNet System), mas também pela nova investida da gigantesca AT&T no mercado de computadores domésticos e de escritórios. A tecnologia estava retornando ao seu gigantismo original. Conforme declarou um executivo na área de computadores, “existe uma tal mudança no mundo atual que fica difícil para o sujeito da garagem tornar-se o próximo Apple”. De fato, a dominação renovada da IBM está sendo vista por alguns como a única chance da América poder competir com os japoneses. A empresa foi retratada como “uma corporação Rambo, um símbolo vivo de que o sistema industrial americano ainda

conserva um pouco de vida”. Pode-se até mesmo ouvir um suspiro de alívio em todo o mundo dos negócios quando as grandes corporações provam novamente sua invulnerabilidade.14 Nesse meio-tempo, a sociedade de cidadãos-hackers vivenciou a aldeia de domos, e com ela um capítulo pitoresco e controverso da política da informação chegou ao fim.

14

Joel Kotkin, “IBM Takes on the Mantle of America’s Champion”, Washington Post especial, reimpresso no San Francisco Chronicle, 14.10.1985, p. 26.

8. A política da informação Nada senão os fatos Fatos, somente, são desejados na vida. Não plante mais nada e desmate o resto. Só se pode formar as mentes de animais racionais sobre Fatos: nada mais será de alguma utilidade para eles. Mr. Gradgrind, em Hard Times, de Charles Dickens.

Sem o computador, o culto à informação seria impensável. Entretanto, mesmo antes da existência da mais primitiva máquina de processamento de dados, havia um movimento político organizado que já reconhecia a força persuasiva de fatos e números no mundo moderno. Estes eram os English Utilitarians [utilitaristas ingleses] do início do século XIX, os discípulos que acreditavam no excêntrico filósofo Jeremy Bentham. Sua carreira, como uma das influências intelectuais de maior alcance dos tempos modernos, nos oferece um modelo crítico instrutivo. Todos os elementos essenciais do culto da informação lá estão — a aparência de neutralidade ética, o ar de rigor científico, a paixão pelo controle tecnocrático. Só falta uma coisa: o computador. Os benthamistas não tinham uma máquina espetacular que pudesse deslumbrar o público com autoridade quase divina e conquistar sua aquiescência perplexa. Posteriormente, essa falta de uma tecnologia intimidatória tomou sua tendência ideológica aparente. Eles podem, portanto, servir como um estudo de caso, lembrando-nos de que a informação nunca é neutra; ela é completamente política. Os benthamistas constituem um dos primeiros movimentos especificamente modernos da filosofia política; eles são parte inextrincável de um sistema industrial. O próximo nome que adotaram — utilitarismo — reflete a praticidade teimosa, a asserção não sentimental dos valores materiais que dominavam a nova ordem econômica de sua época. A Inglaterra foi a primeira sociedade a entrar na era da máquina e da fábrica. Ela o fez às apalpadelas, cegamente, através de tentativas e erros. No início do século XIX, cidades industriais se desenvolviam da noite para o dia como estranhas protuberâncias na terra, produzindo grandes perturbações. A população “explodiu” em número e começou a se deslocar maciçamente através do campo. Formas totalmente novas de trabalho, propriedade, marketing e invenções apareceram repentinamente e com elas novos valores sociais e novas forças políticas. Os utilitaristas estavam entre os primeiros a captar a importância histórica desta rápida e confusa transformação e a fazer um brinde àquilo que muitos outros viam como uma calamidade social. Além disso, intuitivamente, eles perceberam que, em sociedades tão cronicamente dinâmicas quanto a Inglaterra estava se tornando, o controle de fatos — ou até mesmo o controle aparente dos fatos — gera poder. Ele cria a impressão de competência, confere a habilidade para governar. Em uma sociedade industrial, a mudança é a ordem do dia. Mas a mudança destrói antigas certezas; ela desnorteia e gera ansiedade. Em meio ao caos aparente que surgiu com

a revolução industrial, os utilitaristas corajosamente tomaram a iniciativa filosófica, insistindo que a mudança poderia transformar-se em progresso se fosse utilizada como uma oportunidade para reformas. E o segredo da reforma era o controle de fatos, muitos fatos. Em sua época, os utilitaristas eram também conhecidos como “radicais filosóficos”, precisamente porque eles estavam dentre os mais fortes campeões da reforma em todos os setores — direito, economia, educação, bem-estar, prisões, saneamento. Em suas várias campanhas para melhorias públicas, um intensivo levantamento de dados era sempre a primeira medida. Eles eram guiados pela convicção de que os fatos, se colhidos em quantidade suficiente, poderiam falar por si próprios. Alinha-os na página ,e eles revelarão desperdício, corrupção, ineficiência, onde quer que existam. O historiador G. M. Young descreve o que ele chama de “fórmula benthamista”, que consiste em “inquirição, legislação, execução, inspeção e relatos”.1 As etapas de inquisição, inspeção e relato da fórmula deram origem às grandes investigações públicas do período vitoriano, por comissões parlamentares e reais. Hoje, nós sabemos que o governo está envolvido em coletas de dados. Mas essa era uma nova e estranha idéia nos tempos de Bentham, quando ainda nenhuma sociedade se preocupara em fazer um censo acurado. Os utilitaristas mudaram tudo isso. “Em poucos anos”, observa Young, “o público havia sido inundado com fatos e números relacionados com todos os aspectos da vida nacional... Nenhuma comunidade na história havia sido submetida a um exame tão minucioso”. Não era incomum que uma única comissão vitoriana produzisse vários volumes impressos repletos de dados e estatísticas. E se a inquirição resultasse na criação de uma nova agência administrativa, como geralmente ocorria, então a manutenção de registros crescia como uma bola de neve; o levantamento de dados do governo continuava anualmente. Antes da metade do século, essas grandes quantidades de informação passaram a ser compiladas nos famosos “Livros Azuis Vitorianos”, a coleção mais densa de estatística social na história humana. Os “Livros Azuis” foram a fonte da qual Karl Marx mais tarde tiraria toda a amaldiçoadora evidência de que precisava para a sua acusação do capitalismo. Ele não sentia que precisava mover-se de sua escrivaninha no museu britânico para realizar sua tarefa. Todos os dados de que necessitava estavam diante dele, em preto e branco. Na época do primeiro ministro Gladstone, no final do século, graças ao estilo benthamista arraigado, a prática política havia sido dramaticamente remoldada. “O conhecimento dos fatos”, observa Young, “e uma manipulação débil dos números era ... a prova mais segura da capacidade” na vida pública. Gladstone, cujos orçamentos cuidadosamente elaborados eram o novo padrão mundial da política moderna, foi talvez o primeiro político a construir uma carreira sobre o controle magistral da estatística social. Ele se sairia muito bem atualmente em um debate presidencial norte-americano, despejando números em todas as direções. Em seu fascínio pela coleta de dados, os utilitaristas podem ser vistos como os herdeiros distantes de Francis Bacon. O interesse de Bacon, é claro, era ciência; o de Bentham eram os assuntos legais e a economia. Mas há uma conexão entre os dois. Tal como Bacon acreditava que dados poderiam ser organizados convenientemente segundo as leis da natureza, os utilitaristas acreditavam que os fatos sociais produzidos por inquirição precisa provariam instantaneamente as falhas de leis e instituições existentes, apontando

1

G. M. Young, Victorian England: Portrait of an Age, 2ª ed., Oxford, Oxford University Press, 1964, pp. 11, 32-33.

assim diretamente para a solução óbvia. Esta convicção deu aos utilitaristas um certo ar impetuoso, mas refrescante, de suprema confiança. Eles estavam prontos para investigar tudo com um olho crítico agudo, independentemente de quão tradicionais e veneráveis eles fossem. Eles se deleitavam em sua insurgência intelectual, encantando-se em mostrar a loucura e a confusão dos velhos costumes, dos quais havia muitos ainda vivos e ativos na sociedade inglesa. Eles se encorajavam com sua arma peculiar: o fato, o fato onipotente, contra o qual nem o sentimento nem a retórica emocional poderiam se colocar. Ainda assim, apesar de sua postura de objetividade estudada, os utilitaristas realmente trabalhavam a partir de uma ideologia política definida, de uma agenda de idéias e ideais “não tão oculta” que servia para ativar a informação que eles coletavam. É importante ressaltar esse aspecto de seu trabalho porque ele revela a inevitável atuação recíproca entre idéias” e informação. No caso dos seguidores de Bentham, isto pode ser visto claramente em sua mais ambiciosa campanha oficial para levantamento de dados: o estudo nacional do British Poor Law em 1833. Este foi o maior projeto de investigação já realizado. A inquirição abrangeu a nação, tocando em pontos específicos, tais como a pesagem de pão e mingau servidos em asilos de indigentes em todo o país. Sabemos, hoje, que os utilitaristas que trabalhavam neste levantamento estavam dispostos a abalar o sistema. Eles documentaram assiduamente o desperdício, a inconsistência, a inépcia da Old Poor Law. Isso não era tão fácil de se fazer. A Poor Law, na realidade, não era uma única lei, mas uma miscelânia, com séculos de idade, de estatutos e regras para se lidar com todas as formas de dependência social: os doentes, os idosos, os aleijados, os desempregados, os órfãos, os loucos. No decorrer de gerações, este programa polivalente foi tornando-se um emaranhado incoerente de contradições e improvisos. Os utilitaristas, registrando a confusão, rapidamente convenceram o governo de que a lei deveria ser substituída por um programa de sua própria elaboração, novo, uniforme, centralizado, e bem mais barato. Eles ganharam sua causa. O resultado foi o sistema draconiano de asilo para pobres que vemos retratados nos romances de Charles Dickens. Apesar da comissão da Poor Law procurar tornar seu estudo completamente neutro — uma inquirição puramente profissional baseada nos princípios de uma economia sã — ela foi moldada desde o início por uma filosofia social bem estruturada, baseada, por exemplo, no pressuposto de que a pobreza era uma forma de parasitismo criminoso que merecia ser punido, é que um sistema de licenças generoso demais apenas corromperia a vontade de trabalhar do povo. Por trás da investigação se escondia uma visão desoladora da natureza humana e uma implacável obsessão por valores monetários. Os utilitaristas acreditavam piamente que os pobres deveriam ser chicoteados para trabalhar. Isso os tornava aliados de proprietários de fábricas, que haviam reduzido as condições de trabalho a um nível desumano. Não seria um exagero afirmar que, com a arma dos fatos puros em suas mãos, os benthamistas ajudaram a produzir a mão-de-obra da revolução industrial. Assim, os utilitaristas, que tão cedo deram uma contribuição importante para o culto da informação, estavam tão motivados, política e moralmente, quanto qualquer outro grupo de influência política. Eles podem ser vistos como os precursores de todo o pensamento militar e centros atuais de estudo de política, que continuam a preencher a arena política com decisões ideologicamente comprometidas, mas colocadas de forma a parecer exercícios meramente acadêmicos. De fato, foi porque os utilitaristas uniam a sua paixão por pesquisa social a uma filosofia social não sentimental, de sangue-frio, que eles foram bem-sucedidos em transformar sua fundamentada preocupação com fatos ofensivos em um

espírito mais humanista como Dickens. Em Hard Times, seu romance clássico sobre uma cidade industrial primitiva, Dickens retrata os utilitaristas como burros de carga desalmados e hipócritas que acreditavam que os fatos são mais reais do que a carne. O estereótipo do utilitarista, para Dickens, é Mr. Gradgrind, o diretor da escola, que crê que a essência da educação é preencher as mentes de seus alunos com o máximo de informação possível. Fatos, somente fatos. Ê o sistema escolar, tal como Dickens percebeu com perspicácia, que forma as mentes da época. E na escola de Mr. Gradgrind não há espaço para nada a não ser dados e quantidades atomísticas. O que é um cavalo? ele pergunta aos seus alunos. A resposta chega aos fatos da questão. Quadrúpede, graminívoro. Quarenta dentes, precisamente vinte e quatro molares, quatro caninos e doze incisivos. Muda os pelos na primavera; em regiões pantanosas perde os cascos. Cascos duros, mas necessitando ferrar. Idade conhecida através de marcas na boca. Se os computadores existissem em sua época, Mr. Gradgrind teria se apressado em inundar sua escola com o apertar de um botão, talvez com gráficos animados em uma simulação tridimensional. Mas seu quadrúpede puramente estatístico ainda assim não teria sido uma criatura viva.

Fartura de dados O novo poder não é o dinheiro nas mãos de poucos, mas a informação nas mãos de muitos. John Naisbitt, Megatrends

No que se refere à negociação de dados, nossa política se tornou o sonho realizado de um utilitarista. O implacável levantamento de dados que Bentham e seus seguidores viam como uma necessidade da vida em uma sociedade urbano-industrial se instalou permanentemente em um contingente crescente de repartições públicas e agências governamentais. O computador se tornou uma grande indústria de serviço do setor privado. Os tomadores de decisões, tanto particulares quanto públicas, agora possuem suprimentos ilimitados de informação, fornecidos a uma velocidade relâmpago. Nós podemos aprender uma lição política valiosa e aparentemente óbvia a partir do exemplo dos utilitaristas que trabalhavam na arena da política pública. Não são precisamente os fatos que determinam a política, mas mais freqüentemente a política é que determina os fatos por seleção, ajustamento e distorção. Entretanto, faz parte do folclore da Era da Informação a idéia de que o computador, especialmente o pessoal, nos trará um renascimento democrático. A máquina que torna uma grande quantidade de dados disponível a todos, em suas casas, está supostamente destinada a ser uma força libertadora. A idéia tem sua origem em Marshall McLuhan, que previu, em meados dos anos 60, que

vários meios de comunicação elétricos transformariam o planeta em uma aldeia global, onde “informação instantânea cria implicações em profundidade”. McLuhan tinha em mente a televisão em primeiro plano; ele insistia que pessoas sentadas passivamente diante de tubos de raios catódicos, assistindo uma apresentação contínua de imagens de todo o mundo, estavam de alguma forma se tornando cidadãos mais participativos. Entusiastas da computação têm ampliado a idéia para um novo uso da tela de vídeo: sua capacidade de funcionar interativamente com seu espectador, produzindo um fornecimento infinito de material de bancos de dados de toda a parte como resposta à demanda do espectador. “O computador esmagará a pirâmide”, afirma John Naisbitt. “Nós criamos o sistema gerencial hierárquico, piramidal, porque necessitávamos dele para acompanhar as pessoas e o que elas faziam; com os computadores mantendo esse registro podemos reestruturar nossas instituições horizontalmente.” Esta perspectiva está certamente embasada em um diagnóstico peculiar de nossos males sociais. Ela assume que o corpo político está faminto, em função da falta de informação e que somente o computador pode suprir esta carência. Deve-se imaginar os jornaleiros, as livrarias, as bibliotecas do país esvaziados pela população que consumiu suas preciosas fontes de dados e que agora estão famintos daquilo que essas fontes não mais podem fornecer. Obviamente este não é o caso. O público mal esgotou a informação que está agora prontamente a sua disposição. Pelo preço da assinatura de um dos melhores jornais do país e de algumas revistas bem selecionadas, a maioria dos lares poderia econômica e facilmente aumentar muito seu suprimento de informações. Aliás, uma só carta a um dos membros da Câmara Legislativa em Washington trará uma enchente de publicações gratuitas repletas de informação em qualquer área: audiências de comitê, relatórios especiais, brochuras, folhetos. Tudo isso, milhares de pesquisas e estatísticas, emitidos por agências oficiais, estaduais e federais, está disponível a qualquer cidadão interessado. Parte do que essas fontes enviam pode ser confiável, parte não. Não há como se contornar o problema da avaliação pessoal. Afinal, vários dos serviços de bancos de dados fornecidos pelo computador foram compilados a partir das mesmas fontes. Um relatório do governo que é publicado no New York Times e depois é digerido no terminal de dados NEXIS (disponível a uma taxa mensal de 50 dólares, mais os custos de serviço que podem chegar a 28 dólares por hora) não ganha credibilidade, automaticamente, ao ser computadorizado. Quanto a segredos oficiais e dados confidenciais que freqüentemente podem constituir-se naquilo que os cidadãos mais necessitam, não tendem a ser acessíveis a não ser para os espertos hackers que conseguem se infiltrar em arquivos governamentais bem guardados. Pode-se argumentar que, se o público tirasse proveito de toda a informação que o correio americano pudesse entregar em sua porta, proveniente de fornecedores e particulares, ele logo estaria nadando em dados.2 Em algumas das sociedades totalitárias do mundo, o grande problema político pode ser uma censura oficial que trabalha para sufocar o fluxo de informações. Na nossa, o problema é justamente o oposto. No mínimo sofremos de uma fartura de informações não-refinadas, não-digeridas, que fluem de todos os emissores que nos circundam. Eis um problema que os utilitaristas nunca previram: pode 2

Para uma amostra dos materiais disponíveis nas fontes do governo, ver Matthew Lesko, Information USA, um guia e manual disponível em 12400 Beall Mt. Road, Potomac, MD 20854. Ver também Susan Osborn e Jeffrey Weiss, The Information Age Sourcebook, Nova Iorque, Phanteon, 1982, que foi compilado de mais de 500 livros e brochuras sobre as atividades do governo.

haver informação em demasia. Tanta que a floresta se perde entre as árvores. O resultado é, então, uma nova variedade de política, em que os governos não restringem o fluxo de informação mas inundam o público com ela. Deve-se lembrar de 1984, de Orwell, no qual os alto-falantes ubíquos do Big Brother falavam incessantemente das estatísticas atordoantes de produção e consumo. Sem dúvida, em 1984 a informação era monolítica; não havia competição crítica. Mas onde existem fontes em competição, como em nossa sociedade, a estratégia do governo não é censurar, mas confrontar fato com fato, número com número, pesquisa com pesquisa. Ainda se torna vantajoso haver muita disputa em torno de fatos e números, uma tempestade estatística que adormece a atenção. Do ponto de vista de alguns entusiastas da computação, a fartura de dados não é pior do que um infeliz e temporário desequilíbrio no sistema. Então, John Naisbitt nos conta que “temos pela primeira vez uma economia baseada em um recurso essencial não apenas renovável, mas também autogerado. Sua falta não é um problema; afogar-se nele é. Os dados agora estão se duplicando a cada vinte meses”. Entretanto, ele confiantemente prediz que o problema brevemente será corrigido. Como? Pelos computadores. “A tecnologia da informação traz ordem ao caos da poluição de informações e portanto dá valor aos dados que, de outra forma, seriam inúteis”. Mais especificamente, um “negócio de seleção de informações on-line” está aparecendo rapidamente; ele servirá para filtrar a fartura e organizá-la conforme nossas especificações pessoais. O que Naisbitt tem em mente são vários bancos de dados e serviços bibliográficos especializados que os usuários de computadores domésticos podem assinar, frequentemente a preços altos. Segundo uma avaliação, havia cerca de 2.200 terminais de dados no mercado no início de 1985.3 Mas esses serviços são “seletivos” somente no sentido de organizar o material por assunto, do mesmo modo que se faz com um fichário de biblioteca ou índice de jornais. Nada sobre qualidade, honestidade, ou pertinência é sugerido pelo trabalho. Em última análise, bancos de dados, como os demais auxílios de referência, são a criação de pessoas que decidiram o que deveria e o que não deveria entrar no sistema. Os compiladores de bancos de dados também cometem erros devido ao cansaço e à pane. O caráter misterioso, oracular, do computador — sua operação impessoal e eficiente — pode ser mascarado para os vários usuários, mas ele assim permanece. As firmas que montam os bancos de dados tendem, indiscriminadamente, a incluir qualquer coisa que dê a seu serviço uma aparência de respeitável especialização; certamente eles incluirão afirmações e fontes oficiais, audiências do congresso, documentos e relatórios governamentais. Suponhamos, então, que o tema de pesquisa seja o debate acerca do míssil MX. Um banco de dados computadorizado dará, obedientemente, tudo o que possui sobre o assunto, incluindo todo o material do Pentágono que foi produzido para consumo público. Qualquer seleção mais refinada — digamos, quanto a quem está dizendo a verdade — deve ser inevitavelmente deixada para os usuários. Se eles confiam em seu governo em tais questões, o acesso a um banco de dados padrão como o NEXIS ou o Serviço de Referência Bibliográfica somente fortalecerá o governo em seu ponto de vista, Se eles estiverem propensos a serem hipnotizados por uma demonstração chamativa de fatos por especialistas da área, eles ainda 3

John Lamb, “Confusion Among the Databases”, New Scientist, Londres, 21.2.1985, p. 23. Lamb também lida com o problema da incoerência entre os vários bancos de dados (códigos diferentes, protocolos e linguagens de comando), bem como gastos crescentes com assinaturas e tributos. Deveria ser mencionado que o governo dos EUA é um dos maiores operadores de banco de dados, muitos deles mais baratos ou gratuitos. Para um guia nesta verdadeira selva de informação, ver The Federal Database Finder, também disponível em Lesko, Information USA.

serão as vítimas da fartura de dados. Nenhum banco de dados será inventado para responder ao pedido: “mostre-me tudo o que é verdadeiro e relevante”. Os entusiastas da computação fazem vista grossa ao fato de que a fartura de dados não é uma flutuação acidental imprevista de suprimentos, como uma cultura de trigo abundante. Ela é uma estratégia de controle social, manipulada deliberada e habilmente. É uma das principais maneiras pelas quais os governos modernos e grupos de interesse confundem questões em sua própria vantagem; eles ofuscam os cidadãos despejando mais dados do que eles podem esperar organizar. Desde os debates Kennedy-Nixon, em 1960, o estilo retórico predominante de nossa liderança política tem sido saturar a atenção pública com informação — geralmente números: índices econômicos, projeções orçamentárias, estatísticas sociais, proporções, porcentagens, tendências... Funcionou para Kennedy que parecia possuir um cérebro computadorizado. Nos anos 80, Ronald Reagan ainda o emprega, lendo números freqüentemente fictícios ou sem sentido, a uma velocidade de uma milha por minuto. Os políticos que virão procederão da mesma forma, enquanto o público estiver disposto a se impressionar ou se intimidar com um reservatório de fatos e números. O computador não deu origem a este estilo traiçoeiro de discurso político. Como vimos, os utilitaristas eram mestres no assunto quando o processamento de dados não era senão anotar coisas no papel. Subjacente ao estilo, encontra-se a mística da destreza científica que dá autoridade àqueles que conduzem os fatos de uma maneira fria e objetiva. O computador é simplesmente corporificação mecânica desta mística; ele se vale de nosso respeito pelo jargão científico e de nossa fraqueza com relação à dependência das máquinas. Mas ele também permite que a informação seja compilada e manipulada de maneiras bem mais estonteantes, sempre com a suposição de que tudo o que sai de um computador deve ser confiável. Nas eleições presidenciais de 1980, o público americano foi confrontado pelo candidato Ronald Reagan com uma terrível taxação da defesa nacional. Os números transbordavam em seus argumentos. Havia supostamente uma “janela de vulnerabilidade” em nossas defesas que colocava a nação em perigo imediato de aniquilação. A “janela” havia sido descoberta através de jogos de guerras simulados por computador. A administração Reagan usou este panorama e a ansiedade resultante por parte do público para iniciar o maior desenvolvimento militar da história para admitir somente a posteriori, sob pressão crítica, que muitos dos seus fatos, números, suposições e deduções eram errôneos.4 Mas, quando a oposição se deu conta dos erros, o Departamento de Defesa havia aberto uma frente inteiramente nova, repleta de novos estudos, perspectivas e simulações. Chamava-se “Iniciativa de Defesa Estratégica”: “Guerra nas Estrelas”. Nunca foi novidade que os governos se entregam à tentação de mentir ou de enganar. Mas lograr o público através da saturação de informações organizadas por especialistas em uma quantidade superior àquela que ele pode digerir é uma virada decididamente nova e altamente efetiva, na qual o computador contribuiu de forma indispensável.

4

Em janeiro de 1982, especialistas militares estavam questionando as simulações da campanha de Ronald Reagan. Ver relato de Ian Mather em The Observer, de 24 de janeiro de 1982. Tanto a CIA como a Arms Control Association desafiaram os números utilizados por Reagan como referências do armamento soviético. Ver New York Times, 3.3.1983, p. 1, 9.3.1983, p. 23, e o relato “Knight News Service”, San Francisco Examiner, 18.6.1984, p. 1.

Questões de informação A política da informação faz estranhos companheiros de cama. Somos assegurados pela esquerda, direita e centro — pelos conservadores das regiões quentes, liberais da alta tecnologia, hackers guerrilheiros — de que a informação trará poder aos cidadãos e salvará a democracia. Mas em todos os casos somos confrontados com concepções de informação que se espalham, pressupondo que pensar é uma forma de processamento de informação e que, portanto, mais dados produzirão melhor compreensão. O resultado é que os entusiastas da computação rapidamente se tornam vítimas da estratégia de “fartura” de dados, e então procuram se defender voltando-se novamente para o computador, em busca de uma solução. Não se encontra, porém, uma solução nos métodos mecanizados para organizar a fartura. Pelo contrário, nós devemos insistir em um novo padrão de discurso político. Em uma democracia relevante não é a quantidade, mas a qualidade de informação que importa. Quais são os critérios de qualidade? Relevância, coerência e perspicácia. Como colocamos estes critérios na jogada? Classificando a informação por assuntos. Estes assuntos, por sua vez, são bem formulados quando ajudam a focalizar a atenção, a levantar questões, a facilitar a crítica e finalmente quando nos permitem fazer escolhas com a sensação de que distinguimos com inteligência entre todas as alternativas disponíveis. Mais uma vez chegamos na importante distinção entre informação e idéias. A informação se transforma em uma questão política quando é iluminada por uma idéia — sobre justiça, liberdade, igualdade, segurança, dever, lealdade, virtude pública, boa sociedade. Nós herdamos idéias desse tipo de nossa rica tradição em filosofia política: de Platão e Aristóteles, Maquiavel e Hobbes, Jefferson e Marx. Muito pouco do que essas mentes oferecem está relacionado com informação. Se estivesse, os dados seriam há muito antiquados; mas as idéias sobrevivem — uma subestrutura ética sólida sobre a qual leis, programas e sistemas continuam a ser elaborados, mesmo que por políticos que jamais tenham lido esses pensadores. Além da filosofia discursiva, temas míticos fornecem algumas das idéias mais duráveis de nosso repertório político. A imagem lendária do profeta bíblico Nathan desafiando o rei David em nome de uma lei superior, a imagem de Adão e Eva vivendo uma igualdade anárquica original, têm tido maior relação com energia revolucionária do que qualquer obra de pesquisa sociológica. Quanto a isso, personagens totalmente fabulosos de nossa cultura — os virtuosos meninos de rua de Horatio Alger ou os pistoleiros do velho Oeste — têm ligação direta com a criação de valores políticos populares. As grandes utopias de More e Bellamy e as anti-utopias de Huxley e Orwell não têm, da mesma forma, nenhuma ligação com “fatos”; mas estas são imagens vivas da boa (ou má) sociedade que dominam o imaginário popular. Tais idéias sobrevivem porque são respostas poderosas a questões políticas universais; a profundidade da experiência, a qualidade do pensamento, a magnitude das aspirações que participam destas respostas impregnam-nas de uma especial persuasão. Os fatos, se têm algum valor, devem ser utilizados a serviço de imagens e idéias como essas. Quando isso acontece, um bom fato pode ter o valor de mil fatos irrelevantes. Durante alguns anos, até que parou de ser publicado, eu assinei I. F. Stone’s Weekly, um marco no jornalismo americano. Para seus leais leitores, o Weekly tinha mais valor do que uma dúzia de jornais comuns; nenhum de nós o teria trocado por assinaturas gratuitas das principais revistas de notícias. Ainda assim ele só tinha quatro páginas. Obviamente,

ele não continha muita informação; mas era fruto de uma inteligência política aguçada. Por trás, havia uma mente que confrontava os casos do dia, sabendo quais as questões a formular, e como discernir o relevante do inútil. Não era preciso concordar com Stone para apreciar seu jornalismo; lucrava-se com suas orientações quando mostrava onde residiam os contornos do debate público. Uma reportagem investigativa do calibre do trabalho de Stone nos lembra de que notícias, que são a pulsação diária da política, nunca são apenas informações; não são material factual bruto que sai do mundo com destino a um banco de dados. São inquirições e interpretações específicas, baseadas em um conjunto sólido de idéias sobre o mundo: o que importa, para onde caminha a história de nosso tempo, o que está em jogo, quais são os objetivos secretos, qual é a grande perspectiva? As respostas a tais questões são as idéias que determinam o valor da informação. Frequentemente o que deve fazer um bom jornalista é jogar fora toneladas de dados desnorteantes para chegar à verdade vívida. É a vitalidade vívida dos assuntos que salva a democracia. No máximo o computador dá uma contribuição limitada e marginal para esta meta. Certamente os resumos e recortes que seus novos serviços oferecem (como o CompuServe Information Service e The Source Newswire, editado pela United Press International) são irrelevantes em relação a qualquer assunto além de relatórios do tempo e da bolsa de valores. Como nação política, estaríamos em melhor situação se o público de maior influência tivesse contato ativo com alguns bons jornais de opinião (de esquerda, direita e centro) do que se tivéssemos um computador pessoal em cada residência.

Comunidade on-line: a promessa das redes Ainda há um uso mais promissor para os computadores além da luta para vencer a fartura de dados. De fato, este tem sempre sido um item estritamente secundário na agenda de muitos hackers engajados politicamente. A informação que eles mais querem obter não tem relação com bancos de dados, mas sim com as idéias de outras pessoas. Sua esperança tem sido de que a capacidade de formação de redes da tecnologia — a habilidade de conectar computadores pessoais através dos fios telefônicos — possa ser um meio de construir comunidades preocupadas com a questão da cidadania. O resultado seria um fórum de opiniões e debates. Seymour Papert tem notavelmente defendido o ideal de “culturas computadorizadas alternativas”, não só entre minorias e grupos especiais de interesse dentro das sociedades industriais avançadas, como também entre as nações do Terceiro Mundo. Em larga escala, sua linguagem de programação LOGO visa ajudar crianças e adultos de pouca instrução a obter uma habilidade computacional suficiente para que possam constituir sua própria cultura computadorizada. Sua esperança é de que as redes de computadores possam servir para fazer as sociedades subdesenvolvidas saltarem para o século XX, permitindo-lhes o acesso a várias formas de conhecimento (educação, medicina, comércio, agricultura).5

5

Para uma discussão da idéia de Papert das culturas do computador, ver James Dray e Joseph Menosky, “Computers and a New World Order”, Technology Review, maio-jun. 1983. Ver também o primeiro capítulo do Mindstorms, de Papert.

Infelizmente, mas com freqüência, a formação de redes deste tipo também acaba caindo no rótulo crescente de “informação”: é um uso, porém, claramente diferente do computador, que oferece possibilidades dignas de serem exploradas. Algumas já estão disponíveis de uma forma pioneira. Redes comerciais como CompuServe (com cerca de 75 mil assinantes) e The Source (com cerca de 40 mil) agora possibilitam aos usuários de computadores domésticos se reunirem em uma teleconferência nacional sobre uma variedade de tópicos. Os grupos especiais de interesse da CompuServe incluem discussões contínuas de várias questões políticas e sociais. A linha de conferência PARTI do The Source tem sido utilizada pelo deputado Edward Markey (democrata — Massachusetts) para levantar opiniões acerca do impasse nuclear. PARTI também foi chamada por seus assinantes após crises como a invasão de Granada ou o ataque soviético a um avião 707 coreano. Teleconferências também podem ser obtidas através do Eletronic Information Exchange System (EIES), operado pelo New Jersey Institute of Technology, e da University of Michigan’s Confer II, ambos podendo ser utilizados como discussões abertas entre todos os assinantes ou por grupos menores na busca de um projeto específico.6 As versões, locais mais baratas de tais redes nacionais são as centenas de sistemasmurais [os BBSs — bulletin board systems], que agora podem ser encontrados em distritos eleitorais novos, criados por computador, que geralmente têm o tamanho do código telefônico. Pagando um adicional referente a um programa terminal e possivelmente uma linha telefônica especial, qualquer proprietário de um computador pode se tornar um operador de sistemas (sysop) e usar um BBS para qualquer fim. Tudo o que se precisa fazer é divulgar seu número telefônico, talvez colocando-o em outros painéis de avisos existentes na área. Alguns destes fóruns eletrônicos têm um enfoque político; todos podem ser utilizados para emitir alertas comunitários, levantar questões locais e desenvolver discussões de eventos do momento.7 Um BBS que tem sido muito louvado como modelo de democracia computadorizada é The Chariot, organizado na área de Colorado Springs pelo ativista político Dave Hughes. Ele tem usado sua rede regional com sucesso para fazer campanhas em várias questões diante das legislaturas estaduais e locais. Um dos objetivos de Hughes é ter todos os representantes eleitos no estado em linha para comunicação imediata noite e dia — embora seja difícil entender porque os políticos devem ser mais receptivos à correspondência eletrônica do que a cartas comuns. Apesar de se assemelharem ao radioamador e a certos programas de rádio em que o espectador conversa com o locutor, as redes de computadores são, em vários aspectos, uma forma exclusiva de comunicação. Não há outro meio através do qual um grande número de pessoas em uma área tão grande quanto a do sistema telefônico mundial possa trocar idéias de modo não estruturado, a qualquer hora do dia (ou da noite), e ainda ficar com uma cópia transcrita. O modo de discurso — palavras datilografadas em uma tela de vídeo — pode ser um substituto inconveniente para uma conversa cara a cara, mas estranhamente há aqüeles que consideram o anonimato especialmente atraente. A impessoalidade que os computadores pessoais possibilitam aos usuários da rede tem um efeito libertador e 6

Para uma revisão dos serviços como EIES e Compuserve, bem como dos recursos dos bancos de dados, ver “Telecommunicating”, uma seção de Brand, ed. Whole Earth Software Catalog. Esta seção também oferece algumas indicações bibliográficas a respeito do assunto. 7 Mike Cane, The Computer Phone Book, Nova Iorque, New American Library, 1983, examina algumas centenas de murais computadorizados. Para sistemas interligados através de redes [networking], ver The Networking Newsletter (Box 66, West Newton, MA 92165).

nivelador; ela anula raça, idade, sexo, aparência, timidez e deficiências, e encoraja a franqueza. Sem dúvida ela também encoraja uma certa “encenação”; os usuários da rede, como os locutores de radioamador, tendem a utilizar pseudônimos vistosos, ao invés de seus nomes. Isso, por sua vez, pode levar a brincadeiras e a acessos irresponsáveis. Alguns impressos BBS contêm uma quantidade marcante de material relativamente desagradável: críticas racistas e sexistas, piadas sujas, blasfêmias. O meio de comunicação se enfraquece no sentido de se tornar pichação eletrônica. Os custos podem ser encarados como uma obrigação, embora a maioria dos usuários que conheci pareçam estar mais ou menos despreocupados quanto a isso. O custo inicial para operar um “grupo de interesse especial” da CompuServe SIG pode variar entre 500 e 1.000 dólares. A rede EIES exige uma taxa mensal de 75 dólares, além dos custos por hora; ela é utilizada principalmente por corporações e instituições acadêmicas. Mesmo um BBS local pode igualar facilmente o custo mensal de manutenção de um segundo telefone. Há, sem dúvida, um público político significativo para o qual as taxas por tempo de ligação, sem contar o preço do equipamento básico, seriam proibitivas. A formação de redes, durante algum tempo, pode permanecer como um medium estritamente da classe média. Mesmo neste nível, nem todos os usos são encorajadores. Há redes de racistas, poder branco [white power] e nazistas americanos que se situam dentro dos limites constitucionais da livre expressão; uma rede de pornografia infantil apareceu em 1985, e transmitia os nomes e endereços de crianças que estavam disponíveis para exploração sexual.8 O medium nada garante sobre a qualidade de suas mensagens. Ainda assim, mesmo como um meio de comunicação relativamente caro, a formação de redes pode prestar serviços valiosos, e certamente merece ser explorada mais a fundo pelo que vale. Eu farei apenas dois comentários de precaução que os usuários devem ter em mente; ambos se baseiam em experiência histórica. Primeiro, vale a pena lembrar que a rede original de computador — do início dos anos 70 — a ARPA, começou logo que as telecomunicações packet switching foram capazes de conectar terminais de computador para todo o país. A ARPA foi desenvolvida para permitir a transferência de dados por parte de computadores militares; mas quase imediatamente ela foi apropriada pelas pessoas — precisamente os contratantes militares e consultores dos principais laboratórios e universidades. Esta rede ARPA, humana e imprevista, surgiu espontaneamente para troca de informações sobre armas e estratégias entre os especialistas.9 Este é justamente o tipo de abuso do computador que os guerrilheiros hackers temiam; mas é uma aplicação inventada e utilizada por aquelas forças sociais que mais se enriqueceram com as aplicações dos computadores incluindo a constituição de redes. Membros do complexo militar-industrial continuam a inovar em aplicações que cidadãos comuns jamais poderão explorar ou custear; em todos os seus usos mais avançados, o computador é a sua máquina. Usá-lo para propósitos mais coletivos tem sempre sido uma questão de vencer em esperteza ou passar a perna naqueles que dominam a tecnologia. Em segundo lugar, a promessa que os usuários da rede vêem no computador é muito parecida com aquela oferecida pelo radioamador dos anos 60 e 70. Uma vez que seu alcance era restrito a localidades próximas, o radioamador poderia ter sido utilizado para organizar 8 9

Relato da Associated Press, San Francisco Chronicle, 12.6.1985, p. 11. Para a rede ARPA, ver The Networking Newsletter, 1, nº 3,1984; 15.

pequenas comunidades. Neste aspecto, ele tinha o benefício do diálogo entre pessoas: a realidade humana do tom vivo, das nuances e ênfases — todos indispensáveis para a troca de idéias mais efetiva. O radioamador também era mais barato e desprovido de vínculos do que a rede de computadores, uma vez que diversamente dos computadores que se restringem a linhas telefônicas particulares, ele fazia uso de uma utilidade pública aberta: o ar da radiodifusão. Mas o radioamador era raramente utilizado para algo politicamente mais significativo do que dar a oportunidade aos caminhoneiros em alta velocidade, para que pudessem enganar a polícia rodoviária, um tipo de atitude de rebelião minimamente anarquista. Na maioria dos casos, ele se tornou mais uma novidade para consumo. Há muitas indicações de que os computadores domésticos repetirão este padrão, desperdiçando seu potencial em usos frívolos e leves, que não têm grande relevância política. As prateleiras dos varejistas de computadores estão cheias de video games, programas de exercícios, orçamentos domésticos, receitas, horóscopos. É a proliferação de tais bugigangas, jogos e diversões que atualmente passam como sendo “revolução da informação”. Do mesmo modo, aqueles que embalam e vendem serviços de rede não têm muito interesse em encorajar usos políticos controvertidos. A firma CompuServe pertence a H.&R. Block, os consultores de impostos; The Source pertence ao Readers Digest. Não é de se surpreender que as redes operadas por tais interesses estejam horrivelmente dominadas por conversas em lojas, entre pessoas de diversos hobbies, dicas de viagens, serviços de namoro por computador e jogos interativos em geral. A nível local, a maior preocupação dos assinantes de murais parece ser os “grupos de usuários”. Estes são redes constituídas por pessoas que usam a mesma marca de computador e que procuram aconselhamento acerca do equipamento que deu origem à rede: um aspecto estranhamente incestuoso da computação. Além disso, há inúmeras diversões: críticas de filmes e restaurantes, piadas, resumo de novelas, “Masmorras e Dragões”... Na maioria das hard-copies BBS que eu já vi, as pérolas de pensamento se espalham em meio a uma densa mata de trivialidades, trocadilhos e fragmentos ilegíveis de discursos. Eu estaria inclinado a ver muitos desses “restos” como apenas outra fonte de dados, que exige mais tempo para ser organizada e compilada do que aquilo que vale. Usar a rede é realmente melhor do que se encontrar com alguém, à noite, num bar ou lanchonete, para conversar? Não há nada de errado com o tipo de diversão que atualmente lota as redes; mas também não há nada de grandioso. Ele nos leva a refletir: que tipo de informação, pensavam os entusiastas da computação, que o público americano esperava receber através desse meio, antes de se tornar uma democracia iluminada? E que quantidade de informação deveria realmente ser fornecida por um equipamento tão caro? Certamente muito pouco daquilo que é feito através de redes de computadores precisa ser feito dessa forma. Pelo preço da taxa de assinatura da rede, do tempo de conexão e de um moduladordesmodulador, poder-se-ia assinar uma dúzia de revistas. Talvez o computador possa funcionar como um substituto vistoso para a palavra impressa. Ele pode manter infinitos bits e bytes de dados saltitando no sistema elétrico da máquina. Mas que tem isso com a reconstrução da democracia?

A biblioteca pública: o elo perdido da era da informação É um fato curioso que a discussão contemporânea da informação toque tão raramente na questão das bibliotecas. Entretanto, as bibliotecas municipais e estaduais representam o melhor serviço de referência e leitura disponível ao público em geral. Uma instituição genuinamente idealista, a biblioteca tem oferecido apoio intelectual a nossa sociedade desde os dias de Benjamin Franklin; na verdade, como conceito, ela se originou na Idade da Razão, que inventou a política democrática, que a Era da Informação deve agora supostamente servir. Talvez a biblioteca tenha se tornado o elo perdido entre o computador e o público, pois nas mentes dos entusiastas da computação ela está demasiado associada ao papel impresso para poder fazer parte da tecnologia que os fascina. Mas o compromisso da biblioteca com os livros dificilmente impede a utilização de aparelhos eletrônicos: grande parte do material que tem entrado nos principais bancos de dados estava anteriormente incorporado aos livros de referência que, há muito, têm sido as ferramentas principais da biblioteca. Da mesma forma, as bibliotecas têm seguido para onde suas fontes de referência tem levado; elas podem utilizar — e utilizam — os computadores, desde que consigam capital para investir na tecnologia. Pode haver outras razões pelas quais os entusiastas da computação tão freqüentemente ignoram a biblioteca. O principal impulso comercial por trás do culto à informação está na venda de computadores. Vendas para bibliotecas contam muito pouco quando comparadas à perspectiva de se colocar um micro em cada residência. Sem dúvida, se os computadores estivessem disponíveis de imediato e gratuitamente na biblioteca, isso poderia dissuadir alguns consumidores em potencial de comprá-los. Também existe a questão da imagem de marketing. O computador pessoal foi vestido como um utensílio opulento da classe média, como a Cuisinart e o aparelho estéreo. Sua utilização em bibliotecas se associa a orçamentos públicos e aquisições eletrônicas, um investimento considerável para servir a uma população de status distintamente inferior. Em sua extensão democrática, a biblioteca contata uma clientela que pode até mesmo incluir os realmente pobres, os quais os negociantes de dados não consideram de forma alguma como consumidores. A indústria de computadores tem dado, de modo significativo, seus produtos como amostras (gratuitas) às escolas, a fim de semear seu mercado, mas nunca às bibliotecas. Talvez haja mais uma razão, um tanto reveladora, pela qual a biblioteca desfrute de tão pouca visibilidade na Era da Informação. Ela é um ambiente de trabalho nitidamente feminino, uma das tradicionais profissões femininas. A biblioteca é estereotipadamente associada a uma certa subserviência meticulosa, correta e feminina, que está atada à antiga cultura dos livros. A high tech lida, ao contrário, com máquinas poderosas que representam investimentos de bilhões de dólares. A high tech é masculina e agressiva: um mundo de empresários envolvidos em altos negócios, executivos afobados e tomadores de decisões a nível mundial. No pano de fundo de curto prazo há inventores inspirados e gênios hackers da tecnologia, também tipos machões. O estereótipo sexual se sobrepõe ao estereótipo de classe da biblioteca, dando uma imagem improvável a um brainstorming futurístico ambicioso. Os futurólogos, por exemplo, que tanto têm feito para popularizar a noção de Era da Informação, não lhe dão atenção alguma.

Tudo isso é triste porque se os serviços de informação computadorizada têm algum lugar natural na sociedade, esse lugar é na biblioteca pública. Lá, o poder e a eficiência da tecnologia podem ser maximizados, juntamente com seu acesso democrático. Ao preparar este livro, eu me vi dependente, em inúmeras questões importantes, dos serviços de referência das bibliotecárias. É uma ajuda que eu, como professor e escritor, durante muito tempo não reconheci, pois ela é tão prontamente acessível e conveniente para o uso, que podemos nem nos dar conta de seu valor. Mas desta vez, já que eu estava envolvido com a crítica do caráter (ethos) e da economia da informação, eu me vi dando mais atenção às bibliotecárias com quem eu trabalhava.10 Em várias ocasiões, elas efetuaram para mim buscas em bancos de dados que geraram uma riqueza de material que eu não teria condições de descobrir sozinho, mesmo com um computador pessoal conectado a uma boa rede. Por um lado, as bibliotecárias tinham acesso a uma quantidade muito maior de bancos de dados do que eu poderia alugar. Por outro, elas eram muito mais hábeis do que eu no uso dos terminais de dados. Elas conheciam os protocolos e as peculiaridades de diferentes serviços de bancos de dados; elas sabiam onde valia a pena tentar e conheciam as melhores estratégias para conectá-los rapidamente. Alguns bancos de dados são de complicado acesso; um amador pode vagar dentro deles durante muito tempo, achando pouca coisa de valor. É necessária experiência de manipulação diária para sair caçando informações do modo correto e nos lugares certos. É uma habilidade especial que poucos usuários de computadores domésticos serão capazes de desenvolver até o nível de velocidade e previsão de uma bibliotecária profissional. As bibliotecárias ainda apresentavam outra vantagem. Em virtude de seu treino e experiência, elas sabiam quando não usar o computador. Como um serviço de informação completamente armazenado, a biblioteca contém uma variedade de livros básicos de referência, que são freqüentemente o melhor, o mais barato e o mais rápido lugar para se buscar um fato. Quanto a isso, as bibliotecárias sabem onde procurar além de seus próprios recursos; arquivos especiais, coleções particulares, autoridades e especialistas na área. A maioria das bibliotecárias tem montado um arquivo de tais recursos, menos visíveis, que levou anos para ser conseguido. Uma inquirição que me foi feita para este livro culminou com um telefonema para o Office of the Joint Chiefs of Staff, em Washington, onde a bibliotecária tinha um contato. Eu realizei pesquisas através de perguntas (por carta ou telefone) efetuadas a agências governamentais não tão acessíveis, jornalistas, pessoas com hobbies específicos e entusiastas. As bibliotecárias sabem o que muitos hackers dedicados querem ignorar: como um instrumento para o processamento de informação, o computador complementa outras fontes, não as substitui. Há nas bibliotecas do país uma rede espalhada pela sociedade, localizada em quase todos os bairros sob os cuidados de pessoas experientes, que sempre valorizaram uma forte

10

Os serviços nos quais eu me detive e que estou utilizando como modelos são SCAN (Southern Califórnia Answering Network), que opera a partir do Los Angeles Public Library Main Branch, e BARC (Bay Area Reference Center, que opera a partir do San Francisco Public Library Main Branch). Ambos excelentes, são projetos custeados pelo governo federal que datam do início dos anos 70; é, na verdade, bom demais para ser verdade constatar que o governo tivesse gasto parte do nosso dinheiro de maneira tão brilhante. Entre os vendedores de banco de dados que assinam essas duas operações, estão NEXIS, Dialog, Bibliotecal Retrieval Service, Orbit, The Magazine Index, Vu-Text e Hispanex. Vendedores desse tipo permitirão o acesso a centenas de bancos de dados; só o Dialog já inclui cerca de 300 bancos, o Orbit mais 200. Essa abrangência de informação e também os custos são muito maiores do que um usuário comum de um computador doméstico poderia suportar. Se operações como SCAN e BARC existissem simplesmente como uma espécie de “vitrina” para se estabelecer um alto padrão profissional de serviço de referência na era do computador, elas teriam valido o investimento público. (N. A.)

ética de serviço público. Se o equipamento para as referências computadorizadas estivesse concentrado em bibliotecas locais ou, por motivos de economia, se cada biblioteca local estivesse ligada a um centro regional de referência, com fundos suficientes, este seria o meio mais barato e rápido para o público em geral ter acesso aos benefícios que a Era da Informação pode oferecer. Os serviços de informação privados com fins lucrativos, baseados em computadores, não são substitutos viáveis para aquilo que a biblioteca pode fornecer como sendo um serviço público de referência, se a ela for dada a chance de mostrar aquilo que pode fazer. Tais negócios simplesmente tiram o serviço do domínio público. Como é doloroso, então, perceber que grande parte do dinheiro, que poderia ter ido para as bibliotecas, na forma de dólares de impostos, foi desviado para a compra de computadores domésticos, uma abordagem que acaba por fazer com que o público compre menor quantidade de informação com seus dólares. Curiosamente, isso repete o padrão econômico que serviu para aviltar a outra grande contribuição de Benjamin Franklin para a democratização da informação: o correio. Também nisso a utilidade pública tem recebido menos verbas, tendo o dinheiro sido desviado para as telecomunicações e sistemas de entrega rápida mais caros do setor privado, todos funcionando principalmente para o benefício de usuários de peso na economia das corporações. Esses exemplos deveriam nos lembrar de que atingir uma maior democracia na Era da Informação é uma questão não só de tecnologia, mas também da organização social desta tecnologia. Se muitas bibliotecas não podem prestar os serviços de informação de primeira classe que gostariam de oferecer, é somente por falta de fundos para fazê-lo. Elas não podem comprar o equipamento, alugar os serviços e contratar o pessoal. Não se deve pensar que o trabalho de referência das bibliotecárias deve-se limitar a assuntos acadêmicos e intelectuais. No decorrer da última geração, muitas bibliotecas públicas ampliaram seus serviços de informação para incluir panfletos e contatos que abrangem uma grande variedade de necessidades sociais da comunidade: assistência legal, direitos dos inquilinos, benefícios do desempregado, treino para a profissão, imigração, saúde, bem-estar e problemas dos consumidores. O objetivo é colocar o público em contato com grupos e agências que podem ajudar em questões diárias da vida e da sobrevivência. Este não é o tipo de informação que se encontra na maioria dos bancos comerciais de dados; enquanto o serviço possa se sobrepor à função de alguns murais eletrônicos, a biblioteca pode tornar a informação acessível àqueles que não podem possuir um computador. Mais um ponto. A biblioteca não existe simplesmente como uma instituição governada e de pertinência social, um verdadeiro serviço de informação do povo; ela tem como funcionários homens e mulheres que têm grande respeito por valores intelectuais. Uma vez que elas também são as tradicionais guardadoras dos livros, as bibliotecárias têm uma noção saudável da relação hierárquica entre dados e idéias, fatos e conhecimento. Elas sabem o que se deve procurar em um banco de dados e o que se deve procurar em um livro. Os computadores poderiam talvez não apenas gerar mais informação para o público; mas é provável que a própria informação permaneça em seu lugar subordinado na cultura.11

11

Para um relato sobre os serviços disponíveis do SCAN, ver Evelyn Greenwald, “Reference Power”, American Libraries, nov. 1984, p. 698.

9. Nas mãos erradas “Considerei seriamente a possibilidade de desistir de minha produção científica por desconhecer uma maneira de impedir que minhas publicações fossem parar em mãos erradas”. Norbert Wiener, outubro 19451

Os fundamentos da tecnologia da informação Até um futuro previsível, é provável que os usos democráticos do computador doméstico permaneçam num estágio rudimentar sobrecarregado pelo custo dos equipamentos e pelos comerciais triviais que rodeiam a tecnologia no mercado. Não há dúvida que os hackers de princípios, que ainda estão entre nós, continuarão a encontrar valiosas aplicações políticas para os computadores; seus esforços merecem ser apoiados. Mas, enquanto isso, fora do pequeno e ainda pouco desenvolvido mundo de redes politicamente relevantes, a economia informacional não se encontra imóvel. Forças mais poderosas, com pouco interesse nos usos comunitários dos computadores, estão trabalhando no sentido de moldar a tecnologia a fim de servir a seus propósitos. O progresso conseguido por elas nessa área não é uma contingência infeliz, algo que poderia não ter acontecido. Ao contrário, as “mãos erradas” temidas (pois podiam capturar os frutos de sua imaginação) por Norbert Wiener são precisamente as mesmas que criaram a cibernética e a teoria da informação. Por essa razão, a apreensão de Wiener, embora moralmente admirável, não era nada realista. Wiener tinha em vista dois abusos da tecnologia da informação: sua exploração militar, como um meio de fazer a guerra, e sua exploração industrial, como um meio de desespecializar e desempregar operários. Wiener, a consciência de uma profissão muito comprometida, fez o que pôde para resistir a esses males; com certeza, tanto quanto se esperaria de um indivíduo isolado. Com relação ao primeiro, recusou-se terminantemente a aceitar qualquer apoio a pesquisas vindo de fontes militares, e exortou os colegas a imitálo, embora sem sucesso. No que se refere ao segundo, tornou-se consultor do movimento operário já em 1950. Naquele ano, escreveu a Walter Reuther, presidente do Sindicato dos Trabalhadores das Indústrias Automobilísticas, chamando-lhe a atenção para “a ameaça iminente da substituição em larga escala de trabalhadores por máquinas”, para a qual a automação certamente contribuiria. Observou que a cibernética no local de trabalho “levaria à fábrica sem operários”, e à conseqüente redução do poder do sindicato. “Não desejo contribuir, de modo algum, para a destruição do trabalho, e tenho consciência de que qualquer trabalho que entre em concorrência com o trabalho escravo, sejam esses escravos

1

Wiener, citado em Noble, Forces of Production, p. 73.

humanos ou mecânicos, deve aceitar as condições de trabalho escravo.” Segundo a sua perspectiva, Wiener enxergou nada menos que as características do “fascismo”.2 Ao se revelarem esses perigos — as aplicações militares e industriais da cibernética — já não eram dois males separados a serem combatidos por frentes de combate separadas. Estavam intimamente relacionados. David Noble, em seu estudo Forças de Produção, afirma que os elevados e contínuos investimentos governamentais na área dos computadores, da eletrônica e da teoria da informação, após a Segunda Grande Guerra, pretendiam alterar radicalmente o sistema industrial norte-americano. Seu objetivo era desenvolver a automação como um modo de compensar a agitação dos trabalhadores e as exigências dos sindicatos surgidos após a guerra. A automação iria “racionalizar” a economia através do fortalecimento do controle da administração, principalmente nas grandes firmas. As técnicas desenvolvidas durante a guerra, especialmente nas indústrias de defesa, para compensar a falta de mão-de-obra especializada, seriam ampliadas a fim de ser criada “a fábrica do futuro”, na qual cada vez menos mão-de-obra seria necessária. Assim, a indústria poderia substituir a força do homem pela força da máquina, disciplinando, desse modo, uma força de trabalho cada vez mais incômoda. Como declarou Charles Wilson (em 1949), da General Motors, vice-presidente do Conselho de Produção de Guerra e mais tarde Secretário da Defesa, os Estados Unidos enfrentavam dois problemas principais: “a Rússia no exterior, os operários aqui dentro”.3 Essa aliança entre militares e industriais, com o objetivo de desenvolver a informática, continua na era da alta tecnologia (high tech). O Departamento de Defesa continua sendo uma das principais fontes de recursos para pesquisa e desenvolvimento, não apenas para sistemas específicos de armas, mas também para promover o uso generalizado de métodos de automação. O programa denominado ICAM (fabricação auxiliada por computadores integrados), iniciado pela Força Aérea em 1979, está entre os mais ambiciosos esforços para introduzir a alta tecnologia com economia de mão-de-obra e capital aplicado de modo intensivo, incluindo a robótica no processo de produção. Trata-se da espinha dorsal de todos os esforços de CAD/CAM (projeto e produção assistidos por computador) na indústria norte-americana. Outros programas de modernização (Techmod e Mantech) são, da mesma maneira, dependentes do dinheiro do Pentágono. Como observa Noble, a respeito da luta contra a investida da automação de alta tecnologia, “o papel dos militares, com ênfase no desempenho e no comando, e não nos custos, permanece fundamental”. Ainda baseada numa visão empobrecida dos seres humanos e numa sistemática negação de seu potencial, a busca do controle total consiste em um esforço ainda mais elaborado e dispendioso para a construção de um aparato lucrativo, militarmente eficaz e tecnicamente elegante, que não dependa da cooperação e dos recursos da massa da população.4 Esta é a realidade da sala da diretoria e do mercado, tão traiçoeiramente obscurecida pelos futurologistas, com sua tagarelice frívola a respeito da “economia informacional”, repleta de dispositivos e mecanismos ocultos que incentivam o consumo, em que, 2

Ver Noble, Forces of Production, pp. 71-76, para uma descrição dos esforços de Wiener para defender a cibernética do mau uso. Wilson, citado por Noble, Forces of Production, p. 21. Ver especialmente seus capítulos 2, 3 e 4 sobre a automação no período imediatamente pós-guerra. 4 Noble, Forces of Production, p. 328. Para uma descrição mais completa desses programas, ver o epílogo de Forces of Production. 3

aparentemente, as condições físicas da vida e do trabalho são tomadas etéreas, numa espécie de Shangri-Lá eletrônico. Sua celebração superficial dessa grande transição, como a dos conservadores e liberais da high tech, que extraem com tanta facilidade palavras excitantes e frases de efeito, leva à omissão das verdadeiras forças e dos motivos subjacentes ao processo econômico. Se desejarmos reconduzir a tecnologia da informação a seus usos mais humanos, deveremos, mais cedo ou mais tarde, enfrentar o fato duro e desagradável de que o computador se presta, com perfeição, à subversão dos valores democráticos. Essa responsabilidade ameaçadora se origina precisamente do que sempre foi anunciado como a maior força da tecnologia: a capacidade de concentrar e controlar a informação. É onde se encontram a eficiência e os prometidos benefícios dos sistemas computadorizados. É isso que endossamos sempre que elogiamos o computador pela rapidez e eficiência de seus serviços. Esse endosso é ainda mais reforçado quando concordamos que, ao executar esses serviços, o computador está se revelando uma “máquina pensante”; na realidade, uma máquina que pensa melhor que o cérebro humano. Como temos afirmado nesse estudo, o culto à informação, que se formou ao redor do computador, baseia-se numa suposição filosófica altamente racionalizada, que ganhou enorme aceitação pública e está ganhando ainda mais à medida que penetra nas escolas e universidades: que a mente humana, em todos os seus aspectos, pode ser completa e perfeitamente descrita pelo modelo de processamento de informações. Historicamente, os primeiros usos importantes desse modelo surgiram durante e logo após a Segunda Guerra Mundial, nas áreas de combate e nas linhas dirigidas à guerra. Desde então, tais aplicações têm se expandido continuamente, primeiramente sob o auspício militar, em um número cada vez maior de áreas de produção e em níveis cada vez mais altos de especialização, de modo que um número cada vez mais elevado de trabalhadores tem sido eliminado da indústria fabril ou — tão grave quanto isso — ameaçado com tal eliminação. O primeiro e mais significativo pensamento processado pelos computadores foi a habilidade dos trabalhadores, o talento de suas mãos, a acuidade de sua percepção, o julgamento de suas mentes. Sempre que isso foi feito o resultado conseguido foi a transferência de poder para os técnicos, gerentes e proprietários. Uma vez que a informática demonstrou sua capacidade de realizar essa transferência, descobriu uma base sólida em nossa economia e conquistou a posição para atrair todo prestígio e dinheiro de que necessitava. Se a ciência da computação não prometesse um belo lucro para os compradores militares e civis, capazes de sustentar seus altos custos de pesquisa e desenvolvimento, não teriam surgido programas de jogos de xadrez, jogos PacMan, banco de dados NEXIS, e Turtle Graphics. Nem as várias profissões e campos de estudo — inteligência artificial, ciência cognitiva, teoria da informação — surgidas com a tecnologia e transformadas em algumas das mais influentes disciplinas dos currículos universitários. Assim, têm surgido cada vez mais aplicações da tecnologia. Algumas, como por exemplo a capacidade de interligação através de redes [networks] e as possibilidades educacionais do microcomputador, foram apoderadas por esperançosos espíritos democráticos, como os hackers guerrilheiros; mas esses usos restritos e marginais do computador são simplesmente reduzidos à insignificância, face a suas aplicações predominantes, muitas das quais põem seriamente em perigo nossa liberdade e nossa sobrevivência.

Segue-se uma breve lista desses perigos.

A máquina da vigilância A invasão da privacidade tem sido a questão social mais discutida e divulgada a respeito dos computadores. Na Europa e nos Estados Unidos há extensivas pesquisas sobre o assunto, algumas delas realizadas por legisladores e fontes oficiais com o objetivo de servirem de base a futuras leis. A despeito dessa preocupação, porém, é óbvio que nenhuma dessas salvaguardas legais dispõe de força confiável. Em sua maior parte são legislações de caráter abrangente, com inúmeras exceções e brechas, e que carecem de meios de execução eficazes. É quase um princípio da natureza: onde a lei procura manter-se passo a passo com a tecnologia essa última vence. É como uma corrida entre um carro de bois e um jato supersônico.5 Em nenhum lugar podemos observar essa discrepância de forma mais dramática do que na área de computadores e das telecomunicações. Em pouco mais de uma geração, a tecnologia de transferência de informação se tornou simplesmente demasiado vasta e dinâmica para poder ser perfeitamente controlada pela lei. Isso não ocorreu somente porque os técnicos se movem tão rapidamente em direções tão diversas, o que já constituiria, por si só, um enorme problema. Há ainda o fato crucial de que seus esforços são alimentados pela sede de lucro e poder daqueles que comandam suas habilidades e produtos [wares]. Nessa área, e em vários outros setores de nossa economia industrial, os usos da tecnologia são moldados pelos valores daqueles que empregam os técnicos e se apropriam de seus produtos. Pode ser que não estejamos vivendo ainda numa sociedade dominada pela economia da informação, termo que sempre teve mais brilho jornalístico que substância social; mas acontece que, dentro de nossa economia, uma indústria de informação de proporções consideráveis cresceu nos últimos vinte anos. É constituída não apenas por firmas de computação e eletrônica que produzem os aparelhos, mas por novas e ambiciosas firmas de prestação de serviços — agências de crédito, administradores de dados, malas diretas, especialistas em marketing e em opinião pública. Esses empreendimentos, por sua vez, ajudaram a criar a nova e promissora profissão de especialistas em sistemas de computação, cuja tarefa consiste em inventar um número cada vez maior de aplicações para a tecnologia da informação, e vendê-los para todos os negociantes que estejam em cena. Em nenhum outro lugar o culto à informação está tão profundamente entranhado quanto nessa fronteira empresarial, altamente competitiva e dinâmica, onde muitas das mais brilhantes mentes jovens de nosso tempo trabalham duramente, negociando a promessa do computador e manobrando inteligentemente seus serviços, a fim de atender qualquer necessidade possivelmente apresentada por uma área ávida de atividades, e geralmente crédula. Grande parte desses acontecimentos foi inevitável; muitas áreas de negócios — bancos, seguros, corretagem, administração pública — trabalham com grandes quantidades 5

Para um exame dos problemas legais e políticos que surgem a partir de formas computadorizadas de vigilância, ver James Rule e outros, The Politics of Privacy: Planning for Personal Data Systems as Powerful Technologies, Nova Iorque, Elsevier, 1980; e David Burnham, The Rise of the Computer State, Nova Iorque, Random House, 1983.

de dados. Mas, por que razão uma companhia telefônica deveria manter registros de todos os números discados por seus assinantes? Apenas porque lhe venderam um equipamento capaz de fazê-lo; assim, registra os números, o que quer dizer que ela terá mais dados para estocar. Hoje em dia, qualquer drogaria ou tinturaria surpreende seus clientes com uma maravilha eletrônica, mistura de caixa registradora, controlador de estoque, verificador de cartão de crédito, aparato bancário e contábil. Emite uma série de bips e, finalmente, apresenta ao cliente uma nota fiscal que mais parece um extrato estatístico. E cada pequena cifra inescrutável ali impressa representa um registro que está arquivado em algum local. O mais rico e mais acessível dos clientes da indústria da informação é sem dúvida — de longe — o governo, o maior dos arquivadores de dados. Cinco das maiores áreas federais (Saúde, Educação, Comércio — que controla o censo —, Defesa, Receita Federal e Previdência Social) possuem entre 2 e 4 bilhões de arquivos superlotados sobre a população norte-americana.6 Manter arquivos não representa nada de novo para os governos do mundo moderno; mas a escala com a qual o Estado documenta a vida de seus cidadãos não tem precedentes. Mais importante: os arquivos mantidos por essas agências já não são separados uns dos outros. Estão sendo interligados através de mais de 300 redes de computadores utilizados pelo governo como parte de seu trabalho de rotina. Essa integração de dados é importantíssima; aumenta exponencialmente a utilidade da informação. No contexto das redes, cada dado pode ter múltiplas conexões, adquirindo, assim, um número imprevisível de aplicações. As redes permitem, e até encorajam, por exemplo, a utilização de “programas de combinação”, capazes de relacionar, digamos, informações sobre impostos e empréstimos estudantis não pagos, ou desembolso com a previdência: uma boa maneira para acabar com as fraudes e sonegações. Além disso, com restrições mínimas e frágeis, todas as informações contidas nos mais de 20 mil computadores do governo federal estão à disposição de agências de segurança federais e locais, que podem fazer inúmeras combinações com dados disponíveis em seus arquivos. Desse modo, um motorista parado por ter uma das luzes do freio queimada poderá ter sua vida vasculhada por uma bateria de bancos de dados integrados, que conterão tudo o que alguém já se deu ao trabalho de arquivar: pensão alimentícia para os filhos, empréstimos não pagos, violações da previdência, etc. Além disso, uma quantidade cada vez maior de informações oficiais é combinada com serviços privados de informação. O Departamento de Comércio costuma vender dados dos censos a companhias de marketing e relações públicas. No governo Reagan, a Receita Federal começou a utilizar bancos de dados particulares, tais como arquivos bancários, a fim de descobrir sonegadores de impostos. Do mesmo modo, desde 1982, a Administração de Serviços Gerais começou a negociar contratos para a troca de registros com agências de crédito particulares, a fim de identificar os indivíduos que deixam de pagar empréstimos federais. Há aproximadamente cem órgãos federais que compartilham, livremente, dados com as sete mais importantes companhias de crédito nas áreas de penhora, empréstimos bancários, registros de divórcios e cartões de crédito.7 Ironicamente, a justificativa para essa integração de dados efetivada pela administração Reagan era que, ao fazê-lo, o presidente 6

Para um estudo do uso do governo ou privado de bancos de dados, ver Scott Winokur, “Nowhere to Hide”, San Francisco Examiner, 7 e 12.10.1984. 7 Relato da Associated Press, “Credit Records Open to U. S. Security Soon”, San Francisco Chronicle, 11.4.1984.

estaria atingindo um de seus principais objetivos ideológicos: tirar o governo das costas do povo. Ã primeira vista, pode parecer inconsistente. Mas não é bem assim. Robert Bedell, chefe interino do Office of Management and Budget, teria dito que o único objetivo do governo era proteger o direito dos cidadãos à privacidade. A sugestão da administração para fazê-lo seria evitar manter informações a respeito dos cidadãos, através da redução do tamanho dos programas do governo. “Não há melhor proteção contra a intervenção do governo na privacidade do que não se ter a informação para começar”.8 São palavras sinistras. Implicam que a única maneira de nos livrarmos do tipo de vigilância e intromissão produzidas pelos programas de combinação do governo é ficar inteiramente fora de seus registros. Em suma, não tente conseguir qualquer assistência por parte do governo. A ameaça implícita pode ser uma maneira extremamente eficaz de acabar com a lista da previdência. Como seria de se esperar, as áreas com maior apetite pela informação são a segurança e o braço regulador de leis do governo. A nível federal, a Agência Nacional de Segurança, cujos orçamentos excedem os da CIA, não apenas opera uma das maiores redes de computação, mas também serve como principal fonte de fundos para algumas das pesquisas mais avançadas na área da eletrônica e de telecomunicações. Por exemplo, é a ANS que está financiando trabalhos pioneiros de reconhecimento de voz por computadores; o que significaria que possui dispositivos capazes de reconhecer termos tais como “bomba” e “assassinato”, ao fazer suas monitorações rotineiras de chamadas telefônicas, uma das principais atividades da agência. Do mesmo modo os deveres da ANS no campo da criptografia levaram-na a investir pesadamente nos super-rápidos interruptores de conexão do tipo Josephson, que poderão vir a substituir os semicondutores. A ANS cooperou para o estabelecimento do programa SEARCH [BUSCA], do FBI: Sistema de Análise e Recuperação Eletrônica da História Criminal [cujas iniciais, em inglês, formam a palavra “busca”], a maior rede de coleta de dados do país, na área de atividades criminais. O SEARCH, por sua vez, incluiu dados no índice Interestadual do Crime Organizado [IOCI, em inglês], um banco de dados recente que, apesar do título, inclui dissidentes políticos. O IOCI é bastante utilizado por funcionários do serviço secreto da polícia e foi envolvido em alguns casos de intromissão extralegal.9 No setor privado, as agências de crédito, com as quais o governo atualmente coopera sob várias formas, tomaram-se, por sua vez, importantes operadores em coleta de dados. Há quase dois mil deles. Os cinco maiores (eles incluem companhias tais como a TransUnion, de Chicago, e a TRW, da Califórnia) possuem aproximadamente 450 milhões de arquivos. Calcula-se que 80% dos norte-americanos de mais de 18 anos se encontram em algum de seus computadores. Alguns desses arquivos incluem entradas sob a denominação “estilo de vida” — hábitos pessoais relativos a bebidas, casamento e divórcio, problemas com a lei, queixas de vizinhos devido a ruídos ou atividades estranhas, tudo o que pode vir a interessar empregadores em potencial, instituições financeiras, senhorios. Os senhorios, em especial, desenvolveram um banco de dados “detetor de ilegalidades”, que mantém registros de todos os processos em tribunais envolvendo indivíduos que tenham tido problemas legais enquanto inquilinos. Esses mesmos arquivos têm acesso aos dados relativos a estilo de vida. Tais informações são especialmente valiosas para a “modelação em bloco”, outra prática 8 9

Citado por Winokur, “Nowhere to Hide”, 7.10.1984, p. 14. Sobre as atividades da NSA, ver Loring Wirbel, “Somebody Isn’t listening”, The Progressive, nov. 1980, pp. 16-19.

que se tomou possível através da integração de bancos de dados. A exemplo da combinação de computadores, os modelos em blocos reúnem informações de várias fontes, impossível antes do advento das redes eletrônicas. Mas a modelação em blocos traz uma nova mudança. Processa a informação através de programas (encontrados sob a forma de software barato e comercialmente disponível) que comparam-no a perfis de personalidade gerais. Tais programas são utilizados, atualmente por empregadores ou senhorios que desejam evitar tipos indesejáveis. A modelação em bloco permite aos usuários fazer um “raio-X” dos inquilinos e funcionários, de maneira a eliminar os criadores de caso e os riscos para o usuário. Não há limite de quantidade para os danos que tais sistemas de combinação e modelação são capazes de absorver. Compreensivelmente, não há quantidade de informações pequena demais para ser absorvida pela tecnologia. Em meados de 1984, o Serviço de Recrutamento das Forças Armadas enviou uma carta a um rapaz de 18 anos, cujo alistamento militar estava atrasado vários meses. Acontece que não havia ninguém com esse nome no endereço para o qual a carta foi enviada. O nome era fictício. Fora inventado aproximadamente sete anos antes por dois adolescentes que preencheram uma ficha em uma sorveteria local, que oferecia lanches gratuitos por ocasião do aniversário de seus jovens clientes. O nome foi para a mala direta computadorizada da loja. A companhia proprietária da loja vendeu, a seguir, sua lista (uma prática comum) a uma das companhias especializadas em mala direta que, por sua vez, colocou-a a disposição do Serviço de Recrutamento das Forças Armadas, que tem como prática rotineira examinar tais listas, precisamente para coletar nomes, endereços e datas de nascimento. Quando chegou a época em que o rapaz fictício faria 18 anos, começou o acompanhamento de seu caso. O computador o fez, gerando a carta de aviso conforme estava programado para enviar.10 À medida que aumenta o número de computadores e redes de computadores utilizados pelo governo, alguns funcionários começam a expressar suas preocupações com a segurança de seus bancos de dados, prevendo a penetração de pessoal não-autorizado. Trata-se mais da preocupação de um ofical da lei do que uma preocupação de cidadão. Assim, como se pode imaginar, a solução governamental para o problema é pouco encorajadora. Nos termos da National Security Directive [Diretriz Nacional de Segurança] de 1985 (nº 145), adotada pela administração Reagan sem prévia consulta ao Congresso, a Agência Nacional de Segurança se tornou a única responsável pelo controle e a utilização de todos os computadores e bancos de dados federais. Os poderes conferidos pela diretriz permitem à ANS ter acesso a todos os arquivos computadorizados do governo, sem que haja a preocupação pela manutenção da privacidade. A diretriz implica, também, que a ANS tem o direito de acesso a todos os bancos de dados particulares ligados a operações governamentais. No final de 1985 isso levou a uma grande investigação por parte do Centro Nacional de Segurança Computadorizada, pertencente à ANS, dos programas de contagem de votos, usados nas máquinas de contagem eletrônicas em vários estados, um procedimento sem precedentes para um serviço militar de segurança.11 Alvin Toffler celebrou o voraz apetite do computador por dados, como a criação de uma “memória social”, que irá, algum dia, nos dar uma “civilização com recuperação e 10 11

O amplo controle de bancos de dados da NSA foi comentado na edição da manhã do National Public Radio, em 1º de julho de 1985. Ver também o relato no New York Times, de 24.9.1985, reimpresso em 25.9.1985, no San Francisco Chronicle, p. 12.

recordação total”. “Uma bomba de informações está explodindo entre nós”, diz ele. Está produzindo uma “infosfera”, que fornecerá à nossa sociedade “a maior e mais bem organizada quantidade de informaçêos sobre si mesma do que qualquer um poderia ter imaginado há um quarto de século atrás”.12 Não há dúvidas de que ele tem razão. Mas sinto dificuldades em compreender seu entusiasmo por essa perspectiva. A maior parte dessa memória social será constituída dos detritos do dia-a-dia, todas as chamadas telefônicas, cheques passados, compras com cartão de crédito, multas de trânsito, passagens de avião. Qual seria sua vantagem para uma cultura sadia e uma política vital? Obviamente nenhuma. Mas há aqueles para quem esse tipo de escória de dados pode ser extremamente valiosa: os abelhudos profissionais, cuja obsessão com a “recuperação total” se origina de uma necessidade desvairada de rastrear o menor movimento dos indivíduos. Um levantamento como esse, de vigilância computadorizada por parte de fontes públicas e particulares implica, inevitavelmente, uma grande quantidade de agências, leis e programas cobertos de estatísticas a respeito de arquivos e registros. Mas não se deve deixar o significado central desses desenvolvimentos se perder no meio dos detalhes. Algo muito grande, novo e ameaçador está permeando nossa vida política. Mesmo tendo sido a “informação” definida ambiciosamente por especialistas e entusiastas, tudo o que os bancos de dados e seus usuários desejam são dados em sua forma mais primitiva: fatos simples e atomizados. Para os bisbilhoteiros, curiosos e intrometidos, a abundância de dados é uma festa, pois lhes dá exatamente o que desejam. Existem para reduzir os indivíduos a esqueletos estatísticos de acesso rápido: nome, número da previdência social, extrato bancário, dívidas, avaliação de crédito, salário, pagamentos à previdência, impostos, número de detenções e mandados importantes. Sem ambigüidades, sutilezas ou complicações. As informações contidas nos bancos de dados se restringem ao mínimo necessário exigido para uma rápida decisão comercial e legal. “Conceder ou não o empréstimo.” “Alugar ou não a propriedade.” “Contratar ou não.” “Prender ou não.” Eis a existência humana perfeitamente adaptada ao nível de números binários: liga/desliga, sim/não. Os novos e “borbulhantes” equipamentos de vigilância com que nos defrontamos não constituem um processo tecnológico de valor neutro; ao contrário, trata-se da visão social dos filósofos do Utilitarismo, afinal inteiramente realizados no computador. Ela produz um mundo sem sombras, segredos ou mistérios, em que tudo se transformou em pura quantidade.

A máquina de pesquisas de opinião Nas eleições presidenciais de 1980, o candidato Ronald Reagan tomou uma firme posição com referência à defesa. Em tons austeros e urgentes, atacou violentamente a ameaça soviética, exigindo expansão militar em ampla escala. Seu oponente tentou usar essa postura para caracterizar Reagan como um fomentador da guerra, e até mesmo como um bombardeador furioso. Foi uma das pequenas manchas na imagem pública de Reagan.

12

Toffler, The Third Wave, pp. 192-194.

A certa altura da campanha, seu modo de lidar com a política externa e de defesa sofreu uma alteração visível. Seu tom se tornou mais calmo e razoável; a palavra “paz” passou a aparecer com maior freqüência em seus discursos; as referências à “guerra” e à “corrida armamentista” se enfraqueceram. Surgiu uma nova frase para representar sua posição com relação aos armamentos, algo brando, evasivo e, aparentemente, prudente: “uma margem de segurança”. O que terá causado essa mudança de tom e de retórica? Foi a resposta a um importante conselheiro da campanha, Richard Wirthlin. A recomendação poderia ter se baseado, como comumente acontece, em puro instinto político, que poderia ou não persuadir o candidato e muitos de seus outros conselheiros. Os políticos estão sempre trabalhando com rumores, adivinhações, palpites, bom senso já testado e ousadia. Nesse caso, porém, a recomendação de Wirthlin se baseou em algo mais: em números, em pilhas de números. Surgiu a partir de uma coletânea de pesquisas nacionais de opinião pública. Wirthlin era uma autoridade em estatística. Isso deu a suas recomendações a aparência de algo diverso da adivinhação. Pareciam científicos.13 No final da década de 60, Wirthlin, ex-economista da Universidade Brigham Young, em Utah, abriu uma firma de pesquisa de mercado no Sul da Califórnia, chamada Decision Making Information — DMI [Informação para a Tomada de Decisões]. A exemplo de muitas outras firmas que medem o gosto dos consumidores, a DMI logo entrou no campo das pesquisas políticas, tendo sido contratada originalmente por Ronald Reagan para coordenar sua campanha ao governo da Califórnia, em 1970. A DMI proporcionava os serviços usuais: levantamento dos eleitores, amostragem, simulações. Esse malabarismo estatístico é utilizado para supostamente descobrir os pontos fracos e fortes dos candidatos — em quais regiões, entre quais grupos étnicos, faixas etárias, classes sociais — passando a dirigir, então, suas campanhas de acordo com esses resultados. As pesquisas podem também identificar os assuntos que mais interessam aos eleitores, suas preferências e o que os desagrada, e indicar quais candidatos ou idéias políticas conseguiram melhores ou piores resultados no passado. John Kennedy foi o primeiro candidato do país a dar importância à utilização das pesquisas de opinião. Foi em 1960; contratou o pesquisador Louis Harris, que depois veio a se tornar um especialista independente. No final da década de 70, todos os candidatos sérios para cargos eletivos que podiam pagar estavam seguindo a idéia de Kennedy; o estilo de campanha que prevalecia era o de pesquisas dispendiosas de opinião, combinadas com um grande número de aparições nos meios de comunicação de massa. Nessa época, porém, as figuras mais destacadas e bem remuneradas da área, como Wirthlin, tinham se transferido para novas alturas de precisão estatística. A DMI desenvolveu importantes ligações. Seus clientes agora incluíam agências federais tais como Serviços Humanos e de Saúde [Health and Human Services], Ministério do Trabalho [Department of Labor], e Ministério da Educação [Office of Education]. Por sua vez, a firma tinha acesso a aproximadamente 40 bancos de dados federais, cujas informações se tornaram disponíveis ao público. Wirthlin, com uma grande estrutura de suporte — por volta de 300 funcionários — era capaz de mobilizar todos esses dados com a ajuda de um intrincado método de computação 13

Para uma descrição (algo exagerada) dos serviços de Richard Wirthlin na campanha de Reagan, em 1980, ver Roland Perry, Hidden Power, Nova Iorque, Beauford Books, 1984. As linhas gerais da narrativa de Perry são confirmadas pelo relato “The Marketing of a Candidate”, Advertising Age, 15.12.1980.

denominado PINS (Political Information Service, ou Serviço de Informação Política). Conseguira reunir os mais ambiciosos serviços de simulação e amostragem eletrônica já desenvolvidos, criando um novo padrão para a profissão. Suas pesquisas telefônicas — que incluíam entrevistas previamente gravadas e automatizadas — eram as maiores, mais completas e constantes. Desenvolveu técnicas de “rastreamento”, que envolviam entrevistas telefônicas noturnas com um número entre 500 e 1000 eleitores escolhidos ao acaso. Havia até mesmo dispositivos que permitiam ao entrevistador entrar com as respostas diretamente nos computadores, garantindo resultados em milésimos de segundo. Os programas de computação e as entrevistas cuidadosamente preparadas por Wirthlin, que dividiram a população norte-americana em 108 categorias demográficas, eram perfeitamente capazes de isolar qualquer item da plataforma do candidato, ou de sua imagem pessoal — “o fator bom moço”, “o fator maldade”, “o fator perigoso e negligente” — avaliando rapidamente sua “tendência” a flutuações em grupos específicos de eleitores, fornecendo reações imediatas a um discurso, debate, entrevista coletiva, e até um comentário extra-oficial. A mesma pesquisa refinada podia ser utilizada para avaliar o progresso da oposição, e a campanha podia ser ajustada aos números conseguidos: mais disso, menos daquilo, mais pressão aqui, deixar tal coisa pra lá, sorrir mais, manter o perfil esquerdo voltado para a câmera.14 A cada eleição, cresce a influência e a visibilidade dos pesquisadores de opinião pública. Alguns deles, como Wirthlin e Patrick Caddell, assumiram um grande status pessoal aos olhos do público, como pertencentes a uma nova geração de estrategistas políticos. Tendo aperfeiçoado as simulações e as pesquisas de opinião pública até conseguir uma beira metodológica refinada no mercado, podem empregar esses conhecimentos para vender candidatos da mesma maneira como venderiam quaisquer outros produtos. O segredo de seu sucesso está na mística da informação computadorizada, sua capacidade de gerar e lidar com grandes quantidades de dados, fazendo surgir “números confiáveis” sobre qualquer assunto, idéia política, incidente, gesto, mudança de discurso. Wirthlin, por exemplo, foi capaz de apresentar a seu cliente presidencial uma quantidade atordoante de dados computadorizados. Na época da eleição, em 1980, seu programa PINS já rodara mais de 400 simulações baseadas em cada uma das combinações e suposições possíveis sobre quais as atitudes que o candidato Reagan deveria tomar. Após a eleição, os serviços de um pesquisador de opinião pública não precisam, necessariamente, ser encerrados. Wirthlin continuou na folha de pagamento da administração Reagan após a vitória do candidato, continuando a fazer pesquisas de opinião pública e dando conselhos a um custo aproximado de um milhão de dólares anuais. Os pesquisadores de opinião estão disponíveis a qualquer um que possa custear o trabalho; têm sido utilizados por grupos de todas as tendências políticas. Mas, obviamente, preferem aqueles que pagam mais pelos melhores serviços. Congressistas que têm acesso a computadores financiados pelo governo e gozam do direito à postagem gratuita também têm sua vez. Esse privilégio pode ser vantajosamente combinado com os serviços de uma 14

Para discussões dos métodos de Wirthlin, ver Mark Levy, “Polling and the Presidential Election”. Annals of the American Academy of Political and Social Sciences, mar. 1984; e o próprio relato de Wirthlin da campanha de 1980, “A Estratégia Republicana e Suas Conseqüências Eleitorais”, em Party Coalitions nos anos 80, Seymour Lipset (org.), São Francisco, Institute for Contemporary Studies, 1981. A respeito das eleições em geral, ver Dom Bonafede, “Campaign Pollster — Candidates Won’t Leave Home without Them”, National Journal, 26. 5.1984; Bruce E. Altshuler, Keeping a Finger on the Public Pulse, Westport, Conn. Greenwood Press, 1982; e Steven J. Rosenstone, Forecasting Presidential Elections, Yale University Press, New Haven, 1983.

nova mina de ouro no negócio da informática: as malas diretas. São as pessoas que correm atrás das pilhas de correspondência inútil que soma, nas caixas de correio norte-americanas, aproximadamente 10 milhões de unidades diárias. Os proprietários de malas diretas negociam listas. Acumulam listas computadorizadas de nomes e endereços de centenas de fontes, para depois analisá-los e refiná-los, de modo a atingir populações específicas para publicidade, levantamento de fundos, campanhas políticas. As maiores firmas nessa área (a Metromail, de Lincoln, Nebraska; a R. L. Polk Company, de Detroit; a Donnelley Marketing Service, de Stamford, Connecticut) rotineiramente fazem a entrada em seus computadores de listas telefônicas, listas de endereços, registros municipais, dados sobre veículos, integrando essas informações com os recenseamentos e os CEPs. Como resultado, 70 das 85 milhões de residências norte-americanas se encontram em arquivos para serem selecionadas por malas diretas adequadas. Será que os pesquisadores fazem tanta diferença assim para os candidatos? É claro que eles são especialistas em vender seu próprio trabalho e, portanto, como se pode imaginar, prontos a afirmar que nenhum candidato poderá prescindir deles — embora (obviamente) pelo menos metade dos candidatos que concorrem a cargos eletivos, mesmo com sua ajuda, serão derrotados. Mas a questão é muito mais ampla. O que importa é que os candidatos “acreditam” que esses pesquisadores fazem diferença e planejam suas campanhas com base na informação computadorizada. Como resultado, temos um estilo melancólico de política, cada vez mais calcado na imagem, em slogans, mistificação retórica — na verdade, ao estilo mercenário de uma feira livre. Em todo caso, os políticos são sempre vítimas desse vício nos Estados Unidos, mas os pesquisadores somente aumentam a corrupção ao afirmarem que são capazes de manobrar seus candidatos com uma precisão milimétrica. Não há dúvidas de que grande parte das recomendações desses pesquisadores não passa de baboseira: discussões banais a respeito de percepções efêmeras do público, projeções ilusórias, invenções estatísticas. É óbvio que nenhuma das informações pode ser superior às suposições que a programam. Mas trata-se de uma baboseira expressa em quantidades intrincadamente combinadas e recémsaídas do computador. Tais “demografias” — ou melhor ainda, “psicografias”, uma nova moda das relações públicas cujo propósito é integrar valores e aspirações quantificadas dos consumidores/eleitores — chegaram a gozar da mesma credibilidade entre os políticos, que os spreadsheets para a comunidade financeira. Os números promovem a magia. Fazem “parecer” que os pesquisadores sabem do que estão falando, e estes tratam logo de assumir um ar científico intimidatório. “Sou, em primeiro lugar, um cientista”, diz o pesquisador de opinião Jonathan Robbin. “Essa é a minha vocação. Sendo cientista, isso quer dizer que me interesso pelos problemas de medições e interpretações, e pelo entendimento de como as coisas funcionam”. Robbin é o inventor de um método de marketing baseado na computação, método esse denominado Geodemographics, baseado em códigos de endereçamento postal e estatísticas sociais. Realizou pesquisas de opinião pública para a Sears, a General Motors, o Exército, e para sindicatos de trabalhadores durante as eleições.15 Na verdade, é possível que algumas vezes haja alguma eficácia sutil nas recomendações desses especialistas, como indivíduos experientes que são a respeito do nível de mediação dos meios de comunicação nas instáveis preferências do público, nos 15

Robbin, citado em Burnham, The Rise of the Computer State, p. 90, faz uma descrição iluminadora de como um sindicato de trabalhadores utilizou a técnica de Robbin para derrotar certas leis.

caprichos, nos preconceitos, e nas inseguranças. Afinal, suas técnicas de marketing realmente são bem sucedidas na venda de inúmeros artigos inúteis, de que o público nunca soube que necessitava. Falando ainda mais claro: existe um pesquisador de opinião pública, Richard Wirthlin, que conseguiu tomar Ronald Reagan presidente. Qualquer técnica que consiga fazer um vencedor a partir de material tão improvável, certamente parecerá impressionante para os outros indivíduos da área. Como geralmente acontece quando os estritos poderes mecânicos do computador são aplicados a um problema complexo, o sucesso resultante advém principalmente da maneira de dissociar os componentes da tarefa em elementos menores, ou seja, em algo que o computador seja capaz de fazer — e, a seguir, fazer bastante barulho para abafar as reticências. Aquilo que os pesquisadores mostram como resultado de seus métodos provém de um drástico aviltamento do processo democrático. Na verdade, desviam a atenção dos temas importantes, transformando o debate e o julgamento eleitoral em um jogo estatístico vazio. Este, obviamente, é o melhor uso que eles podem fazer de seus computadores: pesquisas que mostram quem está “na frente”. Não apenas no sentido geral, mas através de medidas cada vez mais meticulosamente refinadas: dentro desse grupo, naquela área, neste tema. E pesquisam repetida e elaboradamente — até mesmo diariamente. O resultado é uma avalanche estonteante de números revelados ao público sob o rótulo de notícias “importantes”. Nesse caminho, os pesquisadores são seguidos pelos meios de comunicação, também altamente informatizados. Assim, os levantamentos, as pesquisas de opinião, as simulações são combinados, comparados e debatidos. Confronta-se um pesquisador com outro, um computador com outro — como se o tema principal da eleição fosse a credibilidade das pesquisas. Isso nem chega a ser política reduzida ao nível de corridas de cavalos; é um concurso entre os book-makers para comparar suas “barbadas”. Na década passada, à medida que os computadores foram se tornando cada vez mais eficientes e importantes, desenvolvemos uma cultura popular obcecada por classificações e avaliações. Até mesmo os concursos de beleza atuais são elaboradamente tabulados em programas esotéricos que fazem piscar os totais nas telas dos aparelhos de TV a cada segundo. Os esportes e o atletismo se tornaram um mar de estatísticas instantâneas. Os jornais apresentam as últimas audiências dos programas de televisão; filmes e discos são classificados pelas vendas semanais. No mundo dos negócios vemos cartazes diários de desempenho das companhias. Era inevitável que esse espírito de competição quantitativa tomasse conta dos políticos. Nas recentes eleições norte-americanas, a principal questão, arduamente discutida, tanto nos meios de comunicação quanto nos escritórios eleitorais dos candidatos, tornouse: “quem está ganhando?” Quem está ganhando na Califórnia... na Flórida... entre os cidadãos mais idosos... entre os yuppies... entre os operários das várias etnias. A campanha em si, medida por essas coordenadas, toma-se uma preocupação obsessiva entre comentaristas e especialistas — não os temas para os quais a campanha presumivelmente serve como veículo. Essas questões são, afinal, matéria de julgamento subjetivo. Mas a situação das campanhas, refletida nas pesquisas, é uma questão de números sólidos, e números sólidos permitem fácil avaliação. Um candidato se torna uma “boa” escolha se estiver “na frente”; uma má escolha se estiver “atrás”. Candidatos “à frente do bolo” são tratados com a deferência e a admiração reservadas aos vencedores; suas campanhas estão em “boa forma”. Candidatos “longe do bolo” estão “em dificuldades”. Têm a aparência de perdedores e são tratados com perceptível ceticismo. Suas campanhas estão

“desordenadas”, “caindo aos pedaços”, “quase perdidas”. Um ponto conseguido num debate é “bom” se conseguir altos pontos nas pesquisas do dia seguinte, mesmo que não tenha passado de uma piada ou de uma resposta inteligente. Um ato falho, uma exibição de humor ou fadiga pode ser um “erro”; é logo identificado como um item importante nas pesquisas. Será que “prejudicou” sua posição? Será que o candidato poderá “recuperar-se” e “alcançar” os outros? Os eleitores são encorajados a prestar muita atenção à aparência e à fala dos candidatos. Eles parecem relaxados, sob controle, ansiosos? Eis as trivialidades transitórias registradas pela pesquisa de opinião computadorizada. Não têm qualquer relação com idéias e convicções; o conhecimento desses aspectos não encoraja idéias e convicções. São meros reflexos verbais a níveis elementares, trejeitos emocionais efêmeros. Mas, uma vez que as incertezas são coletadas, somadas, computadas, impressas, assumem a autoridade de números exatos. Os meios de comunicação os divulgam solenemente. O público e os candidatos lêem os números e os avaliam. Eruditos tiram conclusões sérias. Cada vez mais, porém, o que está ocorrendo é que os indivíduos estão reagindo à pesquisa em si. As pesquisas estão medindo as pesquisas. Nada disso acaba quando as eleições chegam ao fim. Continua, agora, como Uma atividade profissional em período integral. Em cada questão que surge, em cada incidente que se noticia, as opiniões do público são aferidas. Esse público fica sabendo que outros indivíduos desse mesmo público “aprovam” ou “desaprovam”, “gostam” ou “não gostam”. Somos encorajados a acreditar que política significa “opiniões” — não a “formação” de opiniões, mas apenas sua tabulação. Isso pode ganhar a aparência de algo extremamente democrático. Afinal, “todo mundo” tem uma opinião, e não é verdade que uma opinião vale tanto quanto a outra? Se souber fazer a pergunta certa, você poderá reduzir a resposta a um simples sim Ou não. Todo mundo sabe dizer sim ou não. O que torna válida uma opinião? O ato da pesquisa em si, que funde todas as opiniões, conta-as, e depois as divulga como descobertas significativas para a consideração do público. O eleitorado é colocado na posição absurda de espectador da previsão de seu próprio comportamento político. Talvez algum dia um escritor com o intrincado toque surrealista do argentino Jorge Luis Borges escreva uma história a respeito desse estado de coisas. Começará com uma pesquisa que pergunta se o público aprova a maneira pela qual as pesquisas vêm lidando com a taxa de aprovação do presidente. A seguir, haverá uma pesquisa para medir as opiniões do público sobre aquela pesquisa. Depois, haverá uma pesquisa sobre a pesquisa sobre a pesquisa. Finalmente haverá uma eleição em que o público votará na pesquisa que lhe parecer refletir mais precisamente as opiniões do público. Política na Era da Informação.

A máquina de guerra Se a medida da força política se encontra na magnitude das decisões que se toma, então podemos estar a um passo de entregar ao computador a autoridade suprema de governo de nossa sociedade. Tanto nos Estados Unidos quanto na União Soviética, o controle sobre o arsenal termonuclear é cada vez mais depositado em sistemas computadorizados,

juntamente com panoramas programados que determinam como, quando e onde tal arsenal deve ser utilizado. Isto representa nada menos que o poder sobre nossa vida e morte coletiva. Na conferência anual realizada em São Francisco no outono de 1984, recomendouse insistentemente que os membros da Association for Computer Machinery [Associação dos Equipamentos de Computação] — a mais antiga sociedade ligada à computação nos Estados Unidos — fizessem uma reflexão crítica a respeito do papel de suas profissões no sistema de “desencorajamento” do país. Foi-lhes dito: “Não podemos ignorar o fato de que a tecnologia da informação tenha tanta importância nas forças nucleares quanto a tecnologia da física nuclear ou dos foguetes. Nós também projetamos os equipamentes de guerra nuclear. O que significa que temos uma enorme responsabilidade moral”.16 Na mesma época, no outono de 1984, um grupo ativista denominado Computer Professionals for Social Responsability [Profissionais da Computação por uma Responsabilidade Social], com sede na península de São Francisco, dava uma importância ainda maior a essa ameaça. Sua preocupação era o conceito estratégico chamado launch on warning (LOW) — lançamento baseado em informação — que constitui o lançamento préprogramado de mísseis termonucleares, como os Minuteman e os MX, quando os computadores recebem informações indicando um “possível” ataque soviético. Na hipótese de tal ataque estar em andamento, o tempo hábil de resposta por parte dos Estados Unidos seria tão restrito que os mísseis teriam que ser lançados o mais cedo possível. Caso contrário, seriam destruídos em seus próprios silos. Mísseis de submarinos soviéticos ao largo da costa norte-americana podem atingir alvos como Washington e Nova Iorque em aproximadamente seis minutos; bases terrestres vulneráveis mais no interior, em menos de meia hora. Não haveria tempo para assegurar uma decisão presidencial. Como dizem os militares, com relação aos mísseis tipo MX: “Vamos usá-los ou perdê-los”. O Ministério da Defesa jamais admitiu ter uma política de LOW. Mas essa, se existisse — assim afirmam os Profissionais da Computação por uma Responsabilidade Social — seria uma clara violação da Constituição, que reserva a autoridade de fazer a guerra ao presidente e ao Congresso. O LOW significaria que os poderes para fazer a guerra teriam sido delegados às máquinas, ou melhor, aos programadores anônimos não-eleitos que teriam criado o software para o sistema de deterrence* com a decisão de lançar as armas mais destrutivas entre as já criadas. Em junho de 1984, os membros do PCRS entraram com uma ação judicial no supremo tribunal federal, exigindo que os ataques nucleares acionados automaticamente por computadores fossem declarados inconstitucionais. (O caso foi rejeitado).17 O Pentágono afirma que os Estados Unidos não possuem a habilidade necessária para um LOW. Mas essa pode ser apenas uma contingência temporária da situação militar nacional. No período entre 1985 e 1990, o Departamento de Defesa estará ganhando 600 milhões de dólares numa iniciativa estratégica computadorizada altamente apregoada, que terá como objetivo explorar os usos militares dos mais avançados sistemas de computação, 16

Ver o relato “Nuclear War and the Computer”, Datamation, fev. 1984, pp. 50-51, e em New Scientist, Londres, 25.10.1984. Desencorajamento, inibição. (N. T.) 17 Ver o relato em New Scientist, Londres, 25.10.1984, p. 7. Ver também artigo no San Francisco Chronicle, 11.7.1985, p. 17. Aparece um item sobre a responsabilidade social dos profissionais do computador em Datamation, fev. 1984, pp. 58-60, e uma discussão de uma ação judicial aparece em Laura Fraser, “Can a Computer Declare War?”, This World Magazine, San Francisco Chronicle, 24.11.1985. p. 19. *

com vistas a criar armamentos totalmente automatizados, possivelmente incluindo suplementos no sistema de deterrence. As armas já não são chamadas de “inteligentes”, mas de “brilhantes”.18 A computação estratégica é a resposta americana à pesquisa japonesa na chamada tecnologia da computação de quinta geração. Pelo que se sabe, os japoneses decidiram repensar radicalmente os projetos de seus computadores, de modo a integrar várias formas de inteligência artificial, principalmente sistemas especializados. A tecnologia norte-americana, baseada na IA (inteligência artificial), terá que processar milhões de vezes mais dados, em programas muito mais complicados que qualquer um entre os atualmente existentes. A agenda do Pentágono inclui itens tais como os tanques robotizados e um completo “sistema de gerenciamento de batalha” montado a bordo de um porta-aviões. Ambos terão capacidade para agir com autonomia, sem a intervenção humana. Poderão ver, ouvir, falar e fazer julgamentos baseados na previsão de “eventos prováveis”. Os militares prometem que as pesquisas para esses sistemas de armamentos trarão lucros ilimitados. O Departamento de Projetos de Pesquisa de Defesa Avançada convenceu o Congresso de que “as aplicações comerciais domésticas dessa nova tecnologia certamente completarão a transformação da sociedade norte-americana em uma sociedade da era da informação”.19 Pesquisas desse tipo certamente se intensificarão, à medida que os Estados Unidos desenvolverem seu sistema de defesa estratégica, o projeto “Guerra nas Estrelas”. Essa defesa antimíssil estaria baseada em múltiplos sistemas de computação de uma complexidade estonteante, que deveriam operar em combate (sem testes prévios significativos além das simulações realizadas pelos próprios computadores), sem a supervisão humana. O Secretário da Defesa, Caspar Weinberger, descreveu a tarefa do SDI (com otimismo) como a capacidade de “identificar, rastrear e destruir, com segurança, vários milhares de alvos em curtíssimo espaço de tempo”. Curtíssimo, quanto? Mais ou menos dois ou três minutos. Os programas que controlam a interação de tecnologias tão avançadas (em sua maioria, ainda não inventadas) terão que prever centenas de contingências de combate, que poderão surgir no calor da batalha: táticas de evasão, falhas no equipamento, acidentes, variações climáticas. Nenhum cérebro humano seria capaz de processar tantas informações com suficiente rapidez. Estima-se que os programas do SDI terão dezenas de milhões de linhas de código — mil vezes mais que os mais complexos programas atualmente existentes. Exigiriam equipes de programadores trabalhando durante anos.20 Mesmo sem o SDI, a dependência dos militares aos computadores é enorme. A estratégia de deterrence nuclear do Comando Aéreo Estratégico é controlada pelo maior complexo de telecomunicações e processamento de informações do mundo: o Worldwide Military Command and Control System — WIMEX — [Sistema de Controle e Comando Militar Mundial]. Trata-se de uma rede mundial de sensores, satélites e sistemas de computadores que ligam 26 importantes centros de comando norte-americanos localizados 18

Sobre a Strategic Computing Initiative, ver artigos em New York Times, 18.6.1984, p. 17; 23.10.1984, p. C-l; e Washington Post, 4.11.1983, p. 1, e 5.9.1984, p. F-l. Ver também “Military Computing: DARPA'S Big Push in AI”, Datamation, fev. 1984, pp. 48-50. 19 Congresso dos EUA, House Appropriations Committee, Department of Defense Appropriations para 1985, p. 5, 98 Congr., 2 sess., p. 495. 20 Sobre a iniciativa de defesa estratégica, ver Jonathan Jacky, “The Star Wars Defense Won’t Compute”, Atlantic, jun. 1985, pp. 18-29; Jeff Hecht, “Star Wars: An Astronomical Bribe for Scientists”, New Scientist, Londres, 20.6.1985, pp. 14-18; “Reagan’s Star Wars”, relato da Union of Concerned Scientists, New York Review of Books, 26.4.1984, pp. 47-52.

em várias partes do mundo. Desde meados da década de 70, o WIMEX tem sido objeto de críticas insistentes e freqüentes, devido a suas inúmeras vulnerabilidades, que incluem algumas duvidosas compras de equipamentos de computação originais.21 As dúvidas têm bastante fundamento; o sistema passou por repetidos problemas de mau funcionamento. Em 1977, durante um teste mundial, mais de 60% das mensagens deixaram de ser transmitidas. Durante um período de 18 meses, no final da década de 70, a Defesa Aérea NorteAmericana relatou 150 alarmes falsos “graves”, quatro dos quais resultaram no funcionamento dos motores por parte de tripulações de bombardeiros B-52; grupos de mísseis e comandantes de submarinos entraram em alerta máximo. A maior parte desses erros foram devidos a identificações impróprias nos radares, ou a peças defeituosas, muitas vezes componentes eletrônicos de baixo custo. Em certa ocasião, em novembro de 1979, uma fita de treinamento de ataque simulado soviético.foi rodada por engano e foi lida pelo sistema como um alerta real. Todas essas crises foram, no final, resolvidas pela intervenção dos comandantes militares, que simplesmente sabiam que aquilo tinha de ser um engano. Felizmente, eles tiveram tempo — ao menos vários minutos — para pensar, com suas lentas mentes humanas, e interromper o alerta. Mas, à medida que o tempo de resposta permitido pelos armamentos diminuir, o sistema terá que se tornar cada vez mais sensível e autônomo. Atualmente, o local-chave para a automação militar avançada não é o sistema de mísseis intercontinentais do país, mas o mais limitado cenário europeu. Ali, a nova geração de mísseis soviéticos de médio alcance e os mísseis norte-americanos Pershing II e Cruise estão instalados a poucos minutos de vôo uns dos outros. Em ambos os lados, as armas são dotadas de capacidade de primeiro ataque, o que significa a precisão ou a indetectabilidade necessária para destruir os armamentos do inimigo, através de um ataque antecipado. A situação é tão delicada que, atualmente, o Pentágono está procurando desenvolver um sistema especializado de inteligência artificial que possa assumir controle total dos armamentos. O projeto foi contratado com Sistemas de Defesa TRW, da Califórnia.22 Os estudos de exeqüibilidade realizados pela TRW partem da abordagem que se tornou comum no projeto de sistemas especializados: examina a maneira pela qual os especialistas agem, ou seja, nesse caso, os generais fazendo a guerra. Generais de inteligência superior são identificados; sua “capacidade de julgamento” é, então, traduzida em um programa de computador, da mesma maneira que a experiência de vários bons médicos poderiam ser compilados em um sistema especializado em diagnósticos médicos. Há uma diferença, claro. Nenhum general jamais enfrentou uma guerra termonuclear, quanto mais saiu vencedor de uma delas. Então, onde são encontrados tais “especialistas”? São selecionados por seu desempenho em jogos de guerra, simulações computadorizadas de batalhas, supostamenté baseadas na concepção não especializada de um indivíduo qualquer, do que seria uma guerra termonuclear. Assim, os programas de computação desse sistema especializado não serão baseados em experiência exaustivametne testada, mas em avaliações feitas por outros programas de computação. O objetivo de pesquisas como essas (nas palavras do Departamento de Defesa) é atingir “veículos terrestres, marítimos e aéreos, completamente autônomos, capazes de 21

Sobre o WIMEX e os problemas de computador, no que se refere aos primeiros sistemas de aviso dos EUA, ver Daniel Ford, The Button: The Pentagon's Strategic Command and Control System, Nova Iorque; Simon & Schuster, 1985. 22 Ver “General Computer Takes Charge”, New Scientist, Londres, 21.4.1983, p. 153.

extensas e complexas missões de reconhecimento e ataque. Em comparação com os computadores anteriores, a nova geração exibirá inteligência semelhante à humana para planejamento e raciocínio”.23 A tecnologia da informação é a filha da necessidade militar; tem feito parte da máquina de guerra desde o início, quando os primeiros computadores primitivos foram utilizados, durante a Segunda Guerra Mundial, para auxiliar a balística e a artilharia nos cálculos da bomba atômica. Tal ligação permanece. Nos Estados Unidos, o projeto mais ambicioso de pesquisa e desenvolvimento é a nova Companhia de Microeletrônica e Informática [Microelectronic and Computer Technology Corporation], em Austin, Texas.24 Trata-se de um consórcio de doze companhias que viola claramente as leis antitruste. Se o Departamento de Justiça permite sua sobrevivência, é graças à intervenção do Pentágono, que criou e, em grande parte, banca a operação, com o propósito específico de explorar as aplicações militares dos computadores. Como observa Jonathan Jacky, “O Departamento de Defesa está atualmente subordinando tão completamente a ciência da computação às necessidades militares quanto a física nuclear, a astronáutica, e a balística de foguetes estavam subordinadas nos anos 40”. Ele calcula que, até 1990, o Pentágono estará gastando mais de 30 bilhões de dólares anuais somente na produção de software, o que corresponde a 10% do orçamento da defesa.25 Não há dúvida de que qualquer fã dos computadores consideraria os video games tais como “Invasores do Espaço” como estando entre os usos mais triviais dessa espantosa tecnologia que simula tão perfeitamente a inteligência humana. Mas há uma estreita correlação entre esses divertimentos infantis e as mais audaciosas extensões da informática, encontradas no SDI. Essa correlação consiste na psicologia de intimidação do guerreiro, a fundação chauvinista do sistema de nação-Estado. Essa fascinação pela violência humana aparece primeiramente nas brigas de rua entre adolescentes, das quais sabemos que eles vão logo se cansar. Mas muitos garotos nunca crescem; sua paixãò pela luta simplesmente se toma mais disciplinada, mais organizada. E, afinal, os bobocas do mundo inteiro presentearam os meninos-soldados com o maior de todos os palcos de video games — o planeta Terra. Graças às velocidades espantosas das armas modernas, as últimas tentativas de restrição à guerra termonuclear estão caindo por terra. Em pouco tempo, os resíduos de medo, pena, compaixão e indecisão, que devem sobreviver nas almas dos soldados, serão também eliminados. Os armamentos estarão totalmente sujeitos a máquinas, cuja inteligência artificial será uma caricatura unidimensional e insensível da vontade militar. A honra, a audácia, o heroísmo pessoal, as únicas qualidades redimíveis da vocação militar não mais existirão. O ato de guerra mais decisivo e concebível será expresso por uma lógica de números processados fria e prontamente pelas inescrutáveis células de silício de uma máquina.

23

Relato DARPA, Strategic Computing, citado por Jacky, “The Star Wars Defense Won’t Compute”, p. 20. Ver John Lamb, “Defense Men Take Control of America's Computers”, New Scientist, Londres, 26.5.1983, p. 526. 25 Jacky, “The Star Wars Defense Won’t Compute”, p. 26. 24

Machine à gouverner Já em 1950, quando o “computador ultra-rápido” não passava de um monstro desajeitado, Norbert Wiener especulava a respeito das eventuais aplicações sociais e políticas da cibernética. Propôs a seguinte questão: “Não se poderia imaginar uma máquina que coletasse esse ou aquele tipo de informação, como por exemplo, informação sobre produção e mercado, e depois determinar, como função da psicologia média dos seres humanos e das quantidades passíveis de medições em determinadas circunstâncias, qual seria o mais provável desenvolvimento da situação? Não se poderia conceber um aparato estatal que cobrisse todos os sistemas de decisões políticas...? Podemos sonhar com o momento em que uma machine à gouverner passe a substituir — bem ou mal — a óbvia inadequação atual da mente quando se trata do último caso, ou seja, a costumeira máquina política”.26 Quando essas palavras foram escritas, talvez tenham sido consideradas ficção científica. Até mesmo entre os especialistas em cibernética, teria havido poucos a acreditar que assuntos que apresentavam complexidade moral referente a conflitos internacionais ou a planejamento econômico poderiam ser eventualmente confiados à inteligência artificial. O próprio Wiener, após considerar a possibilidade sob vários ângulos, encerrou a questão com o seguinte alerta: Pobres de nós se a ela confiarmos nossas decisões, a menos que tenhamos examinado previamente as leis de sua atuação e tenhamos pleno conhecimento de qual seria sua conduta, com base em princípios por nós aceitos! Mas a reserva de Wiener não era compartilhada por todos os seus colegas, principalmente não por aqueles que estavam ocupados abrindo os campos da inteligência artificial e, mais tarde, da ciência cognitiva. Já em 1960, Herbert Simon esperava confiante pelo dia “daqui a menos de vinte e cinco anos” no futuro, em que “teremos a capacidade técnica de substituir máquinas por todas e quaisquer funções e organizações humanas”, inclusive aquelas que requerem “emoções, atitudes e valores”.27 Essa previsão, a exemplo da maioria das autopropagandas oportunistas, originárias da comunidade da inteligência artificial, obviamente não se tornou realidade; sua realização não está à vista. Entretanto, sustentados por promessas profissionais exuberantes como essa, o campo da tecnologia informacional se expandiu agressivamente em várias áreas de nossa vida política, inclusive nos altos níveis de política e tomada de decisões. As bases desse desenvolvimento eram restritas e descentralizadas, originárias das equipes de análise de sistemas (ou operações) da Segunda Guerra Mundial. Após o término da guerra, a teoria de sistemas aplicados encontrou um novo lar no pensamento militar, como no RAND e no Mitre, onde cientistas sociais estavam muitas vezes ligados aos físicos e estrategistas em projetos de pesquisa ad hoc para avaliar os efeitos de uma guerra termonuclear ou de um plano de defesa civil. Durante o governo Kennedy, um dos principais focos de pesquisa em ciência social era o das operações armadas de contra26 27

Wiener, citando Pere Dubarle em The Human Use of Human Beings, pp. 178-180. Citado em Weizenbaum, Computer Power and Human Reason, p. 244.

revolução, utilizando-se de equipes de cientistas políticos, antropólogos e psicólogos. Naquela época, a forma dominante de ciência social nas universidades era comportamental e altamente estatística, uma desajeitada caricatura das ciências físicas. O estilo clamava pela computadorização mas, nas universidades, os cientistas sociais costumavam ser tratados como cidadãos de segunda classe, quando se tratava de utilizar os poucos computadores disponíveis. Essa ruptura não ocorreu senão no final dos anos 60 — e em duas frentes. Em 1967, o Instituto Internacional de Análises de Sistemas Aplicados se estabeleceu em Viena. Era um centro equipado com computadores de alto investimento, apoiado tanto pelo bloco ocidental quanto pelo oriental. Serviu para abrir caminho para vários projetos na área de “modelos globais” ou “mundiais” para planejamento social de longo alcance.28 Alguns anos depois, em 1969, sociólogos de Harvard e o MIT se associaram para organizar o que parecia um Projeto Manhattan para suas disciplinas. Conseguiram, do Departamento de Defesa, uma verba de 7,6 milhões de dólares durante cinco anos para explorar novas técnicas de programação. A verba foi destinada ao Projeto Cambridge, que, teoricamente, abarcava pesquisas genéricas, sendo, portanto, útil para uma variedade de estudos das ciências sociais. O projeto foi anunciado como uma busca de “computadores neutros”.29 Mas as verbas do Departamento de Defesa ligaram inevitavelmente o Projeto Cambridge às necessidades do Pentágono, que esperava fazer valer seu dinheiro. Como resultado, o projeto logo se envolveu na Guerra Fria — recebendo tarefas como desenvolver programas de “identificações e alertas” para o serviço secreto militar. Outro de seus estudos visava construir modelos computadorizados de aldeias amigas e hostis na Tailândia, recomendando, em seguida, a política mais adequada. Uma forma semelhante de utilização de modelos foi a seleção de alvos de bombardeios na guerra do Vietnã. Cidades cujos parâmetros do modelo eram “amigas” eram deixadas de lado; as “hostis” eram condenadas à destruição. A ciência social computadorizada finalmente encontrou seu caminho numa aplicação de vida e morte.30 Em 1971, um relatório do Projeto Cambridge torna claro suas amplas intenções políticas: Com estas técnicas seria possível, em poucos dias, considerar todas as estratégias para uma invasão de Cuba ou do Vietnã do Norte. Provavelmente mais adiante, mas ainda num futuro próximo, tais técnicas poderiam ser empregadas para decidir sobre uma possível intervenção numa revolução ou eleição em país estrangeiro.31 Talvez o mais ambicioso esforço de adaptação da tecnologia da informação à arte de governar tenha tido lugar no Chile, em 1970. O presidente Salvador Allende levou ao país o especialista britânico em cibernética, Stafford Beer, para desenvolver e administrar uma ordem econômica otimizada para o país. Trabalhando a partir da fórmula “a informação é o que nos modifica; a informação constitui o controle”, Beer tinha inventado um intrincado sistema de computação, curiosamente por ele denominado Máquina da Liberdade. Seu 28

A respeito do IIASA, ver artigo em New Scientist, Londres, 19. 7.1973, p. 27. Judith Cobum, “Project Cambridge: Another Showdown for Social Sciences?”, Science, 5.12.1969, pp. 1250-1253. 30 Sobre sistemas de bombardeio computadorizado no Vietnã, ver Weizenbaum, Computer Power and Human Reason, pp. 238240. 31 JosephHanlon, “TheImplicationsof Project Cambridge”, New Scientist, Londres, 25.2.1971, pp. 421-423. 29

propósito era concentrar todos os dados disponíveis sobre a economia nacional e até mundial e, a partir daí, criar um “modelo cibernético”. Os computadores no comando dos modelos receberiam “dados reais dos sistemas por eles monitorados, filtrando a informação ali contida”. Então, seria possível “formular hipóteses, fazer simulações e predições a respeito da trajetória mundial”. Entre 1971 e 1973, Beer, trabalhando secretamente para o Ministério das Finanças, procurou estabelecer, no Chile, algo semelhante à Máquina da Liberdade. Foi um esforço sério, instalado a muito custo numa sala de controle central (o “Opsroom”), em Santiago, onde conseguiu, no auge de seu poder, reunir 60% da economia do Chile em sua coleta de dados nas redes do governo.32 O sistema incluía a capacidade para prever e impedir greves. Beer relatou: “Utilizamos todo conhecimento científico relevante no projeto do local — conhecimento cibernético de processos mentais, de psicologia aplicada e grupai, de ergometria”.33 O projeto acarretou uma nova e interessante definição de “liberdade”. “Liberdade”, decidiu Beer, “pode, de fato, ser utilmente redefinida para a atual era tecnológica. Informações precisas estão livres para agir — e esse é o princípio sobre o qual a nova Máquina da Liberdade deveria se basear”. É uma definição que transforma o computador em parte integrante do conceito.34 O grande projeto de Beer foi interrompido pela queda de Allende, num golpe de estado patrocinado pela CIA, mas, mesmo nessa forma incompleta, é um bom exemplo de o quanto um utópico crédulo da cibernética deseja assumir o controle. Esquemas dessa magnitude deveriam ser encarados somente como os mais ambiciosos projetos de pesquisa que têm procurado maneiras de computadorizar uma série de serviços e instituições humanas: medicina, direito, psiquiatria, administração pública. Todos esses esforços são baseados numa só suposição: a de que o pensamento humano, mesmo nos níveis mais sutis e intrincados, é um tipo de processo de informação; portanto, quanto maior a quantidade de dados e a rapidez do processamento, melhor. Atualmente, muitas das técnicas de modelos computadorizados desenvolvidas pelos cientistas sociais desde a época do Projeto Cambridge, encontraram seus caminhos no governo, sob os augúrios da expressão “administração de crises”. Em 1983, a administração Reagan deu grande dignidade à área quando criou o altamente computadorizado Grupo de Planejamento e Apoio à Administração de Crises, no Conselho de Segurança Nacional. A operação foi legada a Richard Beal, um cientista político da Universidade Brigham Young, em Utah, antigo empregado de Richard Wirthlin, o pesquisador político do presidente. A tarefa de Beal era criar bancos de dados para aproximadamente vinte focos mundiais de distúrbios. Uma das realizações mais orgulhosamente divulgadas do projeto é a capacidade de gerar informações em um “modelo de vídeo composto”, utilizando “gráficos moderníssimos”. Os gráficos incluem mapas, diagramas de barras e símbolos representando atividades tais como negociações e conflitos armados. O objetivo dessas inteligentes invenções de computadores e vídeos é oferecer ao presidente, a curto prazo, uma representação gráfica simples da crise internacional, supostamente com todos os dados

32

Ver relato sobre o projeto Beer em New Scientist, Londres, 25.10. 1973, p. 260. Ver também “Economia pelo Computador”, suplemento This World, San Francisco Chronicle, 21.1.1973, p. 15. 33 Beer citado por John Adams, “Everything Under Control”, Science for the People, abr.-maio 1973, p. 4. Este artigo como um todo é uma boa revisão critica das teorias de Beer. 34 Stafford Beer, “The Liberty Machine”, Futures, dez. 1971, pp. 338-348.

necessários, representados de modo televisivo, para que possa ser escolhida a política mais adequada. Talvez se assemelhe a um video game sobre um mapa-múndi.35 Esse projeto não é apenas uma experiência puramente acadêmica. Foi o quartelgeneral utilizado pelo presidente e por seus conselheiros mais importantes durante a invasão de Granada, em outubro de 1983.36 O resultado desse exercício, que incluía uma censura cuidadosa à imprensa como parte do gerenciamento da crise, foi considerado um sucesso. (A pesquisa de Wirthlin, após o evento, confirmou essa visão.) Talvez isso tenha influenciado, em parte, a Agência de Segurança Nacional [National Security Agency] a adquirir, um ano depois, um dos maiores complexos de computação já comprados pelo governo em sua história: várias centenas de máquinas compradas à AT&T a um custo de quase um bilhão de dólares. Os computadores serão distribuídos pelos postos avançados da ASN em todo o mundo, e ligados ao quartel-general de administração de crises, em Washington. A Junta de Chefes de Pessoal [Joint Chiefs of Staff] também decidiu investir em modelos e simulações computadorizados. Seu projeto, iniciado em 1984, é denominado “Previsões” [Forecasts], e serve para utilizar as “informações específicas do país” na projeção de futuros prováveis para mais de 130 países até um período de 20 a 30 anos no futuro. O banco de dados do projeto Previsões possui mais de mil indicadores para cada país, “a maior parte deles consistindo de uma série de valores temporais para cada indicador, para cada ano entre 1960 e 1980”. O projeto Previsões poderá, posteriormente, estender as tendências desses dados para o futuro, e simular “a inter-relação entre as variáveis no tempo”. O projeto é considerado “uma importante ferramenta para a tomada de decisões”, originalmente num sentido “heurístico”, “ajudando a sugerir o alcance de futuras formas que o futuro poderá assumir”. As previsões serão importantes para determinar a forma de relacionamento dos Estados Unidos com o resto do mundo, quais poderiam ser os interesses norteamericanos, onde há possibilidades de origem de conflitos e até que ponto os Estados Unidos dependerão de fontes externas de energia, materiais e produtos... Há também um sistema de gerenciamento de banco de dados, que permite que esses dados sejam questionados e atualizados.37

Nos limites da sanidade: a máquina psicótica Tentativas de instalar computadores equivalentes ao do governo na escala da Máquina da Liberdade de Stafford Beer provavelmente continuarão sendo experiências raras. Mas projetos como o Centro de Administração de Crises, da ASN, e o Previsões provavelmente se tornarão aplicações mais visíveis — e mais perigosas — da capacidade do computador em altos níveis de tomada de decisões. O perigo está na discrepância existente entre as 35

Ver “Crisis Management Under Strain”, Science, 31.8.1984, pp. 907-909, que descreve os planos básicos de Richard Beal para o projeto e suas inovações em videográfico. 36 Ralph K. Bennett, “Grenada: Anatomy of a ‘Go’ Decision”, Reader’s Digest, fev. 1984, pp. 72-77. Há também uma construção um tanto ficcionalizada da invasão computadorizada de Granada, em Roland Perry, Hidden Power, cap. 22. 37 Esta descrição de FORECASTS [previsões] vem de uma carta pessoal do Public Affairs Office of the Joint Chiefs of Staff, 29.7.1985.

expectativas aparentemente racionais, com as quais tais projetos são lançados, e a situação final de utilização. Pois quando são finalmente solicitados pelos políticos para desempenhar seu papel, como anunciado, em uma crise real, quando o tempo é escasso e, em caso de ameaça à paz mundial, as máquinas podem ter sido arrastadas para longe da realidade de seus usuários. Podem ter ficado literalmente malucas: mentes — ainda que artificiais — transformadas num caos de imperativos conflitantes. Como isso pode acontecer? Quando um projeto como o Grupo de Administração de Crises é iniciado, os líderes envolvidos tendem a encará-lo como a busca de um objetivo defensivo de alta prioridade para o mundo atual: o simples fato de coletar dados, milhões deles. O culto à informação pressiona nesse sentido com força total. A oportunidade de utilizar computadores moderníssimos para esse propósito tende a tornar a iniciativa ainda mais atraente, conferindo-lhe uma aura de precisão e sofisticação futurista. À medida que uma quantidade cada vez maior de máquinas e redes entram em operação, o tipo e a quantidade dos dados que coletam sofrem uma expansão exponencial. É como fome que não pode ser saciada. Na verdade, torna-se um dos estratagemas preferidos dos virtuosos da computação, que planejam o sistema para procurar dados exóticos e improváveis, do tipo que nenhuma mente humana não-especializada poderia levar em consideração. Paul Bracken conta, por exemplo, que o programa COMINT, da Agência de Segurança Nacional, coleta atualmente “milhões de mensagens que passam pelas burocracias políticas e militares soviéticas” grampeando as linhas telefônicas da União Soviética. E esse é apenas um dos programas de vigilância que despejam dados nos computadores da ASN. “Na década de 80”, observa Bracken, “a coleção e a comparação de informações de centenas de programas através de todo um comando inimigo tornou-se possível graças aos computadores”. Ele sugere que as possibilidades podem ser expandidas ainda mais, sendo aperfeiçoadas a ponto de monitorar as lavanderias dos portos soviéticos, informação que poderá fornecer “excelente alerta estratégico de quando embarcações submarinas e de superfície estarão prontas para serem lançadas ao mar”.38 Assim, no futuro próximo, nas profundezas da máquina de guerra do Pentágono, pode ser que um computador esteja tabulando as roupas sujas dos marinheiros soviéticos, analisando o significado desse indicador-chave, representando-o graficamente num modelo dinâmico para a tomada de decisões, do qual dependerá a paz mundial. Em qualidade e quantidade, os dados concentrados nos computadores do governo estão muito longe daquilo que um só cérebro humano poderia processar. Os líderes que usam as máquinas em épocas de crise talvez nem imaginem a razão pela qual certas informações foram coletadas, ou porque lhes foi dada tanta importância. Não obstante, os indivíduos que se sentam à frente de cintilantes telas de vídeo, afagando teclas, fazendo surgir tabelas, gráficos e simulações, estão sujeitos a se sentirem passo a passo com o tempo. São os mestres dos dados de todo o mundo, trabalhando na ponta de lança da Era da Informação. O que é facilmente esquecido é o fato de que todas as máquinas com que se defrontam estão trabalhando de acordo com programas baseados em suposições e valores. O que eles têm diante de si não constitui, no sentido puramente neutro do termo, “dados brutos” oferecidos para sua criteriosa apreciação — embora os gerenciadores de crises assim costumam descrever a questão, com total imparcialidade pessoal. Dão a entender simplesmente estarem fornecendo informações objetivas conforme lhes foi solicitado. Mas 38

Paul Bracken, The Command and Control of Nuclear Weapons, Yale University Press, New Haven, 1983, pp. 39-41.

essa informação foi editada, formatada, pesada e ordenada, refletindo prioridades de tipo talvez altamente ideológico. Quanto mais simplificadas e gráficas as informações computadorizadas se tornarem, mais forçosamente interpretativas serão. Um resumo, afinal, condensa mais fortemente, assume uma forma mais arbitrária. Assim, os gráficos apresentados ao presidente Reagan por seus administradores de crises durante a invasão de Granada devem ter sido elaborados com base em suposições a respeito da política no Caribe, dos interesses comunistas através do mundo, do papel norte-americano no hemisfério ocidental. Valores devem ter sido utilizados para contrabalançar opiniões diplomáticas e militares. Será que o presidente tinha plena consciência de onde terminava o papel dos dados e onde começavam as suposições? Ficou claro de quem eram os valores e suposições? Será que os programas que forneceram as informações poderiam ser remontados a suas origens, isto é, aos cérebros que os originaram? Será que os futuros presidentes utilizarão os mesmos programas de administração de crises criados quando o projeto foi iniciado, sob os auspícios de Ronald Reagan? À medida que o tempo passa, na história de qualquer sistema de computação, questões como essas se tornam cada vez mais difíceis de serem respondidas. Para começar, grandes programas raramente são o resultado do trabalho de um indivíduo único e identificável; eles são criados por equipes de programadores e pesquisadores. A qualquer momento, essa equipe apresentará uma miscelânea de estilos e preferências; haverá abordagens diversas e diferentes níveis de competência. Um pequeno número dessas sutilezas e cacoetes se tornará aparente, a maioria não. Os programadores provavelmente apresentarão uma fachada de uniformidade e objetividade profissional. Estas, porém, estarão moldando um artefato intelectual que reflete gostos, escolhas e julgamentos de seus criadores. O sistema necessita, periodicamente, de ajustes e atualização. Outros programadores, que refletem talvez os padrões de outras gerações, trarão seus juízos ao serem chamados para tais tarefas. Dessa forma, os programas que dirigem atualmente os sistemas de armamento do Pentágono têm sido alinhavados e emendados durante inúmeras administrações presidenciais. Deve ter havido muitas revisões que nada mais eram do que imposições do hardware antiquado. O sistema não é simplesmente um artefato técnico, mas também histórico, moldado por um vasto número de programadores, cujas contribuições, em sua maioria, são impossíveis de serem identificadas, e muitos dos quais provavelmente não seriam capazes de reconstruir o trabalho da equipe da qual participou. Que suposições a respeito de estratégia e de política mundial estavam nas mentes daqueles que trabalhavam em 1962... 1968... 1974? Que teorias e métodos costumavam estar nas cabeças dos cientistas da computação nessas épocas? Joseph Weizenbaum levantou a questão de que muitos sistemas de computação de porte elevado são atualmente controlados por “programas incompreensíveis”, pelos quais ninguém mais pode ser responsabilizado. Esses sistemas, geralmente gigantescos, são elaborados por equipes de programadores, geralmente trabalhando em conjunto por um período de muitos anos. Mas, na época em que esses sistemas entram em operação, a maior parte dos programadores originais já não está mais trabalhando ali ou está com a atenção voltada para outras áreas. É precisamente quando os sistemas gigantes

entram em operação, que seu funcionamento já não pode ser entendido por um só indivíduo ou por uma pequena equipe.39 A quase tragédia da usina nuclear de Three Mile Island é um exemplo desse tipo de programa incompreensível, apenas em uma única instalação de tamanho médio. Os operadores da usina levaram dezenas de horas fatais até entenderem o significado de alarmes controlados pelos computadores, que estavam além de sua compreensão imediata. Situações como essa podem, em pouco tempo, tornar-se ainda mais densamente impenetráveis. Atualmente estão sendo desenvolvidas técnicas para permitir aos computadores se “autoprogramarem”, sem a intervenção humana. Essas técnicas — programas de autoprogramação que supostamente “aprendem” a partir de suas próprias operações — estão entre as últimas aplicações das pesquisas na área de inteligência artificial. Um deles, a linguagem de programação Query-By-Example, da IBM, está sendo considerada, pela comunidade financeira, como uma maneira de economizar nos custos de certas formas de programação. Um especialista nesse campo, Donald Michie, da Universidade de Edinburgh, alertou que esses procedimentos de programação automáticos poderiam gerar um “buraco negro tecnológico”, no qual “os seres humanos serão incapazes de entender o raciocínio que subjazem aos resultados gerados pelos computadores e utilizados para a tomada de decisões-chave”.40 Embora programas autoprogramáveis ainda precisem ser programados pela mente humana, afastam ainda mais a responsabilidade humana da máquina que os utiliza. Equipamentos que funcionam com programas incompreensíveis estão se aproximando de um tipo de loucura tecnológica. Estão no caminho de se tornarem inteligências desintegradas, estilhaçadas e fragmentadas, um ensopado psicótico de suposições e padrões, aos quais já não se pode dar uma ordem racional. Mesmo assim, se a máquina fizer parte de um projeto de administração de crises, continuará a processar dados, arrumando-os em lindas tabelas, gráficos, simulações, e mantendo uma aparência externa de racionalidade. Os computadores são presenteados com essa fachada de precisão impessoal; não têm possibilidade de parecer, soar ou agir como loucos. É óbvio que a verdadeira loucura seria a dos indivíduos responsáveis pela tomada de decisões e a da sociedade como um todo, que escolheu tornar-se dependente de sistemas mecânicos que acarretam essas responsabilidades. Mesmo assim, entregar a responsabilidade a um mecanismo supostamente infalível pode ser uma tentação firmemente enraizada em nossa cultura. O esforço para construir uma machine à gouverner deriva de um código de fé que há muito faz parte da tradição científica da sociedade ocidental: a crença de que os segredos da natureza podem ser totalmente compreendidos através de análises redutivas e modelos mecânicos. Traduzida em programas de pesquisa e desenvolvimento, essa convicção tem rendido, na atualidade, ótimos resultados em muitos campos. Os órgãos de nosso corpo estão sendo substituídos por equipamentos mecânicos, embora nem sempre bem-sucedidos. A engenharia genética está encontrando meios de reconstruir e, supostamente, melhorar estruturas viventes, através do rearranjo dos mecanismos da hereditariedade. A mente humana tem estado nos planos dos mecanicistas desde que os primeiros e primitivos 39

Joseph Weizenbaum, “On the Impact of the Computer on Society”, Science, 12.5.1972, pp. 612-613. Ver também seu capítulo “Incomprehensible Programs”, em Computer Power and Human Reason. 40 “Computers that Learn Could Lead to Disaster”, New Scientist, Londres, 17.1.1980, p. 160.

modelos mecânicos surgiram no século XVIII. Agora esse paradigma da inteligência amadureceu, juntamente com a tecnologia, no modelo de pensamento por processamento de dados. A mente, em todos os seus aspectos, pode ser encarada, hoje, como “nada mais que” uma complicada máquina de processamento de informações, que constrói seus maiores poderes a partir de procedimentos simples e formais que organizam dados. Assim como a prova definitiva do modelo mecanicista na medicina é a invenção do coração ou do rim artificial, que manterão a vida, também na ciência cognitiva há esforços para inventar uma máquina capaz de imitar, com perfeição, as principais funções do cérebro — seu poder de raciocínio, de julgamento e de decisão. Seria notável se a ciência cognitiva e a IA asseverassem, mais modestamente, que os modelos de computação poderiam nos auxiliar no entendimento de certas funções específicas do cérebro. Mesmo essa seria uma proposição dúbia, baseada na suposição de que dois mecanismos que desempenham grosseiramente a mesma função, o cérebro biológico e o computador mecânico, devem ter uma natureza semelhante. Mas isso exibiria, no mínimo, uma modéstia conveniente. Há pessoas nesse campo que afirmam nada mais do que isso; pode ser que haja indivíduos preparados para chegar a uma conclusão mais autodestrutiva: que o significado real do modelo computadorizado é que nos diz o quanto “não” entendemos sobre a mente, e “não podemos” entender, nos termos daquele modelo.41 Mas modéstia desse tipo não recebe aplausos; não ganha verbas nem prêmios. Faz até má figura, se comparada aos espantosos avanços registrados em outras ciências. Não ajudarão a construir uma carreira brilhante. Onde o dinheiro de grandes companhias e o poder militar e industrial oferecem recompensas assombrosas, é difícil entrar no jogo. O culto à informação tem muitos membros; mas são poucos os que fazem parte do grupo de profissionais acadêmicos comprometidos com o controle da mente. O modelo de processamento de dados é a única coisa que eles têm para lidar; irão até onde puderem. Isso pode não estar muito distante. Não há possibilidade de que os computadores igualem ou substituam a mente humana, exceto nas aplicações funcionais limitadas que envolvam processamento de dados e pensamento processivo. A possibilidade é excluída, em princípio, porque as suposições metafísicas que fundamentam esse esforço são falsas. Mas “é” possível redefinir a mente e seus usos de maneira que “possa” ser imitada pela máquina. Então, teremos uma caricatura mecânica que nivelará a atividade de acordo com um padrão mais baixo. É isso que a machine à gouverner seria, se fosse construída algum dia. Já podemos ter uma idéia dessa caricatura nas aplicações sociais das possibilidades do computador analisadas neste capítulo. Em cada um dos casos, um fenômeno complexo foi reduzido a algo brutalmente simples, capaz de ser processado por uma máquina. A política é reanalisada, de modo a se tornar uma negociação de opiniões; a guerra, revisada para se tornar um cálculo de velocidades, trajetórias e megamortes. É importante perceber, porém, que essas absurdas simplificações assim como estão, mesmo sem a esperança de uma eventual elaboração, são úteis a certas forças de nossa sociedade. Os administradores burocráticos, a elite civil, os militares, a segurança, as agências de levantamentos podem fazer uso dos dados computadorizados para ofuscar, mitificar, intimidar e controlar. Por possuírem a quase totalidade das fontes e dos 41

Joseph Weizenbaum seria o mais preeminente exemplo de um cientista da computação que assume sua posição. É também a posição de Hubert Dreyfus, What Computers Can't Do, Nova Iorque, Harper & Row, 1973; e John Searle, Minds, Brains and Science, Harvard University Press, Cambridge, 1985.

equipamentos de dados, é que o culto à informação empresta a eles uma mística para a dominação. A razão pela qual podem explorar a informação que controlam com tanta eficácia deveria ser óbvia. Esses elementos sociais possuem interesses duradouros, profundamente arraigados, aos quais as informações podem ser assimiladas, e dos quais podem ser deduzidos programas. Em assuntos militares, eles trabalham para preservar o sistema de nação-Estado; na economia, para responder à ética empresarial; na política, para aumentar a administração utilitarista. Todos são compromissos bem racionalizados, nunca questionados por aqueles que os possuem, nunca necessitando de conhecimento ou discussão pública. Para eles, trata-se de uma simples e clara agenda política: concentrar mais lucro e poder nas mãos daqueles que já possuem lucro e poder. Desde que essa agenda possa ser convenientemente mantida fora das vistas, a atordoante massa de informações dentro de bancos de dados ainda maiores e seu processamento ainda mais eficiente, através de redes mundiais, podem tornar-se aparentemente necessários e até socialmente benéficos. Trata-se simplesmente do desdobramento de um imperativo tecnológico. É a aproximação da Era da Informação, considerada uma mudança de estação. Mas, independentemente das altas promessas dessa era, o preço que pagamos por seus benefícios nunca ultrapassarão os custos. A violação da privacidade significa a perda da liberdade. A degradação da política eleitoral significa a perda da democracia. A criação de uma máquina de guerra computadorizada é uma ameaça direta à sobrevivência das espécies. Seria, em parte, reconfortante concluir que essas responsabilidades resultam de um abuso do poder da computação. Mas esses são os objetivos há muito selecionados por aqueles que inventaram a tecnologia da informação, que a orientaram e a financiaram em todos os passos de seu desenvolvimento. O computador é a máquina deles; sua mística é a sua validação.

10. O anjo de Descartes Reflexões sobre a verdadeira arte de pensar Na noite de 10 de novembro de 1619, René Descartes, então um aspirante a filósofo ainda com vinte anos, teve uma série de três sonhos que mudaram o curso de sua vida e do pensamento moderno. Ele conta que, em seu sonho, o anjo da verdade apareceu a ele e, em uma revelação ofuscante como um flash, desvelou um segredo que iria “assentar os fundamentos de um novo método de compreensão e de uma nova e maravilhosa ciência”. À luz do que lhe disse o anjo, Descartes se pôs fervorosamente a trabalhar em um tratado ambicioso chamado “Regras para a Direção da Mente”. O objetivo de sua “nova e maravilhosa ciência” era nada menos que descrever como funciona a mente. Para Descartes, que estava para inventar a geometria analítica, não havia questão sobre o fato de que o modelo para sua tarefa deveria ser encontrado na matemática. Haveria axiomas (“idéias claras e distintas” de que ninguém poderia duvidar) e, ligando os axiomas em progressões lógicas, um número finito de regras simples e absolutamente sensíveis, que eram igualmente auto-evidentes. O resultado seria um corpo de conhecimento em expansão. Descartes nunca terminou seu tratado; o projeto foi abandonado após a regra dezoito — talvez porque comprovou ser mais difícil do que ele havia antecipado. Ele fez justiça, contudo, à inspiração do anjo no famoso Discurso Sobre o Método, que é geralmente tomado como sendo o documento fundador da filosofia moderna.1 O projeto de Descartes era o primeiro entre muitas tentativas do mundo moderno para codificar as regras do pensamento; quase todos seguem sua liderança na utilização da matemática como modelo. Hoje, os campos da inteligência artificial e da ciência cognitiva podem ser vistos como parte desta tradição, mas agora unidos à tecnologia e centrados em torno de um mecanismo físico — o computador —, que supostamente corporifica essas leis. Os sistemas epistemológicos que têm sido desenvolvidos desde a época de Descartes têm sido freqüentemente engenhosos. Eles certamente iluminam muitos aspectos da mente. Mas todos são marcados pelo mesmo fato curioso. Eles omitiram o anjo da verdade — como aliás fez o próprio Descartes. Pois ele nunca retornou à fonte de sua inspiração. Seus escritos não trataram do papel dos sonhos, das revelações e insights como fontes do pensamento. Ao invés disso, ele deu atenção aos procedimentos lógicos e formais que supostamente começam em zero, uma posição de dúvida radical. Este é um descuido fatídico por parte do pai da filosofia moderna; é excluído do pensamento aquele ponto de vista que o faz mais uma arte que uma ciência, deixando em paz a tecnologia: o momento da inspiração, a misteriosa origem das idéias. O próprio Descartes teria tido dificuldades em dizer por qual porta da mente o anjo havia conseguido entrar em seus pensamentos. Será que algum de nós poderia dizer de onde vêm os flashes de intuição? Parecem surgir espontaneamente a partir de fontes inconscientes. Nós não os alinhavamos parte por parte. Ao contrário, eles surgem completos e súbitos. Se há regras que podemos seguir para a geração de idéias, elas funcionam apenas no sentido de deixar a mente aberta e receptiva por todos os lados, de 1

Jacques Maritain oferece uma longa análise do sonho profético de Descartes em The Dream of Descartes, Nova Iorque, Philosophical Library, 1944.

fazer com que permaneça receptiva ao estranho, ao periférico, ao anuviado e ao evanescente que, de outra forma, poderiam passar despercebidos. Não podemos saber como a mente cria ou recebe as idéias, mas sem elas — e especialmente as que chamei de idéias-mestras, que incorporam grandes reservas de experiência acumulada — nossa cultura seria inimaginavelmente pobre. É difícil ver agora como a mente poderia funcionar se não tivesse grandes concepções como verdade, bondade e beleza para iluminar seu caminho. Ao mesmo tempo que Descartes delineava suas regras de pensamento, o filósofo inglês Francis Bacon também buscava um novo e radical método de entendimento. Bacon, que era matematicamente iletrado, preferiu acentuar a importância da observação e do acúmulo de fatos. Ele era também um homem com uma visão revolucionária — a intenção de colocar todo o saber sobre uma nova fundação de fatos sólidos provinha do “exaspero” experimental da natureza. Antes do final do século XVII, as duas correntes filosóficas — o racionalismo de Descartes e o empirismo de Bacon — tinham constituído uma aliança para produção do empreendimento intelectual a que chamamos ciência: observação sujeita à disciplina de um método impessoal elaborado para ter o mesmo rigor formal da matemática. Como Bacon afirmou, se temos o método adequado, então “a própria mente” será “guiada a cada passo e tudo será feito como que por uma maquinaria”. Desde a época de Descartes e Bacon, a ciência teve robusto crescimento. Seus métodos foram debatidos, revisados e aperfeiçoados à medida que se investia em novos campos de estudo; os fatos por ela descobertos se elevam a cada dia. Mas o anjo que queimou as mentes de grandes cientistas com uma visão da verdade tão audaz quanto aquela de Descartes, raramente lhe conferiu o devido crédito, e menos ainda pelos cientistas da computação que parecem convencidos de que inventaram a “maquinaria” mental de Bacon e de que ela pode superar as realizações de seu original humano, sem auxílio de inexplicáveis revelações. A lacuna geralmente deixada pelos filósofos entre a origem das idéias e a subseqüente mecânica do pensamento — entre a palavra do anjo e o processo analítico que se segue — simplesmente reflete a diferença entre aquilo que a mente pode e não pode entender a respeito de si própria. Podemos ligar, semiconscientemente, idéia com idéia, comparando e contrastando à medida que prosseguimos, planejando o curso de uma seqüência dedutiva. Mas, ao tentarmos ir atrás das idéias para agarrar a esquiva inter-relação entre experiência, memória e insight que borbulha na consciência como um pensamento global, sairemos do esforço certamente aturdidos e confusos — como se tivéssemos tentado ler uma mensagem que passasse por nós em altíssima velocidade. Delinear idéias é uma ação tão espontânea — poderíamos talvez dizer instintiva — que desafia a apreensão e a análise. Não podemos reduzir a velocidade da mente para ver o processo passo a passo. Selecionar nossos pensamentos em seu nível primitivo e pré-consciente seria quase como aqueles exercícios desconcertantes dos mestres zen-budistas, utilizados para ofuscar a mente de forma que possa experimentar o vazio. Quando a questão é saber de onde a mente tira suas idéias, talvez o melhor que podemos fazer seja dizer, como Descartes, “Um anjo me contou”, Mas então há alguma necessidade de ir além? A mentalidade é um dom de nossa natureza humana. Podemos usá-lo, apreciá-lo, estendê-lo e elaborá-lo sem sermos capazes de explicá-lo. De qualquer forma, o fato de que a origem das idéias é radicalmente evasiva não significa que podemos ignorar a importância das idéias e começar com qualquer coisa que

podemos explicar como se essa fosse a resposta completa à antiga questão epistemológica com a qual os filósofos lutaram durante séculos. Acredito que isto é o que os cientistas da computação fazem quando procuram utilizar o computador para explicar a cognição e a inteligência. O modelo de processamento informativo do pensamento, que tem sido o pomo da discórdia dessas páginas, propõe um notável paradoxo. Com base nesse modelo, ficamos sabendo que o pensamento é reduzido a uma questão de organizar dados através de procedimentos simples e formais. Mas quando procuramos pensar desta forma “simples”, ela prova ser muito trabalhosa — como se estivéssemos forçando a mente a funcionar contra sua natureza. Tomemos uma rotina comum da vida diária — um ato mínimo de inteligência — e tentemos especificar todos os seus componentes em uma seqüência lógica. Fazer o café da manhã, trocar de roupas, sair para as compras. Como vimos em um capítulo anterior, esses projetos do senso comum resistiram aos melhores esforços dos cientistas cognitivos para programá-los. Ou tomemos uma atividade mais extraordinária (no sentido de menos rotineira): escolher uma profissão, escrever uma peça de teatro, uma novela ou um poema, ou — como no caso de Descartes — revolucionar as bases do pensamento. Em cada um desses exercícios, o que temos em primeiro lugar, e sobretudo em mente, é o projeto global. Executá-lo-emos e em seguida — de alguma forma, aparentemente sem pensar nisso — abordaremos o assunto passo a passo, improvisando inúmeras sub-rotinas que podem contribuir para o projeto. Onde algo não funciona ou dá errado, ajustamo-lo em termos do projeto. Nós entendemos projetos: atividades globais. Podem ser atividades mal concebidas, mas devem ser, de qualquer forma, os fins que devem vir antes dos meios. Quando tratamos dos meios, permanecemos perfeitamente conscientes de que são questões subordinadas. A forma mais segura de qualquer projeto da vida dar errado é nos fixarmos nas questões subordinadas e perdermos a visão do todo. Então nos tornamos como a centopéia do provérbio que, ao ser perguntada como fazia para coordenar todas as suas partes, descobriu estar paralisada. Estou sugerindo que, nas pequenas e grandes questões, a mente funciona por meio de Gestalts, e não por procedimentos algorítmicos. Isto ocorre porque nossa vida como um todo é constituída por uma hierarquia de projetos, alguns triviais e repetitivos, alguns especiais e espetaculares. A mente é naturalmente uma fiandeira de projetos, estabelecendo objetivos, escolhendo-os entre as muitas alternativas do que poderíamos estar fazendo de nossas vidas. Ponderar escolhas e elaborar projetos — estas constituem a primeira ordem de atividade da mente. Isso é tão óbvio, tão básico, que talvez estejamos prontos para refletir sobre isso quando uma idéia diversa a respeito do pensamento é apresentada, tal como a de que o pensamento conecta dados em seqüências formais. Mas a mente, sem dúvida, acumula coisas à medida que prossegue. Nós registramos dados. Mas registramos informações de formas altamente seletivas, dentro dos termos de um projeto que, entre outras coisas, nos avisa sobre quais fatos devemos estar atentos, quais devemos ignorar e quais merecem valor mais alto ou mais baixo. Pensar significa — o que é mais significativo — constituir projetos e refletir sobre os valores que cada projeto envolve. Muitos projetos são dados simplesmente pelas condições físicas da vida: encontrar comida, vestir o corpo, abrigar-se contra os elementos, assegurando ajuda em tempo de perigo. Mas todos nós esperamos pelo menos ter a oportunidade de funcionar em níveis mais elevados do que esse e poder passar a maior parte do tempo acima do nível da necessidade, perseguindo aquilo que John Maynard Keynes chamou certa vez de “a arte da

própria vida”. Constituir projetos desse tipo é o chamado mais elevado que faz parte da natureza humana. Ensinar aos jovens como honrar e apreciar esse dom é o próprio significado da educação. Não é certamente o que estamos fazendo ao sobrecarregá-los de informação, ou ao fazê-los perceber que a coleta de informações é a principal atividade da mente. Nem ensinamos a eles a arte de viver quando pedimos que “pensem igual a uma máquina”. Máquinas não inventam projetos; elas são inventadas por seres humanos para perseguirem projetos. Aquilo que Seymour Papert chama de “pensamento processivo” certamente cumpre seu papel na vida; mas seu papel nada mais é do que elaborar um roteiro de viagem através do estudo detalhado do mapa das estradas. É uma atividade que tem lugar apenas após termos escolhido fazer a viagem e optado por um destino. O essencial da educação nos primeiros anos é o aprendizado daquilo que chamei de idéias-mestras, os paradigmas morais e metafísicos que subjazem no coração de toda cultura. Escolher um modelo clássico na história da pedagogia ocidental: no mundo antigo, os poemas épicos de Homero (lidos ou recitados) eram os textos a partir dos quais as crianças aprendiam os valores de sua civilização. Aprendiam a partir das histórias de aventuras e dos modelos heróicos que deviam imitar através de jogos intermináveis, nos campos e nas estradas. Toda cultura sadia coloca suas crianças em contato com tal interlúdio homérico; as imagens épicas, os contos de fadas, as chansons de geste, as estórias bíblicas, as fábulas e as lendas convocam a mente em formação para seus altos objetivos e propósitos. Tal interlúdio consiste nas fundações do pensamento. Os “textos” não precisam ser necessariamente literários. Podem ser rituais — como em muitas sociedades tribais, em que os mitos se encarnam em cerimônias festivas. Podem também ser obras de arte, como os vitrais ou as estátuas das igrejas medievais. As idéias-mestras podem ser ensinadas de muitas formas. Em nossa sociedade, a televisão e o cinema estão entre os mais poderosos meios de instrução, ao ponto de eclipsar os materiais desbotados e opacos apresentados nas escolas. Infelizmente esses importantes meios de comunicação se encontram, na sua maior parte, nas mãos de oportunistas comerciais para quem nobreza de propósitos não estão no horizonte. Na melhor das hipóteses, algumas poucas imagens espalhafatosas de heroísmo e vilania podem ser filtradas pelas famintas mentes jovens. Os rudimentos da conduta épica podem ser encontrados em um filme como Guerra nas Estrelas, mas o imaginário foi produzido segundo uma estética e um nível intelectual medíocre, com maior preocupação com os “efeitos” do que com o perfil moral. É assim que arquétipos se tornam estereótipos e as grandes realizações são deformadas pela publicidade. As culturas que exortam Homero, as estórias bíblicas, ou Mahabharata para educação dos jovens são afortunadas. Apesar da compreensão das crianças com relação a esta literatura ser simples e divertida, elas ficam em contato com um material de elevada seriedade. A partir de heróicos exemplos do passado, elas aprendem que crescer significa elaborar projetos com total responsabilidade pelas escolhas feitas. Em suma, assumir a própria vida à luz de um modelo precioso e nobre. As mentes jovens buscam esta liderança, este guia. Elas exercitam seus poderes de imaginação, através de grandes fantasias de buscas e batalhas, feitos astuciosos, ousadia, paixão e sacrifício. Identificam-se com modelos de deuses e deusas, reis e rainhas, guerreiros, caçadores, santos, tipos ideais de mãe e pai, amigo e vizinho. E, talvez, algumas delas aspirem a se tornarem os poetas e artistas da nova geração que levarão à frente os ideais de sua cultura. A educação começa quando são fornecidos às mentes jovens não dados, mas imagens para reflexão.

Contudo, há um problema com relação ao ensino dos valores culturais às crianças. Deixados por conta de pais e professores, mas especialmente nas mãos da Igreja e do Estado, onde essas instituições sejam dominantes, os ideais se tornam facilmente formas de doutrinação, ídolos da tribo que podem tiranizar as mentes jovens. Heroísmo se torna chauvinismo: imagens radiantes se tornam convenções constritoras. As idéias-mestras são depreciadas quando são colocadas sob a custódia de mentes tímidas e medíocres, que cresceram longe da própria exuberância infantil. Nas mãos de grandes artistas como Homero, as imagens nunca perdem a complexidade remissora da vida real. Os heróis estão suficientemente próximos de suas fraquezas humanas, para parecerem de carne e osso. Aquiles, o maior dos guerreiros é, porém, vaidoso, e tão mimado quanto uma criança, uma figura tragicamente fendida. Ulisses pode ser pouco mais do que um patife, com seus estratagemas reduzidos a simples pirataria. É a plenitude da personalidade desses heróis que leva seus admiradores à dúvida entre a adulação e a incerteza. O ideal tem mais de um lado; a mente se aborrece com o pensamento “sim, mas...”. Quando esta verdade é perdida, as imagens se tornam ocas. Podem, então, ser usadas para manipular, não para inspirar. Os gregos, que levaram suas crianças a uma dieta de temas homéricos, também produziram Sócrates, o chato filósofo cuja missão era aguilhoar sua cidade para que conhecesse a reflexão. “Conhece-te a ti mesmo”, insistia Sócrates com seus alunos. Mas como se pode começar o auto-conhecimento senão a partir do questionamento dos valores ancestrais? Aqui está outro significativo uso das idéias: a produção de contraste crítico, acendendo a mente para a vida, vivificando-a. Homero oferece intensos exemplos de coragem. Mas o que é a verdadeira coragem? Sócrates pergunta, oferecendo outras imagens conflitantes, algumas das quais desafiando Homero. A idéia é, ao mesmo tempo, apresentada como oposta a outras idéias, e os estudantes devem decidir-se, julgar e escolher. As sociedades dificilmente respeitam seus espíritos socráticos. Atenas, irritando-se até além da tolerância por sua crítica persistente, levou-o à morte. Mesmo assim, nenhuma teoria educacional que não tenha esse contraponto pode esperar libertar seus jovens para novos pensamentos, para que se tornem novos indivíduos que renovarão a cultura. Numa época em que nossas escolas estão repletas de tecnologia educacional avançada, pode parecer quase perverso buscar ideais educacionais em antigas sociedades primitivas que só ensinavam com a palavra oral. Mas pode constituir um contraste para o estímulo de uma visão propriamente crítica do papel do computador na educação dos jovens. Pelo menos, faz com que nos lembremos de que todas as sociedades, modernas ou tradicionais, tiveram que decidir sobre o que ensinar a suas crianças antes de poderem perguntar como ensinar a elas. Conteúdo antes dos meios, mensagens antes do medium. O ensino — para os jovens — tem sido sempre uma mistura de habilidades básicas (ou alfabetização e cálculo, ou caça e colheita) e ideais elevados. Mesmo se nossa sociedade tivesse de decidir que a habilidade computacional (Computer literacy — esperemos que em um sentido positivo deste termo tão confuso) deveria ser incluída entre as habilidades [skills] ensinadas nas escolas, isto nos deveria deixar com os ideais de vida ainda por serem ensinados. A maioria dos educadores, com certeza, reconhece o fato, tratando o computador como meio de instrução. O que eles podem perder de vista é que o computador traz consigo um curriculum oculto que acaba por impor-se aos ideais a serem ensinados. Pois é um

instrumento realmente poderoso: uma máquina “inteligente” que traz consigo profundas suposições sobre a natureza da mente. Incorporada à máquina está a idéia do que é a mente e como ela funciona. A idéia está lá porque os cientistas que pretendem entender a cognição e a inteligência a colocaram ali. Nenhum outro instrumento de ensino jamais trouxe uma bagagem intelectual tão prenhe de conseqüências. Uma concepção da mente — mesmo se apenas uma caricatura — facilmente conduz a uma prescrição de valor e moral. Quando damos a alguém o poder de nos ensinar como pensar, podemos também estar dando a tal pessoa a oportunidade de nos ensinar o que pensar, por onde começar a pensar e onde terminar. Em determinado nível que fundamenta os textos, testes e planos de lições, a educação é uma anatomia da mente, de suas estruturas, limites, poderes e aplicações. A lição subliminar que está sendo ensinada sempre que o computador é utilizado (a menos que um cuidadoso esforço seja feito para apagar este efeito) é o modelo da mente como processadora de dados. Este modelo, como vimos, está ligado a uma importante transição em nossa vida econômica, que nos está conduzindo a um novo estágio de industrialização de alta tecnologia [high tech], a chamada Era da Informação, com sua economia orientada para serviços. Subjacente a essa transição, poderosos interesses corporativos estão atuando na modelagem de nossa ordem social. O governo (especialmente os militares), como cliente e usuário primeiro da tecnologia da informação, está ao lado das corporações na construção dessa ordem. Entrelaçado em ambos, está um segmento significativo e bem financiado da comunidade técnico-científica — os especialistas em inteligência artificial e em ciência cognitiva; eles deram ao modelo da mente computadora a sanção de uma proposição metafísica profunda. Todas essas forças, auxiliadas pelas habilidades persuasivas dos publicitários, insistem na imagem do computador como um instrumento educacional; a máquina traz aquela formidável constelação de interesses sociais até as salas de aula e para o campus. Quanto mais espaço e status for dado ao computador pelos educadores, maior será a influência de tais interesses. Além disso, estes são os interesses que fazem o uso mais questionável do computador. Em suas mãos, essa promissora tecnologia — ela própria uma manifestação prodigiosa da imaginação e inventividade humana — está sendo degradada a um instrumento de vigilância e controle, de centralização financeira e administrativa, de manipulação da opinião pública, de realização da guerra. A presença de computadores pessoais em milhões de casas, especialmente quando são utilizados não apenas como divertimento trivial, não apaga, de forma significativa, o poder que a máquina traz àqueles que a utilizam para os propósitos citados. Apresentar o computador aos estudantes de pouca idade, criar a impressão de que os pequenos exercícios de programação e jogos darão a eles, de certa forma, o controle sobre uma tecnologia poderosa, pode ser uma decepção. Isso não significa ensiná-los a pensar de forma científica, mas levá-los à aquiescência. Significa acostumá-los à presença dos computadores em todos os estágios da vida e, assim, torná-los dependentes das máquinas, com sua suposta superioridade. Nessas circunstâncias, o melhor approach para a habilidade computacional poderia ser acentuarmos as limitações e abusos da máquina, mostrando aos estudantes que eles não precisam em quase nada dela para desenvolverem seus poderes autônomos de pensamento. Pode haver mesmo uma justificação ecológica honesta para tal curriculum. Pode fazer as crianças recordarem sua ligação com o vívido mundo da natureza que se encontra

além do ambiente industrial de cidades e máquinas. Sherry Turkle observa que, no passado, as crianças, em larga medida, aprendiam sua natureza humana através da comparação de si mesmas com as demais. Agora, cada vez mais, “os computadores, com sua interatividade, com sua psicologia, com quaisquer fragmentos de inteligência que possam ter... prometem tomar este lugar”.2 Isso pode significar para as crianças, nesse momento histórico, uma vez mais a importância de se encontrar com os animais, os quais, em seu próprio modo inarticulado, mostram maiores poderes da mente do que qualquer computador. Seria realmente uma perda se as crianças não pudessem ver nos pássaros preparando ninhos ou no gato caçando, uma inteligência e uma dignidade que pertence à linha de evolução a partir da qual suas próprias mentes emergiram. Não é uma virtude educacional do saber e das lendas tradicionais que pertençam, em sua maioria, à era pré-industrial, em que as realidades do mundo não-humano estavam mais vivamente presentes. Quanto de sentido ecológico ainda se preserva ao impedirmos as crianças de vivenciarem o pouco que resta dessa experiência, ao empurrarmos sobre elas um dispositivo mecânico? Há um intervalo crucial que ocorre bem cedo no desenvolvimento das mentes jovens, quando elas necessitam ser alimentadas com imagens e idéias relativas a valores — como os temas homéricos que abrem a aventura da vida para elas. Elas podem esperar indefinidamente para aprender o que a maioria das escolas poderá ensinar-lhes sobre os computadores. As habilidades de valor inquestionável que a tecnologia torna disponíveis — processamento de palavras, computação rápida, procura em bancos de dados — podem certamente ser deixadas para os anos de colégio ou mesmo da universidade. Mas, uma vez que as jovens mentes perderam a possibilidade de contato com o conto de fadas, com as estórias épicas, os mitos e as lendas, é difícil retroceder e recapturá-las com aquele fértil sentido de espanto e maravilha ingênuos, tão característicos da infância. Analogamente, se o gosto pela inquirição socrática não é estimulado nos anos de adolescência, a mente em desenvolvimento pode constituir hábitos de aquiescência, que tornam difícil a libertação da sombra de dominação familiar e da autoridade social. A situação atual é a seguinte: há um forte consenso de que nossas escolas estão fazendo um trabalho medíocre em estabelecer essas bases intelectuais. As razões para essa indisposição das escolas são variadas. Os professores são, em geral, sobrecarregados de trabalho e subvalorizados; muitos estudantes vêm a eles desanimados, rebeldes, perturbados ou desmoralizados. Algumas das crianças de cidades do interior dos EUA estão demasiado prejudicadas e exauridas pelas necessidades para se concentrarem e atingirem um sentido educativo da maravilha de que falamos; outras podem ter-se tornado prematuramente cínicas pelos valores corrompidos da comercialização e da celebridade barata; muitas, mesmo as de mais sorte e mais afluentes, podem estar assustadas com o medo penetrante da extinção termonuclear que arruina todas as nossas vidas. As escolas participam desses aborrecimentos e nos refletem; talvez, em certas ocasiões, os problemas sobrepujem os melhores esforços dos melhores professores, conduzindo-os de volta ao estreito foco nas aptidões básicas, treinamento para empregos e competição. Mas é valioso sabermos onde estão os grandes problemas e sabermos que não há uma solução tecnológica para eles. Os computadores, mesmo quando chegamos ao ponto de tê-los na escrivaninha de cada aluno, não trará curas para doenças de natureza política e social.

2

Turkle, The Second Self, p. 313.

Talvez minha posição a respeito dos limites educacionais do computador termina por assumir um apelo humanista conservador das artes e das letras. Assim o é. Cientistas e técnicos, cujos interesses profissionais tendem a torná-los entusiastas dos computadores, podem, portanto, ver pouco espaço para seus valores com relação à pedagogia que recomendo. Mas a estória do anjo de Descartes pode recordar-nos que ciência e tecnologia, em seu nível criativo mais elevado, não estão de forma alguma desligadas da imaginação e das idéias. Também se utilizam de todos os recursos da mente, inclusive os homéricos e socráticos — da mesma forma que as artes e as letras. Não perdemos o ponto de vista de nenhuma disciplina específica ao buscarmos o cultivo geral da mente. As idéias-mestras pertencem a todos os campos do pensamento. Seria, sem dúvida, um triste erro introduzir um pequeno número de prosaicas habilidades computacionais na educação dos jovens, de forma que poderiam bloquear os poderes de invenção que, em primeiro lugar, criaram esta surpreendente tecnologia. E o que ganhamos ao convencer as crianças de que suas mentes são inferiores a uma máquina que imita cegamente uma ínfima fração de seus talentos natos? Na educação dos jovens, humanistas e cientistas dividem uma causa comum ao resistir a qualquer teoria que deprecia o pensamento. É o que o modelo do processamento de dados faz ao se fechar naquela qualidade da mente, a qual tantos filósofos, profetas e artistas se recusaram a considerar como de tipo “divino”: sua potencialidade que não se exaure. Em sua busca de “procedimentos efetivos” que podem ser universalmente aplicados a todos os aspectos da cultura, os especialistas em inteligência artificial e na ciência cognitiva são forçados a insistir que não há nada — em termos de pensamento — que uma análise mecanicista convencional não possa descobrir: dados embaralhados em um pequeno repertório de algoritmos. Em contraste, meu argumento neste livro foi o de que a mente pensa não com dados, mas com idéias, cuja criação e elaboração não pode ser reduzida a um conjunto de regras previsíveis. Quando conduzimos as crianças à esfera das idéias, damos a elas o dom da aventura intelectual. Elas começam a perceber as dimensões do pensamento e as possibilidades de insight original. Se elas adquirem a forma das palavras, das imagens, dos números, dos gestos, as idéias se revelam e se desdobram. Revelam espaços dentro de espaços dentro de espaços, numa constante abertura para mundos de especulação cada vez mais amplos. A arte de pensar se fundamenta na espantosa capacidade da mente em criar além daquilo que pretende, além daquilo que pode prever. Não podemos começar a ajustar essa capacidade em direção a fins humanos, preservando-a ao mesmo tempo de abusos diabólicos, até que tenhamos experimentado, em primeiro lugar, a verdadeira dimensão da mente.

ÍNDICE REMISSIVO Agência Japonesa de Tecnologia e Ciência, 203 Agências de crédito, 275 All watched over by machines of loving grace (Brautigan), 222 Altair, 216 A máquina de calcular (Rice), 20 Amizade e computadores, 62-63 Animação, computador, 89, 91, 93 Apple II, 219 ARPA (rede), 255 Association for computer machinery, 189, 289 Atari, 81 AT & T, 46 Automação, 205, 265 objeções à, 196, 197 Bacon, Francis, 159, 160, 221, 238, 316, 317 BASIC, 85, 86 Beal, Richard, 302 Bedell, Robert, 273 Beer, Stafford, 300, 301 Bentham, Jeremy, 235 Benthamistas, 235, 236, 237, 239 Bibliographic Reference Service, 246 Biblioteca pública, 258-263 Boden, Margaret, 171 Boyer, Ernest, 102 Bracken, Paul, 305 Brand, Stewart, 216, 230 Branscomb, Lewis M., 189 Brautigan, Richard, 222 Bricklm, David, 181 Brown, Jerry, 83, 217, 218 Bulletin-board systems — BBS (murais eletrônicos), 253, 254 Cadell, Patrick, 282 Califórnia, 81, 83 Capeck, Karl, 73 Carnegie-Mellon, 96, 97, 98, 101 Casas desenhadas por computador, 61-62, 63-64 Centre Mondial Informatique et Ressources Humaines, 119 Centro de Tecnologia Educacional, 87 Centro-Oeste, 52 Chariot, The, 253 Cibernética, 25, 26, 38, 265, 297 e biologia, 38, 39-40 Cibernética (Wiener), 25 CIA, 51 Ciência, 160, 161, 316-317 idéias governando a, 174 moderna, 174-178

Co-evolution Quarterly, 224 COMINT, 305 COMPUSERVE, 252, 254 Comunicação, 29 técnicas de, 36 teoria da, 31 Computador Apple, 81, 215, 220, 230, 231, 232 Computadores animação por, 89, 91, 93 antropomorfização dos, 65-73 arte realizada por, 93 aspectos evolucionários dos, 73, 78 comparados à originalidade humana, 156 complementando a mente, 177 desenvolvimento dos, 34, 35 domésticos, 82 e a loucura tecnológica, 308-313 e amizade, 62, 63 e contracultura, 205, 234 e crianças (ver crianças) e curriculum, 88 e desemprego, 92 e gráficos tridimensionais, 90 e guerra, 289-296 e inadequação humana, 76, 78, 80 e idéias matemáticas, 167, 174 e “interpretação”, 200 e invasão da privacidade, 270, 279 entusiastas e, 208, 209 e os militares, 50-51, 54-55, 56, 289-296 e poder, 107-112 e “procedimento efetivo”, 174 e projetos de habitações, 61, 62 “equity gap”, 83 e suposições hipotéticas, 113 e tendências políticas nas eleições, 279-288 e trabalho de escritório, 59-61 e UNIVAC, 22 fascinação com, 66, 72, 107-109, 112-113 filosofia educacional e, 118, 119, 138 folclore dos, 109 futuro dos, 57-65, 80, 186, 198-199, 221223, 233-234 gênios dos, 185 imagem pública até os anos-70, 206, 207, 208 impacto na biologia, 38 limitações dos, 177, 192, 193, 328 microcomputador, 208, 214, 221, 230, 231, 232, 233 nas escolas, 81-83, 86, 87, 88-94 nas universidades, 94-107 no vocabulário americano, 22 penetração na vida diária, 80 pensamento processivo dos, 136-137

perigo dos, na sala de aula, 138 política dos, 213, 226, 227, 235-263 primeiros modelos, 22, 24 simulações em, problemas das, 112-117, 156-157 CONFER II, 252 Conservadorismo, 51 Contracultura e o desenvolvimento computacional, 214, 215 e o futuro, 220-226 e política, 209, 213, 226, 229 e o RECURSO UM, 210, 211, 212, 213 e os hackers guerrilheiros, 208-211, 214220, 226 início da, 205-206 Control Data Corporation, 113 Crianças, 84 e informação tirada do computador, 89 e LOGO, 120, 121, 123-131 e o ensino do pensar, 144, 145 e problemas advindos de simulações em computador, 112, 113, 114 e video games, 182, 183 introduzindo o computador às, 109, 325, 326 Crick, Francis, 36 Cultura, 77 Cyert, Richard, 101, 106 Dallas Baptist College, 97 Deane, Barbara, 84 Decisões, tomada de, 61 Defense Applied Research Projects Agency — DARPA, 189 Departamento de Defesa, 51, 52, 267, 290-291 Descartes, René, 314-316, 317 Desemprego, 92-93 Digital Equipment Corporation, 98 DNA, 36, 37 Dorfman, Ariel, 183 Drop City, 223 Dylan, Bob, 227 Eckery, J. P., 22 Economia, 43-44, 45 industrial, 54-55 informacional (ver Economia informacional) Economia informacional, 49, 50, 51, 54-55, 58, 164 e o futuro dos computadores, 58 e o impacto sobre as idéias, 165 problemas da, 55 Educação :curriculum e computadores, problemas da, 88, 89 e computadores, 81-82, 83, 84-86, 323-324 instrução programada, problemas da, 86-87

objetivos da, 140 perigo do computador na sala de aula, 138 universidades e computadores, 94-107 Electronic Information Exchange System — EIES, 252, 254 Eletrônica, 51 Empirismo, 158-163 Ensino, 88-94, 104, 105, 118, 119, 323, 326 Era da informação, 40, 43 e a biblioteca pública, 258-263 Engenheiros de eletricidade, 30 Escritório, trabalho computadorizado de, 59, 61 Estados Unidos causas das tendências conservadoras nos, 51, 52 computadores nas escolas, 81-82, 85-87, 138 contratos de defesa ns regiões quentes, 5051 conversão da high tech nos, 50, 51, 52 e guerra, 289-296 exploração militar da informação, 266 invasão da privacidade nos, 270-279 militarização da vida econômica, 50-51 política e tecnologia nos, 45, 46, 47 vida diária e computadores nos, 80 Evans, Christopher, 70 EXPER SIM, 113 Experiência, 149-150, 151, 152, 154, 156-157 Experimentos, computadores, 112-114 Fabricação, 44-45 Feedback (realimentação), 26 Feigenbaum, Edward, 199 Felsenstein, Lee, 226 Forças de produção (Noble), 266 França, 82 Fuller, Buckminster, 217 Fundação Alfred P. Sloan, 191 Futurologia, 43, 45, 47 General Services Administration, 273 Generalizações, 141, 142 Gestalt, Psicologia da, 142, 143 Gingrich, Newt, 47, 48, 49, 51 Good, I. C., 70 Gráficos turtle (tartaruga), 119, 120, 121 Grosh, Herbert, 189 Grupo de Gerenciamento de Crises, 304 Guerra, 289-296 “Guerra nas Estrelas” (ver Iniciativa de defesa estratégica) Habilidade computacional definição da, 85-86 e educação, 86, 140, 323, 325 Hackers, 208, 209, 210, 213-214 guerrilheiros, 214-220, 226

Hackers; heroes of the computer age (Levy), 208 Hard times (Dickens), 241 Harris, Louis, 280 Hart, Gary, 47 Harvard, Universidade de, 87 Hewlett-Packard, 81 Homebrew Computer Club, 215, 217 Houston, Universidade de, 98, 100 Hughes, David, 253 IBM, 81, 206, 207, 208, 209, 214, 219, 231 Idéias, 139-144 científicas, 174-178 desenvolvimento de, 145-146 e criação de informação, 163-166 e espontaneidade, 156 e experiência e memória, 149, 150, 151, 152, 153, 154 função das, 147, 323 matemáticas, 168-178 mestras, 144-149, 320 subordinação das, aos dados, 158, 168 Illustrated London News, 79 Inadequação humana, 73, 74, 75, 76, 77 Indústria de computadores e a educação, 81, 86, 87, 88 exageros relacionados com o computador propagados pela, 57, 118 e o mercado de computadores, 96 Informação abusos da, 264-269 atitude atual em relação à, 24 atitudes em relação à, nos anos 40, 17-21 comércio, 42, 56 confusão com conhecimento, 44, 147, 148 definição atual de, 29, 30-34 definições da, 139-141 distinções entre idéias e, 164-165 e guerra, 289-296 e invasão da privacidade, 270-279 e política, 46, 47, 48, 49, 50, 51 e trabalho, 52, 53, 54, 55 e transformação da sociedade americana, 46 excesso de, 141 idéias como fontes de, 163-166 idéias de, na história, 158-163 impacto da biologia na, 36-37 relação entre idéias e, 139-144 tecnologia da, 79, 205, 206, 207, 265, 267, 295 teoria da, 29, 30, 31, 34, 35, 205 Informação para tomada de decisões (DMI), 280, 281 Information Processing Techniques Office, 51 Inglaterra, 82 Iniciativa de defesa estratégica, 51, 290 Integrated Computer Assisted Manufacturing (ICAM), 267

Inteligência artificial, 119 desenvolvimento da, 27 e atividades que visam propósitos, 135 e LOGO, 132 financiamento da, 188 futuro da, 188, 198, 199, 203 objetivos da, 186, 187 penetração na vida econômica, 194 problemas relativos à, 190, 191, 192, 193, 195, 197, 311 quinta geração da, 203 Internal Revenue Service, 273 Interpretação da informação, 200-201 Itty-bitty Machine Company, 215 Japão, 82, 291 Jastrow, Robert, 76, 173 Jobs, Steven, 64, 232 Jogos de computador para garotas, 182 Kahn, Herman, 50 Kallaghan, Paul, 112 Kemeny, John, 74 Kemp, Jack, 48, 49, 51 Kennedy, John, 280 Kentucky Fried Computers, 215 Kesey, Ken, 228 Larsen, Judith, 54 “Launch on warning” (LOW), 289 Learning with LOGO (Watt), 123, 129 Leary, Timothy, 228 Levy, Steven, 181, 208 Literatura épica, 320-323 Livros azuis, 238 LOGO, 118-122 e arte, 124, 125, 126, 127 e curricula, 124, 130 e pensamento processivo, 133, 134, 135, 136 e poesia, 128, 129, 130, 131 e programação para crianças, 122-123, 124 intento do, 119 limitações do, 128, 129, 136, 137 processo “corrija-à-medida-que-prossegue”, 123 LSD, 228 Machlup, Fritz, 31, 147, 172 MacPaint, 90 MacWrite, 86 Malas diretas, 283 Máquina da liberdade, 300, 301 “Máquina preceptora inteligente”, 92 Máquinas inteligentes, 72 Máquinas pesadas, 72 Máquinas que pensam (McCorduck), 70 Máquina ultra-inteligente (UIM), 70

Matemática, 168, 178 Mauchly, John, 22 McClintock, Barbara, 39 McCorduck, Pamela, 64, 70, 199 McCulloch, Warren, 108 McLuhan, Marshall, 223, 242 Megatrends (Naisbitt), 42, 43 Melmed, ArthurS., 106 Memória, 150-154, 156-157 Memória comunitária, 211, 212, 213 Mente humana (ver Pensamento humano) Michie, Donald, 309 Michigan, Universidade de, 96, 107 Microcomputador, 208, 214, 221, 230, 231, 232, 233 Microelectronics and Computer Technology Corporation, 51 Militares, os e a guerra, 288-296 e o abuso da informação, 266, 267, 268, 304-308 Mindstorms (Papert), 119, 123 Minnesota Educational Computing Corporation, 87 Minsky, Marvin, 71, 119, 187, 198 MIT, 99 Mitre, 298 Morris, William, 220 Naisbitt, John, 42, 43, 44, 243, 244, 245 NASA, 51 National Committee on Excellence in Education, 46 National Committee on Industrial Innovation, 83 National Science Foundation, 96 National Security Agency, 274, 277 National Security Council, 51 Negroponte, Nicholas, 119 Newell, Alan, 27, 187 NEXIS, 246 Noble, David, 196, 266 Nova biologia, 36, 37 impacto da, na cibernética, 38 impacto do computador na, 38 Office of Technology Assessment, 46 O Futurista, 63 O’Neill, Gerard, 224, 225 Opinião, pesquisa de, nas eleições, 279-288 Originalidade, 156, 157 Papert, Seymour, 118, 119, 120, 121 Pascal, Blaise, 157 Pask, Gordon, 75 Pensamento humano, 73-77, 162 complemento do computador ao, 177 e experiência, 150 e idéias matemáticas, 168-178

e memória, 150-153 ensino, 144-146 e originalidade, 156-157 espontaneidade do, 155-156 e transferência de conhecimento a computador, 173 modelos de processamento de dados do, 149 processivo, 133, 320 reflexões sobre o, 314-329 relações entre idéias e informação, 141 People’s Computer Company, 210 Pfeiffer, John, 39, 74 Piaget, Jean, 119, 122 Pins, programa, 282 Platão, 170 PLATO, 113-114 Player piano (Vonnegut), 28 Poor Law (1833), 239 Previsões, 303 Privacidade, invasão da, 270-279 “Procedimento efetivo”, 174 Processadores de informação e conhecimento (KIP), 199, 200 Processamento de dados análise do, 167-168 e modelos de pensamento, 149-150, 156 natureza evolutiva do, 77, 78 publicidade de, 24 Profissionais da computação para responsabilidade social, 289, 290 Programas de computador, 178-184 Progresso, 77-78 Projeto Cambridge, 299-300, 302 Query-by-example, 309 Quinta geração, A (Feigenbaum e McCorduck), 198-199 Radioamadores, 254, 256 RAND, 298 Reagan, Ronald, 52, 247, 273 RECURSO UM, 210, 211, 212, 213 Redes, instalação de (Networking), 251-256 Regiões quentes, 42, 51, 52 Relógios, 72 Robbin, Jonathan, 284-285 Roberts, Paul C., 49 Robinnet, Warren, 93 Robôs, 65 Rocky's boots, 93 Rogers, Everett, 54 Rorschach, teste, 142 Rossman, Michael, 212-213 R. U. R. (Capek), 73 Sagan, Carl, 48 Scarola, Robert, 89 Schumacher, E. F., 215

SEARCH (Sistema para Análise e Recuperação Eletrônicas de Histórias Criminais), 274 Servan-Schreiber, Jean-Jacques, 119 Shannon, Claude, 29, 30 Silicon Valley, 214 Simon, Herbert, 27, 187, 297 Simulações, 112, 113, 114, 115, 116 Sistemas de defesa TRW, 294 Sociedade dos Oportunistas Conservadores (COS), 48, 51 Sociedade L-5, 224-225 Software, 86, 87, 93, 107, 178-184 Soleri, Paolo, 223 Source, The, 252 Tecnologia conversão de alta tecnologia (high tech), 50-52 e ética, publicações sobre, 28-29 e política americana, 46, 47 impacto no trabalho, 54 no teatro, 73 obsessão pela, 78-79 Tecnologia informacional, 80, 205, 206, 265, 268, 295 Teoria dos jogos, 34 The human use of human beings (Wiener), 25, 28, 36 The thinking machine (Pfeiffer), 74 Terceira onda, A (Toffler), 43 Three Mile Island, 308 Toffler, Alvin, 43, 46, 62-63, 277 Trabalho, 53, 54, 55 “Transposição”, 39 Trem espacial, 48

Turkle, Sherry, 71, 109, 326 Uma teoria matemática da comunicação (Bell), 29 UNIVAC, 22-23, 34-35 Universidade Harvard, 87 Universidade de Houston, 98, 100 Universidade de Michigan, 96, 107 Universidades e computadores, 94 Utilitaristas, 236, 237, 238, 239, 240, 241 Van Neumann, John, 22 Video games, 107, 183 Vonnegut, Kurt, Jr., 28 Watson, James, 36 Watt, Daniel, 123 Weaver, Warren, 32 Weinberger, Caspar, 292 Weizenbaum, Joseph, 88, 197, 308 Wells, H. S., 221, 224 Whole Earth Catalog, 216-217 Wiener, Norbert, 25, 26, 27, 264, 265, 266, 297 Wilson, Charles, 266 Window of opportunity (Gingrich), 48 Wirthlin, Richard, 279, 280, 285 Wordstar, 86 Wordstar 2000, 86 Worldwide Military Command and Control System (WIMEX) (Sistema de Comando e Controle Militar Mundial), 293 Wozniak, Steven, 215, 219-220 Young, G. M., 237 Yuhara, Hiroo, 203

Biografia Um dos grandes pensadores da contracultura, Theodore Roszak é professor de História e chefe de Estudos Gerais da Universidade Estadual da Califórnia. Foi indicado duas vezes para o National Book Award, e é autor de The Making of a Counter Culture.

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF