Fasc 04 - As Ciencias Naturais Na Contemporaneidade 11-02
Short Description
Download Fasc 04 - As Ciencias Naturais Na Contemporaneidade 11-02...
Description
As Ciências Naturais na Contemporaneidade LICENCIATURA PLENA EM CIÊNCIAS NATURAIS E MATEMÁTICA - UAB - UFMT
Cuiabá , 2009
MINISTÉRIO DA EDUCAÇÃO UNIVERSIDADE FEDERAL DE MATO GROSSO
Maria Lúcia Cavalli Neder - Reitora Francisco José Dutra Souto - Vice-Reitor Valéria Calmon Cerisara - Pró-Reitora Administrativa e Planejamento Elizabete Furtado de Mendonça - Pró-Reitora de Planejamento Marilda Calhao E. Matsubara - Pró-Reitora de Vivência Acadêmica e Social Myrian Thereza de Moura Serra - Pró-Reitora de Ensino e Graduação Leny Caselli Anzai - Pró-Reitora de Pós-Graduação Adnauer Tarquínio Daltro - Pró-Reitor de Pesquisa Antonio Carlos Dornelas - Diretor do Instituto de Ciências Exatas e da Terra Lurnio Antonio Dias Ferreira - Diretor do Instituto de Biociências Iramaia Jorge Cabral de Paulo Coordenadora do curso de Ciências Naturais e Matemática Licenciatura Plena para o Ensino Fundamental (5 a 8) Carlos Rinaldi Coordenador da UAB – UFMT www.uab.gov.br
Instituto de Ciências Exatas e da Terra (ICET) Av. Fernando Correa da Costa, s/nº Campus Universitário Cuiabá, MT - CEP.: 78060-900 Tel.: (65) 3615-8737 www.fisica.ufmt.br/ead
As Ciências Naturais na Contemporaneidade Autores Elane Chaveiro Soares
Depto. de Química/ICET-UFMT
Edna Lopes Hardoim
Depto. de Botânica e Ecologia/IB-UFMT
Iramaia Jorge Cabral de Paulo Instituto de Física/ICET-UFMT
Rosina Djunko Miyazaki
Depto. de Biologia e Zoologia/IB-UFMT
Sérgio Roberto de Paulo Instituto de Física/ICET-UFMT
C o p y ri g ht © 20 09 UAB
Corpo Editorial • • • •
A l c e u Vi d o t t i C arlos Rinaldi I r a m a i a J o r g e C a b r a l d e Pa u l o M a r i a L u c i a C ava l l i N e d e r
P r o j e t o G r á f i c o : Pau L o H . Z . A rru d a R e v i s ã o : A lceu V i d o tti S e c r e ta r i a : N euza M aria J o r g e C abral C apa : L’A r l é s i e n n e M a d a m e G i n o u x w i t h B o o k s , V i n c e n t M u s e u M e t r o p o l i ta n o d e A r t e , N o va Yo r k , EUA .
va n
Gogh
Prefácio
C
omo você já pôde perceber até aqui, a história da ciência é palco de eventos e idéias surpreendentes e, muitas vezes, inacreditáveis. Discutimos os principais eventos, nomes e contextos na intenção de proporcionar a você um vislumbre da ciência em toda a sua extensão. É provável que você já tenha boa noção sobre o que é Ciência. Indústria e tecnologia transformam a sociedade e, neste fascículo, abordaremos a história e filosofia da ciência contemporânea, que compreende os últimos 150 anos. Encontramos uma sociedade em pleno “vapor”. A Química e a Física avançam e se consolidam como ciências de respeito e de aplicação, enquanto que a Biologia faz grandes progressos na explicação da origem da vida. A figura do cientista é repensada e grandes embates são estabelecidos na investigação e na autoria das descobertas. Não se surpreenda se perceber que as marcas da ciência na caminhada da humanidade ainda estejam longe de ser superadas ou se suas indagações não sejam respondidas plenamente.
Continuemos na aventura do conhecimento dos séculos XIX, XX, XXI...
Inclua em suas anotações a célebre frase de Ilya Prigogine (1917-2003):
“Só tenho uma certeza: as minhas incertezas”
UAB| Ciências Naturais e Matemática | As Ciências Naturais na Contemporaneidade|
Fundo: Vincent Van Gogh - Sunflowers in Vase
VII
Sumário A
11
c i ê n c i a d o n o v o e d o e x p l i c áv e l
A Q u í m i ca
15 16 17 21
na contem por aneidade
E p o r fa l a r e m át o m o A t e o r i a at ô m i ca d e D a lt o n A r evel aç ão de um br ilhante
professor
De Tales de Mileto à teoria da complexidade - como a biologia evoluiu
27
F í s i ca
51
U m a s í n t e s e h i s t ó r i ca d a s c i ê n c i a s b i o l ó g i ca s P o r q u e d e “ Ta l e s d e M i l e t o à t e o r i a d a c o m p l e x i d a d e ? ” M a s , e n tã o , o q u e é e v o l u ç ã o b i o l ó g i ca ? B i o q u í m i ca e g e n é t i ca s e e n c o n t r a m , n a s c e a b i o l o g i a m o l e c u l a r M e ca n i s m o d e a ç ã o d a s e n z i m a s A n at u r e z a d a s p r o t e í n a s A n at u r e z a e s pac i a l d a s p r o t e í n a s A síntese das enzimas T e r a p i a g e n é t i ca – c o n h e c i m e n t o a fav o r d a v i d a Biotecnologia contem por âne a
A v e l h a t e o r i a q u â n t i ca : p r e c e d e n t e s h i s t ó r i c o s A s d i v e r s a s i n t e r p r e ta ç õ e s d a m e c â n i ca q u â n t i ca A i n t e r p r e ta ç ã o d e C o p e n h a g e n e m d e s taq u e Experimento da dupl a fenda P r e l i m i n a r e s ac e r ca d a t e o r i a d a r e l at i v i d a d e
C i ê n c i a , Te c n o l o g i a
28 32 37 40 41 42 42 43 45 46 51 56 60 61 67
XX
71
O
ava n ç o d a e s p é c i e h u m a n a s o b r e a n at u r e z a
A
saú d e e o se r h um an o
87 97
e sociedade no século
A p r i m e i r a vac i n a ç ã o O s b r a s i l e i r o s ta m b é m
fizeram
( fa z e m )
p e s q u i s a d e p o n ta
98 10 0
um pouquinho...
103
R e f e r ê n c i a s B i b l i o g r á f i ca s
105
Resumindo
UAB| Ciências Naturais e Matemática | As Ciências Naturais na Contemporaneidade|
IX
A Ciência
do
Novo
e do
E x p l i c áv e l
A
s características da Ciência nos séculos XIX, XX e, porque não XXI, são bastante influenciadas pelos pensamentos iluministas do século anterior, o século XVIII. Tal pensamento tinha como pano de fundo a busca pela ascensão econômica e política da burguesia focada nas idéias de liberdade, individualismo e igualdade. Mesmo que isso fosse feito ou pensado de forma estranha aos interesses da grande maioria da população. No século XVIII e início do século XIX vemos duas grandes revoluções marcando profundamente a sociedade nas áreas política e econômica. A Revolução Industrial que aconteceu inicialmente na Inglaterra e mais tardiamente na Alemanha e a Revolução Francesa que ocorre na segunda metade do século XVIII. Ocorreram neste período a criação das sociedades científicas especializadas e a divisão das Ciências Naturais em três grandes áreas: Química, Física e Biologia. Algumas questões ficaram restritas às discussões da classe abastada como, por exemplo, a educação que era motivo de divergências entre muitos pensadores da época. Alguns como François-Marie Arouet ou apenas Voltaire, defendia a eliminaçao da religião cristã apenas entre os letrados, uma vez que a massa não precisava ser “esclarecida”. Questões religiosas agora eram tomadas como cerceadoras ou retardatárias da almejada evoluçao que a ciência anunciou através dos movimentos iniciados no século XVIII. A idéia era que a educação fosse realizada de forma diferenciada dependendo da classe do indivíduo. Surge nesta época – justamente por causa das indústrias – a figura do operário que iria trabalhar muitas horas nas fábricas. E estes não “precisavam” de uma educação refinada pois iriam exercer papéis ínfimos na nova sociedade então configurada. A Ciência passa definitivamente a ser colocada a serviço da transformação da natureza dedicando-se à solução de problemas produtivos e isso, por conseqüência, muda as características dos cientistas. A palavra “cientista” é criada neste contexto, em 1840. Surgem as sociedades cientificas organizadas ou especializadas como as de Química, Geologia e Astronomia.
Pense
um pouco antes de prosseguir . . .
Alan Chalmers em seu livro “O que é ciência afinal?” nos diz que nos tempos modernos, a ciência é altamente considerada e sua alta estima nao está restrita à vida cotidiana e à mídia popular; isso é evidente no mundo escolar e acadêmico e em todas as partes da indústria do conhecimento. Já percebeu quanto valor você dá às informaçoes ditas “cientificas” em detrimento daquelas ditas de “senso comum”? Você pode ler este livro na íntegra acessando sítio: http://www.scribd.com/doc/2158508/A-F-Chalmers-O-que-e-ciencia-afinal UAB| Ciências Naturais e Matemática | As Ciências Naturais na Contemporaneidade |
11
Juntamente com o progresso e a expansão vinculados à Ciência do século XVIII, estão os diversos problemas ocasionados pelo aumento da população nas áreas industriais iniciadas no século XIX. Entra em cena uma nova área de estudos, a bioquímica, que, envolvida pelos encantos da genética, faz surgir um novo campo de estudos: a Biologia Molecular. No final do século XIX morre Alfred Nobel (1833-1890). Sua maior invenção, a dinamite, foi também sua maior frustração. Em seu testamento uma tentativa de pedido de desculpas pela invenção destruidora. Ele deixa toda sua fortuna para a constituição do prêmio que leva seu nome. “o total da minha herança deverá ser dividido da seguinte maneira: o capital, investido em aplicações seguras por meus executores, consistirá um fundo, cujos juros serão anualmente distribuídos em forma de prêmios para aqueles que, no ano anterior, realizarem os maiores benefícios para a humanidade. Esses juros serão divididos em cinco partes iguais, que serão distribuídas da seguinte maneira: uma parte para a pessoa que fez a mais importante invenção no campo da física; uma parte para a pessoa que fez a mais importante invenção no campo da química; uma parte para a pessoa que fez a mais importante descoberta como campo da fisiologia ou medicina; uma parte para a pessoa que produziu no campo da literatura a mais destacada obra de tendência idealista; e uma parte para a pessoa que fez a maior ou a melhor obra pela fraternidade entre as nações, pela abolição dos atuais exércitos e pela realização ou promoção de congressos pela paz... É o meu desejo expresso que, na concessão dos prêmios, não seja dada nenhuma consideração à nacionalidade do candidato, mas sim que o mais válido receba o prêmio, seja ele escandinavo ou não”. (apud CHASSOT, 2004). Novos tempos marcam a sociedade do século XX. Tecnologia e velocidade são as respostas do grande acúmulo de conhecimento e desenvolvimento. São atores desse cenário as pesquisas na astronomia, na física com as teorias da relatividade e da quântica e ainda com os desenvolvimentos no campo da biologia com descobertas e aprimoramentos na fisiologia animal e humana, a hereditariedade e a evolução. A nova vedete é a tecnologia que impulsiona as pesquisas em todos os setores. Na contemporaneidade, vemos uma Biologia que evoluiu bastante em muito pouco tempo e, por isso, não será possível apresentar neste fascículo todas as grandes teorias e feitos dentro desta que hoje é considerada por muitos pensadores e estudiosos a Ciência do século XXI, como o foram a Matemática e a Química, nos últimos séculos. Os temas biológicos escolhidos aqui são essenciais ao bom entendimento dos conceitos modernos com grande inserção social. Assim, serão abordadas neste fascículo apenas algumas questões evolutivas, genéticas e moleculares, ambientais, biotecnológicas e sobre a saúde cujos avanços e descobertas científicas mostram sua importância já que, hoje, a Biologia aborda 22 áreas do conhecimento, cada uma com suas subáreas, que totalizam 162, denotando sua amplitude com essa extensa multiplicidade de ramos ou
12 | Ciências Naturais e Matemática | UAB
subdomínios, que se integram, inter-relacionam, se retroalimentam, marcas incontestáveis do desenvolvimento do pensamento biológico. Iniciaremos com a Física os primeiros passos no fascinante e intrigante mundo da estrutura fina da matéria: a Mecânica Quântica que nos revela, através da descrição dos fenômenos naturais em nível atômico e molecular, como a matéria se comporta e como podemos captar e descrever os fenômenos em escala atômica. Vo c ê
e s tá c o n v i d a d o ( a ) pa r a m a i s e s ta a u d ac i o s a v i a g e m a o m u n d o d o co nhecim ento!
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
13
14 | Ciências Naturais e Matemática | UAB
A Q u í m i ca
na
Contempor aneidade
O
século XIX inicia marcado por intensas transformações na sociedade provocadas pela Revolução Industrial. Palavras como configuração que antes significavam apenas dar forma ou figura de, agora está ligada diretamente ao mundo tecnológico no qual vivemos. Nossa configuração cotidiana ou forma de viver o dia-a-dia deve-se ao desenvolvimento científico e tecnológico impulsionados nesta época. Vemos a ciência sendo colocada cada vez mais a serviço da modificação da natureza. Resolvendo problemas nunca antes pensados. Foi um grande século para a Química. Ocorre aqui, um desenvolvimento significativo da teoria atômica e da Química Orgânica que seriam importantes tanto para a Química enquanto ciência quanto para a Física e para a Biologia. As necessidades de produção levaram a um crescente interesse pela Química que era tradicionalmente ligada às práticas laboratoriais e às necessidades industriais. Outras áreas também ganham com esse crescente interesse pela Química. É o caso da Geologia, que se expande em detrimento da construção de canais e de estradas de ferro tão necessárias ao deslocamento de produção das indústrias. A investigação quanto à natureza das substâncias ganha uma nova direção com a superação da idéia do flogístico e o esclarecimento da combustão feitas por Lavoisier em 1772 quando decidiu fazer suas próprias pesquisas a respeito desse tema. Utilizou o fósforo, um elemento que acabava de ser descoberto e que queimava espontaneamente em contato com o ar.
• Hoje, os bebês nascem e a não ser que seja uma opção, os pais já podem saber com antecedência se vão ter uma menina ou um menino! Isso quando não escolhem o sexo do bebê antes de iniciar a gestação. • Os celulares estão presentes na maioria das localidades de qualquer país. • É possível consultar, ser medicado e até realizar uma cirurgia com um médico que esteja do outro lado do mundo. • Os CDs, pendrives e ipod, notebooks estão cada vez mais acessíveis à população. • O que você pensaria se, há trinta anos atrás, alguém lhe dissesse que tudo isso seria possível?
UAB| Ciências Naturais e Matemática | As Ciências Naturais na Contemporaneidade |
15
A t i v i d a d e P r át i ca
Ele compartilhava da dúvida sobre a existência do flogístico. As constatações mostravam que o ar era essencial nas combustões, Antes de conticomo já fora verificado por Boyle e Hooke. Na ausência de ar não nuar lendo, faça uma havia combustão e a presença ou não de um flogístico nos corpos relação de itens que não mudava em nada essa condição. E, ainda, Guyton de Morveau você possui em sua casa provou através de experimentos que os metais ganhavam peso dee que provavelmente sua avó pois de uma combustão. não saberia dizer nem como Lavoisier então comprou uma onça (cerca de 30 gramas) de funcionava quando tinha sua fósforo do farmacêutico Mitouard e começou a utilizá-lo em suas idade. experiências. O fósforo ao ser queimado forma ácido fosfórico, cujo peso é superior ao do fósforo original. No dia 20 de outubro deste mesmo ano, colocou oito grãos de fósforo em uma cápsula de ágata, que fechou sob uma campânula de vidro. Depois dirigiu o foco de uma lente para o fósforo, que começou a queimar, exalando um vapor que se depositou nas paredes da campânula. Em alguns minutos, o vapor se condensou em gotas de ácido fosfórico e Lavoisier pôde então avaliar o seu peso: “A quantidade de ácido retirada do fósforo é ponderalmente maior do que a quantidade de fósforo que a produziu”, anotou. “Esse aumento de peso, cuja proporção exata é fácil de constatar, provém da combinação do ar que se fixa nessa operação”. A fim de evitar qualquer erro devido à absorção de umidade atmosférica pelo ácido fosfórico, Lavoisier diluiu o ácido fosfórico em um balão de água destilada; pesou esse balão e tornou a pesá-lo quando continha apenas água destilada. Obteve um peso de ácido fosfórico muito superior ao peso inicial de fósforo, aumento que só podia ser atribuído à absorção de ar, pois o papel da umidade fora eliminado. Lavoisier repetiu o experimento com enxofre e obteve mais ácido sulfúrico do que de enxofre, depois da combustão. Tal direção revela a imposição de novas técnicas quantitativas para os fenômenos químicos analisados. As balanças ganham status nos laboratórios, passando a ser um instrumental indispensável. As leis das combinações químicas são estabelecidas nesta época com os trabalhos de Benjamin Richter, Ernest Ficher, Joseph L.Proust, que passaram a nortear a previsão e a determinação de novas substâncias. John Dalton (1766-1844) sugere que os gases são formados por átomos. E
p o r fa l a r e m át o m o . . .
Foram os gregos que demonstraram grande interesse inicial pela natureza da matéria e sua divisibilidade. Será que a matéria pode ser dividida indefinidamente? Eles acreditavam que uma pedra pode, por exemplo, ser partida em pedaços cada vez menores, pode ser pulverizada mais e mais, e cada pedaço dela ou cada partícula de pó segue sendo igual à matéria original. Leucipo de Mileto é considerado o criador do atomismo. Ele afirmou em 450 a.C. que deveria haver uma partícula tão pequena que não mais poderia ser dividida. Afir-
16 | Ciências Naturais e Matemática | UAB
ma ainda que o universo é infinito, possuindo uma parte cheia e a outra vazia. Segundo ele, na parte cheia estariam as partículas fundamentais em movimento giratório, sempre obedecendo à razão e à necessidade. A palavra átomo surge por indicação de outro pensador, Demócrito (470-380 a.C.), que sugere que essas partículas fundamentais de Leucipo passem a ser chamadas de átomo. Descreve-os como infinitos e semelhantes em essência, porém diferem nos diversos elementos em tamanho, forma, disposição e situação. Segundo os gregos, nada é criado do nada. E isto nos surpreende, como bem lembra CHASSOT em seu livro A ciência através dos tempos: “o átomo de Demócrito não é muito diferente do átomo de Dalton, proposto quase 25 séculos depois”.
A
t e o r i a at ô m i ca d e
D a lt o n
John Dalton tem inúmeros trabalhos significativos no mundo cientifico, inclusive um estudo sistemático do daltonismo, distúrbio que ele próprio sofria, mas certamente que a teoria atômica foi sua contribuição mais importante. Ao desenvolver essa teoria, Dalton explicou satisfatoriamente os estados da matéria, suas diferenças em peso e comportamento químico. Pois mesmo que não pudesse nessa época precisar o peso de um átomo, pois não sabia quantos bilhões de átomos havia em uma amostra de material, era capaz de medir seus pesos relativos, supondo que a mesma quantidade estava presente em um dado volume. Dalton foi levado a essa teoria por seu interesse em meteorologia. Veja só, que história interessante! Os estudos de Lavoisier demonstraram que o ar era composto por pelo menos dois tipos de gases diferentes. Dalton então colocou as seguintes questões: Quais eram as proporções em que esses gases apareciam? O vapor de água no John Dalton (1766-1844) ar era quimicamente combinado com os gases, ou apenas misturado com eles? Verificou posteriormente que a quantidade de gás absorvido pelo vapor de água variava em relação a diferentes gases. Por que isso acontecia? E, se oxigênio e nitrogênio diferiam em peso, por que a gravidade não separava os dois? À medida que desenvolvia seus experimentos na busca por estas respostas, Dalton descobriu que os gases se misturavam, mas não se combinavam quimicamente. Isso, segundo pensava ele, devia-se ao calor circundante que as partículas de gás possuíam e que as impedia de reagirem. D a lto n i s m o: Ele ampliou essa idéia, sugerindo que cada gás fosse composIncapacidade de dito por suas próprias espécies de átomos; quanto mais pesado ferenciar as cores, princifosse o gás, mais pesados seriam seus átomos e os da mesma
palmente o verde e o vermelho.
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
17
espécie se atrairiam mutuamente. Dalton escreveu que “nenhuma nova criação ou destruição da matéria está dentro do alcance da atividade química”. Mostra que a essência de sua teoria não era apenas que todos os elementos químicos eram compostos por sua própria espécie de átomos, mas também que as reações químicas nada mais faziam que separar ou unir essas partículas elementares. A teoria atômica de Dalton – muito mais precisa - representou um grande avanço nas explicações e experimentações subseqüentes. Dalton usou um modelo bastante simples para explicar sua teoria. E essa teoria ficou conhecida como o MODELO ATOMICO DE DALTON.
Como
é o m o d e l o at ô m i c o d e
D a lt o n ?
Esferas minúsculas, rígidas e indestrutíveis. Dalton imaginou um modelo de acordo com suas concepções da época. Seu átomo então, não possuía carga, era contínuo e maciço. Para nós, é fácil relacionar este modelo com uma bola de bilhar. Veja que não estamos dizendo que o modelo atômico de Dalton é uma bola de bilhar e sim que este modelo lembra uma bola de bilhar. O modelo de Dalton não era original, essa idéia era dos gregos lembra? Mas Dalton conseguiu propor uma teoria com um excelente grau de precisão. Os pesos dos átomos podiam ser encontrados pesando-se as substâncias envolvidas em uma reação química e isso revolucionou a forma de pensar e de realizar experimentos pelos químicos. Novo paradigma estava proposto e ganhando cada vez mais adeptos. Dois pesquisadores da época ajudaram a disseminar a utilidade da Teoria de Dalton. Joseph Louis Gay-Lussac nasceu na França em 1778. Fez várias pesquisas a bordo de um balão onde pode estudar a atmosfera superior. Foi auxiliado por Alexander von Humbold nos experimentos que lhe esclareceram as propriedades de combinação dos gases. Gay-Lussac reuniu evidências experimentais a respeito os elementos que compunham a água. Ele foi capaz de afirmar que a água era formada de duas partes de hidrogênio e uma de oxigênio, mas não soube dizer o motivo porque, quando se combinavam, os gases pareciam algumas vezes, ocupar menos espaço. Ampliou suas observações para outras substâncias gasosas e formulou a teoria de combinação para os gases. Segundo ele, todos os gases se combinavam em volumes que mantinham entre si uma relação simples e isso, para Gay-Lussac era mais que suficiente para confirmar a teoria de Dalton. Amedeo Avogadro nasceu na Itália, na cidade de Turim em 1776, ou seja, apenas dois anos antes de seu contemporâneo acima citado. AvogaJoseph-Louis Gay-Lussac (1778-1850) 18 | Ciências Naturais e Matemática | UAB
dro conseguiu verificar que os átomos podiam combinar-se quando os gases eram misturados para originar grupos de átomos, ou seja, a mistura deveria respeitar a proporção entre os átomos na molécula. Veja que Avogadro acabou utilizando a palavra molécula (do latim “molécula” pequena massa) para descrever um grupo de átomos, mesmo que ainda em entendimento singular, pois, para ele, átomos eram “moléculas elementares” e as combinações entre átomos, “moléculas integrais”. Foi ele quem destacou a fórmula da água como H 2O e não como HO como era então conhecida. É mais conhecido, porém, pelo Princípio de Avogadro que diz, “volumes iguais de gases à mesma temperatura e pressão contém o mesmo número de átomos”. Avogadro ficou muito entusiasmado com as possibilidades explicativas de suas idéias, mas a Química ainda era uma Ciência de pouca compreensão. Sua linguagem era curta e cheia de sinais e códigos inacessíveis ou pouco compreensíveis. Amedeo Avogadro (1776-1856) Coube a Jöns Jakob Berzelius criar uma taquigrafia química. Ele imaginou um método muito simples usado até o dia de hoje. O átomo de cada elemento representado pela primeira letra (ou letras) do seu nome. Assim: Oxigênio – O Nitrogênio – N Ferro – Fe E assim por diante. Com isso ele facilitou a identificação dos elementos quando descritos em uma equação química. Berzelius merece um grande destaque por suas pesquisas no ramo da química. Havia nesta época uma empolgante questão a ser investigaJöns Jakob Berzelius (1779-1848) da: a pilha voltaica de Volta. A decomposição das substâncias em solução era agora investigada com mais profundidade através da pilha que se mostrou eficiente na dissociação do hidrogênio e do oxigênio da água. Uma nova área da química ganhava impulso com estudos da pilha de volta: a eletroquímica. Davy se perguntava o que acontecia dentro da pilha. Ele montou suas pilhas usando placas de zinco e cobre mergulhadas em água e percebeu que nenhuma reação acontecia quando a água estava pura. A questão era: a eletricidade poderia ser gerada por reações químicas? Davy percebeu que a energia poderia sim ser gerada quando, junto com a água, UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
19
era colocada uma substância capaz de adicionar oxigênio ao zinco (oxidação). Ele ainda experimentou outros metais em suas pilhas e baterias e chegou à conclusão de que “as atrações químicas e elétricas são produzidas pela mesma causa”. Ou seja, a afinidade química de uma substância por outra é semelhante à atração entre corpos. Sir Humpry Davy ganhou reputação internacional e em 1807 foi contemplado com o prêmio Napoleão pelo “Institute de France”. A eletricidade gerada na pilha era devida a quê? Às placas ou ao líquido no qual as placas estavam mergulhadas? A viagem que Davy fez à França lhe possibilitou uma enriquecedora conversa com Gay-Lussac e seu colega Louis Thérnard que estavam usando uma enorme bateria construída com muitas placas. Nessa conversa ficou Sir Humphry Davy (1778 - 1829) sabendo que provavelmente o líquido entre as placas se decompunha a uma velocidade que dependia da corrente elétrica, isto é, da quantidade de eletricidade que circulava e não do metal com o qual eram feitas as placas. E isso mudava os rumos do pensamento sobre a pilha! Davy possuía um proeminente assistente – Michael Faraday – que demonstrou que o efeito da eletricidade se espalhava por todo o líquido e não apenas nos pontos em que este tocava as placas. Foi Faraday quem estabeleceu as leis de ação química e elétrica dentro de uma pilha. São dele os termos “íons” e “eletrólito”. Segundo Faraday, “os átomos na matéria, são de algum modo dotados ou associados com poderes elétricos, aos quais devem suas mais notáveis qualidades, dentre as quais a afinidade química”. A eletricidade abre, então, um insinuante caminho de pesquisa para a química. Os estudos da afinidade química e da eletrólise auxiliam no esclarecimento da estrutura da matéria. Nesse ínterim, vimos o estabelecimento da classificação periódica dos elementos baseados nos trabalhos de Dmitri Ivanovitch Mendeleiev (1834-1907). Conhecimento que substancia a química e que, junto com todos os avanços vai lhe concedendo status de “ciência exata”. Um ramo de grande avanço nesta época foi o da química orgânica. Este termo foi usado – e ainda hoje é (porém com outro significado) – porque as substâncias com as quais lidava eram as encontradas em “coisas vivas”. Além disso, os químicos da época acreditavam na teoria da força Você sabe a vital, ou seja, os materiais das plantas e animais eram essencialmente diferença entre diferentes dos de outras substâncias e que as mesmas regras e teorias pilhas e baterias? não podiam ser aplicadas a ambos. Mas essa visão começa a cair no início do século XIX. A análise Leia o artigo da Revista química mais apurada começou a mostrar que algumas substâncias Química Nova na Escola,
n°.11, maio 2000, pág. 3-9.
20 | Ciências Naturais e Matemática | UAB
vivas certamente continham ingredientes químicos de seres inanimados. O salto foi dado por um experimento realizado por Friedrich Wohler, um químico alemão que, em 1828, descobriu que a uréia (H2N.CO.NH2) que é encontrada na urina de mamíferos, pássaros e alguns répteis , assim como no leite e no sangue, podia ser sintetizada a partir do cianato de amônio, substância que tinha a mesma composição embora sua ação química fosse diferente. Falaremos sobre ela mais adiante. Essa síntese de um produto de origem animal a partir de um composto inorgânico pôs fim à teoria da força vital e tornou-se um marco na história da química (CHASSOT, 2004). A Química orgânica passa então a ser conhecida como a química que estuda os compostos do carbono e não somente como a química dos seres vivos.
A
Friedrich Wohler (1800-1882)
r evel aç ão de um br ilhante professor!
Liebig foi um alemão que nasceu em 1803, em Darmstadt. Logo cedo se interessou pela química cedendo às influências de seu pai que possuía um laboratório anexo a uma empresa familiar onde fabricava produtos medicinais e materiais de pintura. Tornou-se aprendiz de farmacêutico e posteriormente estudou química em Bonn e Erlangen. Obteve seu doutorado com 19 anos. Foi a Paris e assistiu conferências de Gay-Lussac – com quem foi trabalhar mais tarde – e de Thénard e Dulong. Mais tarde foi lecionar na Universidade de Giessen onde foi eleito professor “extraordinário”. Liebig contribuiu muito com o desenvolvimento da química orgânica. Trabalhou junto com Wohler, além de produzir mais de trezentos artigos científicos, produziu também um livro sobre Justus von Liebig química orgânica e uma enciclopédia de ciência química. Fundou (1803-1873) ainda dois jornais científicos. Foi antes de tudo um brilhante professor que soube influenciar seus alunos para que estes continuassem as pesquisas no ramo da química. Ele não apenas estudava e realizava suas pesquisas, ele ensinava seus alunos a pesquisarem. Pense
um pouco antes de prosseguir . . .
Como desenvolver o senso de pesquisa? O que é pesquisar? Como podemos influenciar nossos alunos a se tornarem pesquisadores? É preciso ter características especiais para ser um pesquisador? UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
21
Entre os dedicados alunos de Liebig estava o químico orgânico August Hofmann que estudou química e seguiu o exemplo de seu mestre e divulgava o conhecimento através do ensino. Em 1845, antes de completar trinta anos, mudou-se para Londres a fim de se encarregar do Royal College of Chemistry, fundado por alguns dos alunos ingleses de Liebig e que seria mais tarde absorvido pela Universidade de Londres. Foi considerado um excelente professor. Iniciou suas pesquisas em química orgânica analisando substâncias de alcatrão de hulha, que resultam da destilação do carvão e contêm grande variedade de compostos hidrocarbonetos. Como não poderia deixar de ser, influenciou alguns de seus alunos a realizar trabalho semelhante, dentre eles Wiliam Perkim que se tornou um químico tremendamente habilidoso. Foi Perkim quem descobriu a púrpura e deu o ponta-pé inicial para a indústria química de tinturas sinAugust Hofmann (1818-1892) téticas. Hofmann extraiu benzeno1 da hulha de alcatrão, e essa substância estava na base de todas as tinturas de anilina. Os químicos já sabiam que o benzeno era composto por seis carbonos e seis hidrogênios (C6H6), mas a questão era: como estes átomos estavam arran-
jados na estrutura do benzeno? Foi August Kekulé von Stradonita (1829-1896) quem solucionou esta questão. No princípio do século XVIII, os teatros e outras construções públicas em Londres eram iluminados por um gás fabricado a partir do óleo de baleia. Quando esse gás era comprimido para distribuição em tanques, um líquido volátil aromático se separava. Michael Faraday examinou esse liquido e determinou por volta de 1825 que este continha apenas carbono e hidrogênio, em proporções iguais. Mais tarde, provou-se que esse líquido que foi chamado de benzeno, era um componente do alcatrão destilado do carvão na produção do coque. O benzeno foi um dos maiores enigmas para os químicos da época. A maioria dos compostos que continham apenas carbono e hidrogênio e apresentavam a mesma proporção de átomos de carbono e hidrogênio (no caso 1:1, como o benzeno 6:6), comportavam-se diferentemente do benzeno. Por exemplo, eles eram facilmente hidrogenados, isto é, aceitavam a adição de várias moléculas de hidrogênio, enquanto o benzeno não aceitava. A estabilidade especial do benzeno frente às comuns reações de adição de compostos insaturados era um desafio para os cientistas da época. Foi através da teoria de valência e estrutural de Kekulé que esse enigma começa a ser desvendado. Antes da teoria de Kekulé, os químicos orgânicos de certa forma trabalhavam no escuro. Eles realizaram algumas coisas notáveis, mas não tinham uma visualização de como as substâncias com as quais trabalhavam se pareciam em nível molecular. Por exemplo, no experimento de Friedrich Wöhler a uréia era diferente do cianato de amônio, embora ambos contivessem nitrogênio, hidrogênio, carbono e oxigênio na
1 Leia mais sobre o Benzeno no endereço: http://www.qmc.ufsc.br/qmcweb/artigos/benzeno/ index.html
22 | Ciências Naturais e Matemática | UAB
proporção de 2:4:1:1. Estes compostos foram designados como “isômeros”, mas ninguém entendia como seria a estrutura molecular de cada um, de forma a justificar dois compostos diferentes. N2H4CO Isocianato de amônio
Decompõe a 60ºC
N2H4CO PF 133ºC Uréia
Foi Kekulé quem desenvolveu a idéia conhecida como potência combinatória de uma substância ou sua “valência” (do latim “valens”, “força”). Realizou ainda um estudo aprofundado e particular do carbono, elemento que estava presente em todas as matérias orgânicas. Ele verificou que o carbono podia ser tetravalente e concluiu que esta era a razão para formar as longas cadeias de moléculas orgânicas conhecidas. No caso do benzeno, Kekulé enfatizou o comportamento diferenciado de suas moléculas em relação àqueles que possuíam cadeia aberta. Suas pesquisas e seu entusiasmo pelo benzeno o fizeram escrever o seguinte discurso em 1890 (parte I), que foi lido na comemoração do 25º ano do anúncio da fórmula estrutural para o benzeno, pela prefeitura de Berlim. Discurso que vale a pena ser colocado aqui. “Vocês estão celebrando o jubileu da teoria do benzeno. Eu devo, antes de tudo, falar-lhes que, para mim, a teoria do benzeno foi somente uma conseqüência, e uma conseqüência muito óbvia das idéias que eu formara sobre as valências dos átomos e da natureza de suas ligações. O que mais eu poderia ter feito com as valências não utilizadas? Durante minha estada em Londres, eu residi em Claphan Road. Freqüentemente, no entanto, passava as noites com meu amigo Hugo Mueller. Nós conversávamos sobre muitas coisas, mas, com freqüência, de nossa amada química. Em um agradável anoitecer de verão, estava retornando no último ônibus, sentado do lado de fora, como de costume, trafegando pelas ruas desertas da cidade... Eu caí em devaneio, e vejam só, os átomos estavam saltando diante dos meus olhos! Até agora, sempre que esses seres diminutos haviam aparecido para mim, estavam sempre em movimento; mas até aquele momento eu não fora capaz de perceber a natureza de seus movimentos. Agora, no entanto, eu via como, freqüentemente, dois átomos menores uniam-se para formar um par; como um maior abraçava os outros dois menores; enquanto o conjunto mantinha-se girando em uma dança vertiginosa. Vi como os maiores formavam uma cadeia, arrastando os menores atrás de si, mas somente nos finais das cadeias... O grito do motorista: “Claphan Road” acordou-me do sonho; mas passei uma parte da noite colocando no papel pelo menos o esboço dessas formas de sonho. Essa foi a origem da teoria estrutural...” Esse sonho de Kekulé, no qual os átomos “formavam uma cadeia”, “um átomo
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
23
maior abraçava outros menores” e “outros ainda maiores retinham três ou mesmo quatro dos menores” levou Kekulé a propor que certos átomos de carbono poderiam se ligar em cadeias, com átomos de hidrogênio e outros átomos ligados a ele. Por exemplo, o álcool metílico e o álcool etílico, cujas formulas simples eram conhecidas como sendo CH4O e C2H6O, poderiam ser representados pelas formulas estruturais abaixo:
F igura 1
F igura 2
De maneira semelhante, a fórmula estrutural do cianato de amônio poderia ser escrito como a figura 3, enquanto a fórmula estrutural da uréia como a figura 4.
F igura 3
F igura 4
As descobertas de Kekulé e suas teorias forneceram aos químicos uma base sobre a qual se podia determinar a estrutura e a composição atômicas de uma série de outras substâncias orgânicas. Avanços químicos são sentidos no final do século XIX e início do século XX com aplicações de métodos matemáticos em diversas áreas da química. É importante citálas aqui: • Cinética das reações: definição dos conceitos de moléculas ativas e energia de ativação; • Equilíbrio químico; • Termodinâmica dos processos químicos: conceitos de calor e calor de reação e a conservação de energia; • Soluções: propriedades coligativas; • Gases: surge a físico-química. Temos um século de grandes desenvolvimentos no ramo da Química. Além das indústrias de corantes sintéticos iniciadas por Perkins vemos que a descoberta de explosivos foi outra busca que marcou o surgimento de indústrias. Surgem o algodão-pól-
24 | Ciências Naturais e Matemática | UAB
vora, a nitroglicerina, a cordita e a dinamite, esta última descoberta por Alfred Nobel em 1859. Em 1869, o estadunidense John Hyatt (1837-1902), atraído por um prêmio de 10 mil dólares, descobre a celulóide, primeiro plástico artificial. A produção do aço, a industrialização do alumínio e a fabricação de adubos são apenas algumas das extraordinárias descobertas que traduzem o desenvolvimento da Química do século XX.
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
25
26 | Ciências Naturais e Matemática | UAB
D e Ta l e s d e M i l e t o à T e o r i a d a C o m p l e x i d a d e , c o m o a B i o l o g i a e v o l u i u?
N
Q uando
a
Biologia
surg e como
C i ê n c i a?
o início do séc. XIX, Karl Burdach, reforçado em 1802 por Jean-Baptiste Pierre-Antoine de Monet Lamarck e Gottfried Reinhold Treviranus, propôs o uso do termo BIOLOGIA para denotar uma nova ciência geral dos seres vivos que poderia superar a história natural. A partir da constituição da Biologia como Ciência tornou-se necessário definir vida como fenômeno, já que é a ciência que estuda a vida, ou melhor, os processos que garantem a vida. Há, entretanto, autores que Karl Burdach (1776-1847) afirmam que a Biologia moderna, até meados do século passado, tinha como marco principal a debilidade conceitual e uma exígua presença de generalizações em esquemas abrangendo uma abundante e variada massa de fatos empíricos, pequena quantificação de suas interpretações, reduzidas a um processo de teorização lógico-dedutiva, uma biologia matemática geralmente de caráter particular, pouco abrangente (VENTURA, 2001). Desde a Revolução Científica do século XVII até bem depois da Segunda Guerra Mundial, para a maioria das pessoas “ciência” era sinônimo de ciências exatas “Física, Química, Mecânica, Astronomia”, que se baseavam na Matemática e enfatizavam o papel das leis universais. Durante todo esse tempo, a Física foi tida como o modelo ideal de Ciência. O estudo do mundo vivo, por outro lado, era considerado esforço inferior (MAYR, 2008). Hoje temos consciência da diferença de categoria entre o mundo inanimado e o vivo. Ambos os mundos obedecem às leis universais descobertas e analisadas pelas Ciências Físicas, mas os organismos vivos obedecem também a um segundo conjunto de causas, o das instruções do programa genético. Este segundo tipo de causalidade não existe no mundo inanimado (MAYR, 2008). Em Mayr (2008) lemos: “[...] Alguns anos atrás, o então presidente da França Valéry Giscard d’Estaing declarou o século XX o “século da biologia”. Se isso não é inteiramente preciso para todo este século, decerto o é para a sua segunda metade. Hoje a biologia é um campo florescente de investigação. Testemunhamos
UAB| Ciências Naturais e Matemática | As Ciências Naturais na Contemporaneidade |
27
revoluções sem precedentes na genética, na biologia celular e na neurociência, bem como avanços espetaculares na biologia evolutiva, na antropologia física e na ecologia.[...]” É importante ressaltar, emprestando a análise de Xavier (2006), que “[...] os atuais livros didáticos não estão atualizados no estudo dos temas considerados essenciais para perfeito entendimento e aquisição de informações associadas ao rápido avanço do conhecimento na área da Nova Biologia, necessitando de reformulação e atualizações que promovam mudanças conceituais [...]”. Então, o professor de Ciências Naturais ou de Biologia precisa estar constantemente em busca de outras fontes, seja por meio de formação continuada, seja empregando o que a tecnologia, a mídia e outras nos oferecem, não se esquecendo, entretanto, de consultar fontes diversas considerando, principalmente, que existem várias correntes teóricas nos mais diversos campos do conhecimento biológico.
Uma
síntese da história das
C i ê n c i a s B i o l ó g i ca s
No percurso da história das Ciências Biológicas pode-se detectar três principais aspectos conceituais. O primeiro deles enfoca a TAXONOMIA, estimulada pela percepção da enorme diversidade biológica existente, que começou na antiguidade, quando o naturalista tinha como objetivo nomear e classificar os seres criados por Deus (ou deuses). Todos os estudos comparativos sobre a raridade das espécies, sobre o tamanho da zona de distribuição de uma espécie, sobre interações entre predador e presa e muitas outras áreas de pesquisa em biologia de populações dependem do conhecimento dos táxons de espécies diferentes e de sua história de vida. Os naturalistas tradicionais, especialmente os botânicos e os estudiosos dos insetos e dos organismos aquáticos, eram em sua maioria taxonomistas. O segundo aspecto foi a tentativa de compreender a ENGRENAGEM DOS ORGANISMOS, a estrutura e o desempenho de sistemas vivos, o funcionamento do mundo vivo e suas interações bióticas e abióticas. O terceiro aspecto aponta para uma inadequação da forma de interpretar o mundo natural, pois, diante de uma matéria viva que apresentava características distintas da matéria bruta, havia a necessidade de se entender o processo e não apenas decompor os fenômenos para, então, analisá-los (CASTAÑEDA, 1995). Francis Bacon e muitos de seus contemporâneos sintetizaram a atitude científica afirmando que “se quisermos compreender a natureza, devemos consultar a natureza e não os escritos de Aristóteles.” (CHALMERS, 1993). São necessários vários elementos para a compreensão dos processos evolutivos, dos fenômenos naturais principalmente aqueles relacionados à manutenção e extinção das espécies biológicas. O matemático N. Rashevsky, em 1961, reconheceu
28 | Ciências Naturais e Matemática | UAB
que aspectos relacionais, às vezes, são mais importantes do que aqueles quantitativos ou somente métricos. A matemática veio facilitar, por meio de um conjunto de conceitos e técnicas: a ANÁLISE DA COMPLEXIDADE DOS SISTEMAS VIVOS, hoje chamada de Teoria da Complexidade ou, pelos matemáticos, “dinâmica não linear”, que chega como um marco, um “divisor de águas” conceitual, conforme Capra (2005). Todavia, como Ventura (2001) alerta, deve-se considerar que, em Biologia, dada a natureza dos sistemas vivos (auto-organização, complexidade e evolução), os esquemas teóricos não devem ser excessivamente abstratos ou formais para não resultarem na esterilidade da teoria em termos de sua aplicação. A idéia de algo complexo, de complexidade, sempre foi usada, mas só modernamente vem ganhando formato de uma nova ciência. Tem-se ouvido muito falar em Teoria da Complexidade, paradigma da complexidade, epistemologia da complexidade. A complexidade tem sido muito usada nos estudos físicos, alguns em escala planetária, envolvendo emissão de gases poluentes, correntes marítimas, aquecimento da Terra (CHAVES, 2005). A Teoria do Caos é uma parte importante dos sistemas dinâmicos não-lineares (complexos). O caos pode ser definido como um processo complexo (no qual tudo está tecido junto) – qualitativo e não-linear – caracterizado pela (aparente) imprevisibilidade de comportamento e pela grande sensibilidade a pequenas variações nas condições iniciais de um sistema dinâmico. Os estados deste processo podem ser perfeitamente quantificáveis e previsíveis pela utilização de modelos matemáticos, analíticos ou numéricos que descrevem o sistema utilizando equações não lineares, além de equações lineares que se utilizavam até bem pouco tempo. Apenas recentemente a ciência passou a ver no caos uma das forças centrais do universo. A Teoria do Caos, primeiramente aplicada ao entendimento dos mecanismos de criação das tempestades, das torrentes e dos furacões, agora se aplica a tudo, desde a medicina e os conflitos armados até a dinâmica social e as teorias de formação e transformação das organizações (BRIGGS; PEAT, 2008). Na área biológica, a complexidade aparece em sua plenitude no ser humano, com seus múltiplos sistemas e aparelhos interagindo para manter a homeostase. Os estudos da termodinâmica deram um grande impulso à Teoria do Caos. Ilya Prigogine (1917-2003), diz que “ordem e organização podem surgir de modo ‘espontâneo’ da desordem e do caos, produzindo novas estruturas, por meio de um processo de auto-organização” (PRIGOGINE, 1997). E os Fractais, de Benoit Mandelbrot, o que têm a ver com a Complexidade? São, conforme Kon (2008), outra conquista nova com grandes aplicações. São estruturas geométricas complexas, belas, ligadas à natureza, à vida e à própria compreensão do universo. Estruturas cujos componentes são semelhantes à totalidade de estrutura. Componentes estes, por sua vez, formados por sub-componentes também semelhantes ao todo. Auto-semelhança que se estende por vários níveis. Se imaginarmos alguns tipos de samambaias, poderemos entenBenoit Mandlebrot UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
29
der melhor esta definição, em que folhinhas que compõem uma “folha” desta planta têm semelhança com o todo. A natureza nos fornece infinitos exemplos desse tipo de estrutura. A Lógica Fuzzy nos ajuda a interpretar essa complexidade. A fuzziologia é um novo ramo da investigação humana, que explora as fontes e dinâmicas da inexatidão (fuzziness) – incerteza, imprecisão, indeterminação – inerente na nossa existência, naquilo que experimentamos, naquilo que aprendemos e conhecemos através das nossas vidas (DIMITROV, 2008). “Os Conjuntos Fuzzy e a Lógica Fuzzy provêm a base para geração de técnicas poderosas para a solução de problemas, com uma vasta aplicabilidade, especialmente nas áreas de controle e tomada de decisão. A força da Lógica Fuzzy deriva da sua habilidade em inferir conclusões e gerar respostas a partir de informações vagas, ambíguas e qualitativamente incompletas e imprecisas. Neste aspecto, os sistemas de base Fuzzy têm habilidade de raciocinar de forma semelhante à dos humanos. Seu comportamento é representado de maneira muito simples e natural, levando à construção de sistemas compreensíveis e de fácil manutenção “(TÔRRES, , 2008). Ainda sobre o desenvolvimento do conhecimento biológico, Wilson (2008) destaca três conquistas intelectuais da Biologia Contemporânea, cujas conseqüências para a economia e a sociedade são cruciais. A primeira se refere à BIODIVERSIDADE. A atordoante diversidade biológica levou a um grande esforço taxonômico e classificatório com bases pura ou predominantemente morfológicas, com caráter estático, cujos esforços de pesquisa conferiram, segundo VENTURA (2001), caráter descritivo à Biologia. A segunda descoberta recente da biologia envolve a COMPLEXIDADE, o caráter dinâmico e a natureza emergencial dos ecossistemas. Espécies e genes não podem ser tratados como listas estáticas: mantêm relações complexas, cujo estudo constitui uma das mais Hall do Museu de História avançadas fronteiras da atividade científica contemporânea. A terceira conquista inNatural de Nova York telectual trata de romper com um dos mais caros mitos da civilização ocidental, que consiste em opor, como termos antagônicos, NATUREZA E CULTURA, MEIO AMBIENTE E SOCIEDADE. Aprender com a natureza, conforme Abramovay (2008), não consiste em lidar com uma entidade mágica e intocável, à qual se opõe uma outra que lhe é estranha e exterior, a sociedade. Cabe ressaltar que, no mundo social, a complexidade torna-se cada vez mais importante pelos avanços tecnológicos que permitem comunicações cada vez mais rápidas entre pessoas, povos e nações. O esquema a seguir representa como eixo central a Evolução, onde se ancoram diversas áreas das Ciências Biológicas, que congregam mais de uma centena de subáreas, conforme está apresentado na Resolução nº10/2003, do Conselho Federal de Biologia, o que nos mostra o quanto evoluiu a Biologia, que passou a consistir em uma Ciência em 1802.
30 | Ciências Naturais e Matemática | UAB
Resolução nº10/2003, do Conselho Federal de Biologia, pode ser encontrana na integra no fascículo ou em: http://www.cfbio.org.br/instituicao/legislacao/resolucao_10.html UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
31
P o r q u e d e “ Ta l e s C o m p l e x i d a d e ”?
de
Mileto
à
Te o r i a
da
Tales de Mileto (a.C. 625-545) é apontado como um dos primeiros estudiosos que defendia as explicações racionais para eventos naturais e é considerado como o fundador da ‘filosofia natural’. Tales sustentava que todas as coisas originavam da água, além de defender que tudo o que se conhecia era composto pelos quatro elementos, pois além da água, havia o fogo, o ar e a terra. E por que Teoria da Complexidade? Poderíamos ter escolhido qualquer uma das linhas de pesquisa evolucionistas contemporâneas. Assim, tomamos aquela que tem dado enorme contribuição para a compreensão da complexa rede de vida que se estabeleceu ao longo dos tempos, das inter-relações que a mantém. Para Morin (2002) se tentamos pensar no fato de que somos seres ao mesmo tempo físicos, biológicos, sociais, culturais, psíquicos e espirituais, é evidente que a complexidade é aquilo que tenta conceber a articulação, a identidade e a diferença de todos esses aspectos, “enquanto o pensamento simplificante separa estes diferentes aspectos, ou unifica-os por uma redução mutilante”. A complexidade também é o pensamento capaz de reunir (complexus: aquilo que é tecido conjuntamente), de contextualizar, de globalizar, mas ao mesmo tempo, capaz de reconhecer o singular, o individual, o concreto (MORIN e MOIGNE, 2000).
A ORIGEM E A EVOLUÇÃO DA VIDA ESTÃO ENTRE OS EVENTOS MAIS ESPETACULARES QUE JÁ OCORRERAM NA HISTÓRIA DO NOSSO PLANETA TERRA ! Data de muito tempo a tentativa de compreender a origem e evolução da vida, ao longo dos séculos. Embora alguns pesquisadores considerem que o evolucionismo já era tratado desde a Antigüidade, outros discordam já que se abordavam as teorias sobre evolução voltadas ao futuro do ser humano e a evolução do progresso circular. A mesma discussão se dá para a Idade Média, quando a questão da evolução era tratada dentro da teoria da evolução social em espiral, não se tratando, pois, de uma Teoria sobre Evolução Biológica. A teoria da evolução, cuja formulação inicial consistiu em apenas declarações verbais ganhou tratamento matemático por Haldane (1924), Fisher (1930 e 1949), e Wright (1949), (VENTURA, 2001) Acredita-se ter sido o método científico, no período do Iluminismo, que serviu de base para o crescimento de todas as teorias evolucionistas. A Revolução Industrial veio colaborar com o desenvolvimento do pensamento científico, pois ela o retroalimentava com os avanços tecnológicos, havendo um crescimento em vários itens: produção, população, conhecimentos e, diante de tudo isso, o ser humano promovia o desenvolvimento da Ciência, herdando do período anterior (Idade Moderna) uma ciência eminentemente positivista, segundo COMTE, que tem a hipótese científica
32 | Ciências Naturais e Matemática | UAB
como proposição conjectural, ou seja, apresenta um juízo cujo valor de verdade que está condicionado “[...] à consistência da estrutura dedutiva subseqüente, e ao sucesso das corroborações experimentais das diversas previsões articuladas naquela estrutura teórica. Confirmando-se o sucesso, a HIPÓTESE VIRA AXIOMA OU POSTULADO DA TEORIA [...]” (GOMIDE, 2008). “Nothing in biology makes sense except in the light of evolution” (“Nada em Biologia faz sentido exceto à luz da Evolução”) (DOBZHANSKY, T. The American Biology Teacher, 35: 125-129.1973) A complexidade dos conhecimentos relacionados à Evolução Biológica é, na opinião de alguns cientistas, um problema para a abordagem do tema pelos professores, embora a teoria da evolução biológica tenha sido proposta, por sua importância, como eixo integrador que envolva todas as áreas da Biologia - zoologia, botânica, microbiologia, ecologia, genética, entre outras. O Ministério da Educação, por meio das diretrizes curriculares nacionais, sugere que esta seja adotada nas aulas de ciências e biologia, nos materiais didáticos, vestibulares e nos processos de reformulação das matrizes curriculares no Ensino Superior. A Teoria da Evolução Biológica, ao tratar do processo que originou todas as espécies, permitiu que diversas áreas biológicas se unificassem, compondo o que hoje conhecemos como Biologia. Para alguns pesquisadores, essa consiste em justificativa suficiente para que o ensino de Biologia tenha como princípio organizador a evolução biológica. Porém, ainda não há consenso nesta questão entre os próprios pesquisadores e entre professores e autores de materiais didáticos, conforme TIDON LEWONTIN (2004). O QUE VOCÊ PENSA A ESSE RESPEITO? DÊ A SUA OPINIÃO NO FÓRUM QUE SERÁ MARCADO PELO SEU TUTOR. PREPARE-SE COM LEITURAS PARA ESSA DISCUSSÃO, POIS ELA PROMETE! Além do grande avanço conceitual proporcionado pelas teorias evolucionistas e de vários naturalistas, o século XIX foi fecundo para a Biologia em muitos outros campos. À luz das descobertas de Christian Heinrich Pander (1794-1865), e de Karl Ernst von Baer (1792-1876) em seus estudos sobre embriologia (Uber Entwickelungsgeschichte der Thiere - A história do desenvolvimento animal, em 1827 e 1837), descartaramse as idéias pré-formistas, vistas no fascículo 3 deste módulo I, estudando as camadas germinativas de embriões de galinha (ectoderme, mesoderme e endoderme). Eles propuseram que os embriões de animais mais complexos passam por vários estágios morfológicos, modificando suas estruturas a partir de um germe homogêneo para uma forma heterogênea complexa ao longo do processo de formação (RICHARDS, 2008). E essa passou a ser a Lei do Desenvolvimento, de acordo com Sandler (2000). Um dos períodos mais profícuos da Biologia foi em meados do século XIX: com UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
33
Theodor S
chwann
a descoberta do núcleo celular das células vegetais, por Brown, entre os anos 1831 e 1839 e a Teoria Celular formulada em 1839 por Matthias Jakob Schleiden (1804-1881), aplicada às plantas - e Theodor Schwann (1810-1882), aplicada aos animais –, modificou as idéias no tempo e no espaço: “a célula é a unidade básica do metabolismo que contêm material hereditário e fisiológico, sob o ponto de vista estrutural e Matth funcional, dos seres vivos, ou seja, todos ias Ja kob S chle os organismos são constituídos por células, onde se desenrolam as iden reações da vida”. Este último, estudou, ainda, o desenvolvimento da primeira célula resultante da fecundação - o ovo - até a formação de um organismo completo. Por meio de suas observações, esses dois cientistas concluíram que todo ser vivo é constituído de unidades fundamentais: as células. Assim, desenvolveu-se a Citologia (ciência que estuda as células), importante ramo da Biologia. Rudolf Ludwig Karl Virchow (1821-1902), patologista, afirmou que toda célula provém de outra célula e deu um impulso à patologia celular ao relacionar algumas doenças com processos celulares anormais ou, seja, em 1858, ele estabeleceu o conceito da Teoria Celular, pelo qual todas as formas de lesão orgânica começam com alterações moleculares ou estruturais das células. De acordo com ele, a continuidade dos organismos vivos depende das células: “... todas as células provêm de células preexistentes. Elas multiplicam-se por divisão dependente de uma continuidade genética entre célula-mãe e células-filhas”. Esta nova generalização implicava evidentemente continuidade genética transferida de uma célula para outra (RONAN, 2001). O médico e biólogo italiano Camilo Golgi (1843-1926), ao corar uma célula nervosa com nitrato de prata, observou que o metal se depositara em certas regiões da célula evidenciando uma estrutura em forma de rede, que foi denominada de complexo ou aparelho de Golgi, cuja função primordial é o processamento de proteínas ribossomais. Hugo von Mohl (1805-1872) descobriu a existência de um núcleo e de um protoplasma na célula. Sua obra inclui Principles of the Anatomy and Physiology of the Vegetable Cell (1851, tr. 1852) e a coleção de papéis tividade de esquisa importantes Vermischte Schriften botanis-
A
P
Qual foi a importância dessas descobertas celulares para a humanidade e para a Ciência? Leia os autores Lopes (2006), Raw (2001) e faça uma pesquisa em artigos que se refiram a essa temática. Envie para o seu tutor. 34 | Ciências Naturais e Matemática | UAB
At i v i d a d e Vamos montar uma célula animal, uma vegetal e outra bacteriana? esquematize cada estrutura celular em sua célula correspondente, apontando suas diferenças.
chen Inhalts [miscelânea botânica] (1845) foram de grande contribuição. Também foi estudado por ele o processo da mitose ou cariocinese. Em 1882, Walther Flemming, considerado o fundador da ciência da citogenética, foi um dos pioneiros no estudo do material celular hereditário e a observar e descrever sistematicamente o comportamento dos cromossomos no núcleo celular durante o processo pelo qual uma célula se divide em duas, nos animais. Nas plantas, Eduard Adolf Strasbuger (1844-1912) defendeu, em sua dissertação, que o núcleo se dividia quando a célula se dividia. Foi ele quem identificou que os cromossomos eram os transportadores da hereditariedade. Em seu percurso, ele trabalhou com gametas gerados pela meiose e cunhou os termos, haplóide e diplóide para descrevê-los.
“S cience is a c o nstant fl o w ” (A ciência é um flu x o c o nstante ) E d uar d A d o lf S trasbur g er (FINK E, 199 4)
O que Strasburger quis dizer com essa afirmação? Discuta pelo menos uma situação em que essa afirmação se aplica no fórum com seus colegas e tutor.
O zoólogo e médico suíço Hermann Fol (1845-1892), contemporâneo de Ernest Haeckel, observou e descreveu o processo de fecundação do óvulo pelo espermatozóide em 1879. O citologista belga Edouard van Beneden (1846-1910), estudando parasitas de cavalo, descobriu como os cromossomos se combinam durante a reprodução, ou seja, aspectos essenciais para a divisão celular - a meiose, para formar os gametas. Walther Flemming e Eduard Strasburger estiveram com ele nesta elucidação qualiquantitativa na distribuição dos cromossomas entre as células-filhas (Wikipedia, 2008 http://en.wikipedia.org/wiki/Edouard_Van_Beneden). Antes desta descoberta, Giovanni Battista Amici estudou, entre 1823 e 1830, o processo de reprodução sexual em plantas. Outro avanço fundamental no campo das ciências biológicas resultou do trabalho de Louis Pasteur, considerado o Pai da Bacteriologia, que demonstrou o papel desempenhado pelos microorganismos no desenvolvimento de doenças infecciosas e realizou estudos sobre a fermentação, a partir dos quais Eduard Buchner (1860-1917) conseguiu isolar uma das enzimas participantes desse processo, provando que, mesmo na ausência de leveduras, a fermentação poderia ocorrer pela presença de enzimas como a zimase, publicada no ‘’Die Zymasegährung’’, em 1903, pesquisa que lhe rendeu o Prêmio Nobel de Química em 1907. Sandler (2000), ao reler os trabalhos de Gregor Johann Mendel (1822 - 1884), enxergou um “Mendel diferente” daquele apresentado na literatura, considerando que o que ele escreveu em Versuche über Pflanzen-Hybriden foi traduzido em 1902 na obra William Bateson, Mendel ’s Principles of Heredity: A Defence. Uma segunda tradução foi publicada por STERN e SHERWOOD, em 1966, como The Origin of Genetics— A Mendel Source Book. Entretanto, segundo Sandler, o foco original de Mendel foi o desenvolvimento como um processo biológico. Cabe ressaltar que Desenvolvimento Bioló-
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
35
gico, no séc. XIX, abraçava tanto a hereditariedade quanto as mudanças embriológicas. Ele se referia quase que exclusivamente às mudanças ontogenéticas, embora ele não as tenha discutido. Autores citam Mendel com interesse na evolução, embora ele raramente tenha citado o termo em sua obra. De fato, o que ele deixa transparecer em seu livro era seu interesse em examinar o processo de hibridização. Não há referência à hereditariedade em seu trabalho e sim ao desenvolvimento, demonstrado em quase todas as páginas. Entretanto, seus trabalhos são considerados o ponto de partida da genética moderna, por ter estudado 34 variedades de ervilhas, as quais cultivou por um longo tempo para obter sementes puras e iniciar a interpretação dos resultados de seus cruzamentos. O botânico holandês Hugo de Vries chamou de leis de Mendel, primeiras leis da herança genética e, também, primeiras leis quantitativas em Biologia. Um exemplo que modificou nosso olhar sobre a evolução foi a microscopia eletrônica aliada a técnicas moleculares, que permitiram tomarmos conhecimento sobre a mitocôndria. Esta é uma organela de importância fundamental para entendermos processos evolutivos. Existem várias teorias a respeito do surgimento desta organela e a teoria atual mais aceita é de que a mitocôndria teria sido um tipo celular semelhante a uma bactéria que invadiu uma célula ancestral e acabou se estabelecendo neste outro organismo, e, por simbiose, passou a fazer parte deste. Tem-se como maior evidência para tal fato, a de que esta organela possui o seu próprio material genético, responsável pela sua multiplicação, sendo muito mais semelhante ao das bactérias do que o material nuclear da própria célula. A divisão de mitocôndrias ocorre de forma independente do núcleo (MARGULIS; SAGAN, 2002). Todavia, as proteínas constituintes de uma mitocôndria não proveem exclusivamente do DNA mitocondrial. O núcleo da célula é responsável pela expressão de algumas proteínas mitocondriais (USP, 2008). Durante um bom tempo, o Evolucionismo era uma forma de encarar a realidade humana, pois os estudiosos se interessavam em mostrar como acontecia a evolução e o progresso, porém não procuravam provar a existência da evolução biológica, mas sim a social. Tylor foi responsável pela organização das idéias evolucionistas a respeito da cultura. James Frazer teve seu nome ligado ao Evolucionismo por ter conseguido popularizar a antropologia social. O mistério do surgimento da mitocôndria 36 | Ciências Naturais e Matemática | UAB
Mas,
e n tã o , o q u e é e v o l u ç ã o b i o l ó g i ca ?
A evolução é um processo contínuo e incessante que afeta todos os organismos vivos. Mutações no material genético acumulam-se ao longo de gerações e levam a modificações na morfologia, na fisiologia e no comportamento dos organismos. A ocorrência desse processo só começou a ser compreendida pela ciência e aceita pela sociedade na segunda metade do século XIX (BORGES, 2008) com a publicação, em 1859, da Origem das espécies pela seleção natural, após um longo trabalho de observação, sobre a diversidade das espécies e das comunidades biológicas em várias regiões do mundo, por Charles Darwin. Hoje sabemos que a evolução tem como forças diretivas a seleção natural, a deriva genética e o fluxo gênico, sendo que a seleção natural favorece genes que melhoram a capacidade para a sobrevivência e reprodução. A deriva genética é mudança aleatória na freqüência de alelos, causada pela amostragem aleatória dos genes de uma geração durante a reprodução, e o fluxo gênico é a transferência de genes entre (e dentro de) populações. A vontade de compreender as relações evolutivas entre os seres levou ao desenvolvimento de vários estudos de anatomia comparada para verificar as semelhanças existentes entre as diversas espécies animais. Outros estudos apresentam as diversas perspectivas que os diferentes povos têm sobre a origem e evolução das espécies, abrangendo desde as explicações religiosas, das lendas indígenas diversas, das mitologias greco-romanas e dos cientistas antigos e modernos. Há ainda os que promovem uma fusão entre as visões científicas e religiosas preenchendo o que chamam de “lacunas” do conhecimento biológico com as explicações religiosas, ou ainda, concebendo as explicações religiosas como metáforas do conhecimento científico. Há aqueles que, como Neil de Grasse Tyson, diretor do Hayden Planetarium, do American Museum of Natural History em New York, que afirmam: “A ciência se assenta em verificação experimental e a religião se assenta na fé, que por definição dispensa qualquer tipo de comprovação, pelo que as duas abordagens ao conhecimento são completamente irreconciliáveis. E, considerando que ao longo de boa parte da História da humanidade se tentou arduamente aproximar ambas, parece pouco provável que a conciliação alguma vez aconteça: Grandes mentes científicas, desde Ptolomeu no século II a Isaac Newton no século XVII, investiram os seus intelectos formidáveis em tentativas para deduzir a natureza do Universo a partir de afirmações e filosofias contidas em escritos religiosos. De facto, à altura da sua morte, Newton tinha escrito mais palavras sobre Deus e religião que acerca das leis da Física, tudo numa tentativa fútil de usar a cronologia bíblica para perceber e prever acontecimentos no mundo natural. Se alguma destas tentativas tivesse resultado, a ciência e a religião poderiam ser hoje em dia indistinguíveis” (2008). UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
37
A evolução é um processo contínuo e incessante que afeta todos os organismos vivos. Mutações no material genético acumulam-se ao longo de gerações e levam a modificações na morfologia, na fisiologia e no comportamento dos organismos.
As idéias transformistas se consolidaram na teoria de Charles Robert Darwin (1809-1882), exposta em seu livro de 1859 On The Origin of Species by Means of Natural Selection (Sobre as origens das espécies por meio da seleção natural). Essas idéias vieram a partir das observações que realizou entre 1831 e 1836, quando DARWIN participou como naturalista numa viagem ao redor do mundo no navio de pesquisa Beagle. Baseado em uma vasta coleção de dados obtidos de fósseis marinhos que encontrou nos Andes, nas características observadas na fauna e flora nas Ilhas Galápagos, e em outras coletas em vários lugares do mundo durante sua viagem no Beagle, passando, inclusive, pelo Brasil, e na ampla competência teórica adquirida durante anos de pesquisas, Darwin afirmou nesta obra que, dentro da enorme variedade que se observa numa mesma espécie, o meio seleciona os indivíduos mais aptos à sobrevivência, os quais transmitem à descendência suas próprias características.
O mestre dos mares: o lado mais distante do mundo
(Master and Commander: The Far Side of the World, 2003)
Título Original: Master and Commander: The Far Side of the World Gênero: Aventura Tempo de Duração: 140 minutos Ano de Lançamento (EUA): 2003 Site Oficial: www.masterandcommanderthefarsideoftheworld.com Estúdio: 20th Century Fox / Miramax Films / Universal Pictures / Samuel Goldwyn
Films
No curso da jornada épica dos personagens, o filme singra por meio mundo - começa no Oceano Atlântico, na costa do Brasil, passando pelas águas tormentosas do Cabo Horn, através de gelo e neve, até o lado mais distante do mundo e as praias remotas das Ilhas Galápagos, no Pacífico (trata-se do primeiro filme em toda a história a ser rodado naquelas paragens). É possível que o Naturalista e Cirurgião de bordo do navio, Stephen Maturin, tenha sido inspirado na história de Charles Darwin, embora seja ambientado em 1805, quatro anos antes do nascimento de Darwin. Todavia, vale assisti-lo para se ter uma idéia daquele período. Este foi um filme muito elogiado, tendo concorrido a 10 Oscars. A viagem de Darwin foi filmada em A Aventura de Darwin/ The Darwin Adventure, 1971, Dir. Jack Couffer. ING.
38 | Ciências Naturais e Matemática | UAB
Na árvore da vida, uma das propostas de Darwin, está o ascendente comum, isto é, a idéia de que todas as espécies vivas e mortas descendem de um antepassado comum. Todavia, a teoria do ascendente comum pressupõe uma sucessão ininterrupta de gerações, que dura há mais de 3,5 bilhões de anos e se ramificou um incalculável número de vezes. Não deixa de ser algo excitante pensar que o DNA das células da nossa linha germinal tem se replicado há milhares de milhões de anos, inclusive o DNA dos gametas dos criacionistas. E se é hoje trivial pensar que cada organismo tem um progenitor, nem sempre foi assim. O diálogo com o mundo religioso sugere que “salvar a vida na terra” vai muito além daquilo que o conhecimento científico oferece e supõe antes de tudo, uma ética que permita à ciência incorporar o cidadão comum e à economia, aprender com a natureza (ABRAMOVAY, 2008). A questão não é se devemos ou não ensinar a crença religiosa na escola, mas sim que devemos melhorar a maneira de lecionar ciência, de modo a mostrar que uma teoria científica está apoiada em fatos científicos, resultados que são comprovados na prática. Vários contemporâneos de Darwin não admitiam a existência de um parentesco próximo dos humanos com os chimpanzés, sugerida por ele – uma espécie desprovida da linguagem articulada e do pensamento abstrato, apesar da semelhança física com o Homo sapiens. Hoje, porém, a genética mostrou que homens e chimpanzés compartilham mais de 99% de seu genoma (BORGES, 2008). A evolução é um processo constante, que está em ação neste exato momento, sobre nós humanos e demais seres vivos. Por esse motivo, temos dificuldades em entender que o Homo sapiens não é uma espécie acabada e tampouco o ponto final da cadeia evolutiva, mas está em constante evolução. Para que isso ocorra, é necessária a presença de variações genéticas e a ocorrência de um processo de seleção que, ao agir sobre indivíduos com patrimônio genético diferente, afeta sua capacidade de propagar seus genes para as gerações futuras, um processo conhecido entre os geneticistas como fitness ou aptidão. As obras de dois pesquisadores, Thomas Robert Malthus e Charles Lyel, tiveram profunda influência na origem e desenvolvimento das idéias evolucionistas de Darwin. A obra de Malthus de 1878, intitulada An Essay on the Principle of Population ( Ensaio sobre o principio da população) foi publicada em Londres e logo provocou grandes discussões em todo mundo científico da época. Desde a década de 40 do século XIX Darwin vinha acumulando evidências da evolução e teorizando o mecanismo de seleção natural, adaptações e herança, embora ele não soubesse nada sobre a genética moderna, como mostra uma carta de Mendel, com aparência de não ter sido aberta. Essas idéias ele partilhou apenas com os amigos mais próximos. Em junho de 1858, Darwin recebeu um ensaio de Wallace contendo idéias semelhantes às suas. Na carta que acompaThomas Robert Malthus (1766 - 1834) UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
39
nhava o ensaio, Wallace pedia a Darwin que o enviasse a Charles Lyell, caso reconhecesse o valor de seu material. Darwin enviou o trabalho a Lyell e a Joseph Hooker, e estes decidiram divulgar conjuntamente o ensaio de Wallace e dois escritos de Darwin - extratos de um manuscrito elaborado em 1839 e um resumo de uma carta dirigida a Asa Gray, em 1857 - provando a precedência das idéias de Darwin. Os dois trabalhos de Darwin e a carta de Wallace foram apresentados na Sociedade Linneana, no dia 1 de Julho de 1858, na ausência dos autores. Desde 2007, uma exposição sobre a vida e a obra de Darwin tem percorrido algumas capitais brasileiras e, espera-se que em 2009 sejam comemorados com grande expressão os 150 anos da publicação de A Origem das Espécies e o bicentenário do nascimento de Darwin. A publicação destes documentos em língua portuguesa oportuniza o conhecimento da história deste destacado naturalista. Segundo Mayr (2008), sem dúvida A origem das espécies, de Darwin, publicado em 1859, foi um livro revolucionário. Mas, segundo o autor, quando de seu lançamento, as idéias sobre a evolução vinham sendo discutidas havia mais de um século. Além disso, a teoria de Darwin da seleção natural – mecanismo-chave para a adaptação evolutiva – não foi plenamente aceita até quase um século após a publicação da obra. Verifique a atividade no portal. Você deve realizar uma pesquisa sobre a vida dos evolucionistas mais citados na história.
B i o q u í m i ca e G e n é t i ca Molecular. A
se
E ncontr am: Nasce
a
Biologia
d e s c o b e r ta d a s e n z i m a s
Eduard Buchner (1860 - 1917) 40 | Ciências Naturais e Matemática | UAB
Quando Eduard Buchner, em 1896, detectou fermentação alcoólica num extrato de levedo “sem vida”, desprovido de células, causou uma enorme surpresa para os vitalistas, pois ficou implícito que estes fenômenos, tipicamente biológicos, não eram dependentes do vis vitalis quintessencial das células vivas, mas de um fator material - um fermento, como foi chamado - presente no extrato de células de levedo (os vitalistas, incluindo Louis Pasteur, estavam convencido de que esta reação só podia ser efetuada por células vivas, as quais possuiriam uma força secreta: o “élan vital”, uma quintessência da vida, que dirigia todos os complexos fenômenos vitais, de acordo com leis naturais desconhecidas, que só se aplicariam à matéria viva. Leis que talvez para sempre permanecessem insondáveis Em 1906, Arthur Harden e W.J. Young descreveram o método por eles utilizado para separar o extrato de células de levedo em um precipitado filtrável e um sobrenadante. Cada uma dessas frações não era capaz de fermentar o açúcar por si só, mas esta função podia ser restaurada ao juntá-las novamente. A produção de álcool a partir de açúcar, aparentemente,
não era devida a um único “fermento”, mas à ação conjunta de vários “fermentos”, sendo que cada um deles influenciava um passo único nas milhares de reações do metabolismo celular, reações estas que permaneciam, no entanto, envoltas em mistério. A chave para a compreensão do mistério já era conhecida havia muito tempo, sendo originária da química. Em 1836, o químico sueco Jöns Berzelius havia descrito o fenômeno da catálise: uma substância, denominada catalisador, podia sob certas circunstâncias, só pela sua presença, acelerar, ou mesmo iniciar uma reação química, aparecendo inalterada no final da reação. Como Berzelius já imaginara, ocorriam nas células vivas inúmeras reações metabólicas, sendo que cada uma delas dependia de um catalisador específico. Os “fermentos” agiam como catalisadores - biocatalisadores - ou enzimas, como hoje são chamados (sendo que a palavra enzima é derivada do grego antigo significando apenas: “no levedo”).
M e ca n i s m o
de aç ão das enzimas
Já no século XIX, Emil Fischer havia se dedicado a solucionar este problema. Ele havia caracterizado diversos açúcares - glicose, frutose, galactose, etc - mostrando que estas substâncias semelhantes possuíam estruturas químicas diferentes. Uma enzima, já conhecida naquela época, a sacarase (ou invertase), dissociava especificamente a sacarose (açúcar de cana) em glicose e frutose. Para estudar o modo de ação desta enzima, Fischer sintetizou uma série de substâncias análogas da sacarose - substâncias com fórmulas químicas semelhantes à sacarose em um determinado aspecto - para verificar se a sacarase as reconhecia e dissociava. Por exemplo, substituindo o radical frutose da sacarose por um grupo metila, ele obtinha metil-glicose que então era dissociada pela sacarase em glicose e álcool metílico. A enzima, conseqüentemente, não reconhecia a assim chamada molécula-subsHermann Emil F ischer trato como um todo, porém uma parte específica da estrutura que (1852 - 1919) era comum à metil-glicose e à sacarose. No entanto, a alteração da configuração espacial do grupo metila na metil-glicose tornava esta substância resistente à sacarase. Fischer concluiu que para que uma enzima pudesse agir sobre um substrato, seria preciso que este se adaptasse à enzima como uma chave à sua fechadura. Métodos bioquímicos conhecidos na época já permitiam a separação de diversas atividades enzimáticas no extrato celular e, no início do século XX, já havia sido determinado que a atividade enzimática estava ligada à fração protéica. A conclusão era evidente: enzimas, do ponto de vista químico, são proteínas, moléculas de alto peso molecular, contendo nitrogênio, com composições químicas idênticas à da clara do ovo. No início do século XX, tal conclusão foi colocada em dúvida e só foram eliminadas nos anos 30, quando Moses Kunitz e John Northrop, do Instituto Rockefeller em Princeton, demonstraram por meio de eletroforese e ultracentrifugação de enzimas purificadas que estas correspondiam à fração protéica. Enzimas possuíam, obviamente, UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
41
uma atividade tal, que, mesmo uma quantidade ínfima da proteína correspondente, não detectável com os métodos de então, mostrava ainda ação catalítica.
A
Ilustração da proteína transtirretina
(TTR)
n at u r e z a d a s p r o t e í n a s
Durante muitas décadas esta questão incentivou um grande número de bioquímicos a pesquisar a estrutura molecular das proteínas, sob diferentes aspectos. De importância capital foi, primeiramente, a demonstração que proteínas são constituídas de blocos de construção de aminoácidos, os quais, acoplados por ligações peptídicas, formam cadeias polipeptídicas. Isto foi formulado no ano de 1902 como hipótese, simultaneamente por Franz Hofmeister em Estrasburgo e Emil Fischer, em Berlin. A validade geral desta hipótese foi muitas vezes posta em dúvida, no correr dos anos. No entanto, nunca foi possível mostrar que ela é falsa, o que, de acordo com Frederick Sanger, em 1952, consistia o argumento mais convincente da sua veracidade. Os cépticos mais arraigados só se deixaram convencer quando Sanger e seus colaboradores, após 8 anos de trabalho, determinaram pela primeira vez a seqüência de uma proteína - a da insulina, com 51 aminoácidos (RYLE et al., 1955). Este feito veio a ser também uma demonstração convincente da idéia, ainda não totalmente aceita, de que diferentes proteínas possuem fórmulas químicas distintas bem definidas, passíveis de serem descritas pela seqüência de aminoácidos dos polipeptídeos (com um radical terminal amino e outro carboxila), sendo todos os aminoácidos acoplados por ligações peptídicas. Mas a estrutura primária de um polipeptídio, determinada pela seqüência de seus aminoácidos, não contribuía em nada para esclarecer o mistério de sua atividade metabólica.
A
e s t r u t u r a e s pac i a l d a s p r o t e í n a s
Todavia, muitas proteínas podiam ser cristalizadas. Este fato sugeria que os átomos das macromoléculas de proteínas estavam sujeitos a uma organização tridimencional precisa. As cadeias polipeptídicas não poderiam estar dobradas ou enroladas ao acaso e sem sistema, deste modo elas formariam massas amorfas, e nunca se cristalizariam de forma organizada. O próximo passo seria obter informações sobre a configuração espacial específica de um polipeptídeo, na esperança de que isto viesse a elucidar também sua função. No entanto, tais configurações tridimensionais, ditas estruturas secundárias e terciárias, não podiam ser analisadas por métodos da química orgânica,
42 | Ciências Naturais e Matemática | UAB
isto por que as forças que as estabelecem e mantêm não são do mesmo tipo das ligações químicas fortes que mantêm os átomos numa molécula (ditas ligações covalentes), mas somente forças fracas de atração eletrostática entre os diferentes átomos dos aminoácidos da cadeia polipeptídica (por exemplo: pontes de hidrogênio e ligações iônicas), e interações hidrofóbicas dos radicais de aminoácidos. A esta altura, outros métodos, tais como difração de raios-X e a construção de modelos empíricos, vieram impulsionar a análise do problema. A compreensão do modo de funcionamento de enzimas, (possibilitada - embora apenas de modo geral - pela análise de suas estruturas, permitiu que se considerasse o conjunto de mais de 1000 passos metabólicos, resultando na síntese de pequenas moléculas orgânicas) como sendo uma conseqüência de interações específicas de moléculas de substrato com os assim chamados centros ativos das enzimas correspondentes. Estes centros ativos eram concebidos como sendo reentrâncias ou concavidades na superfície de um “novelo” polipeptídico, nos quais as respectivas moléculas de substrato se amoldariam passageiramente, podendo então reagir cataliticamente. O princípio químico das reações metabólicas celulares estava assim basicamente esclarecido. Sem fundamento eram, pois, as contemplações dos vitalistas face à imensa capacidade de síntese das células (uma bactéria E. coli, por exemplo, pode sintetizar em poucos minutos uma enorme variedade de substâncias orgânicas a partir de açúcar e alguns sais minerais, substâncias estas que não são capazes de reagir espontaneamente entre si).
A
síntese das enzimas
No entanto, a compreensão do princípio do metabolismo celular em nada ajudou no sentido de desvendar o complexo enigma da vida. O problema primordial permaneceu envolto em mistério: era o problema da auto-replicação de uma célula viva. Uma célula da bactéria Escherichia coli, que se divide aproximadamente a cada vinte minutos, num meio composto de sais minerais e açúcar realiza, neste intervalo, não só a síntese de todas as pequenas moléculas orgânicas como também a síntese de um conjunto completo de enzimas celulares. A grande incógnita era a síntese destas enzimas. Este problema permaneceu durante décadas como um terrível tabu, reprimido na consciência profissional dos bioquímicos. Não podendo ser esclareciBactéria Escherichia coli do por métodos bioquímicos convencionais, atitude que se manteve até a época pós-guerra. Naturalmente poder-se-ia postular uma função enzimática que catalisasse a ligação peptídica dos aminoácidos, mas a dificuldade consistia na determinação das seqüências específicas destes aminoácidos nos peptídeos. Mesmo no caso de proteínas
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
43
relativamente pequenas, com 70 aminoácidos, 2070 diferentes estruturas primárias são possíveis, pois em princípio, cada um dos 20 aminoácidos pode ocupar qualquer posição na cadeia polipeptídica. Obviamente não se poderia postular tal quantidade de enzimas capaz de acoplar um aminoácido específico em cada possível polipeptídeo. O paradoxo da enzima que sintetiza a enzima tornou-se evidente. O vitalismo que os bioquímicos haviam desprezado, depois de muitos protestos, estava se imiscuindo de novo no pensamento científico. A resposta para essa incógnita já estava sendo fornecida pela A alkaptonú- genética, inicialmente quando em 1908, Archibald Garrod (1857ria, uma anomalia 1936), médico inglês, interessado na explicação química da doença relativamente banal, alcaptonúria de seus pacientes, verificou que ela era hereditária e que evidenciada porque a uri- era causada pela produção de uma enzima deficiente acarretando o na de pacientes escurece quan- distúrbio bioquímico. Concluiu que cada gene codifica uma enzima do exposta ao ar, é herdada de que controla uma reação química. Sua idéia não foi reconhecida na acordo com as regras mende- época sendo apreciada quase 30 anos depois, quando em 1941 os eslianas e de característica recestudos de George Wells Beadle (1903-1989) e Edward Tatum (1909siva. O escurecimento da urina 1975) das vias bioquímicas no fungo Neurospora estabeleceram a hié devido à presença do ácido pótese um gene, uma enzima, ou seja, a idéia que cada gene codifica homogentísico (ou alkaptona), uma enzima separada. Esta hipótese foi modificada posteriormente que o organismo é incapaz de degradar e que, ao entrar em para “um gene um polipeptídeo”. Já em 1944 acumulavam-se evidências de que o DNA era o contato com o ar, forma produrepositório da informação genética e quando James Watson (nascitos de oxidação escuros. do em 1928), Francis Crick (1916-2004) e Rosalind Elsie Franklin (1920-1958) descreveram a estrutura tridimensional do DNA em 1953, como sendo helicoidal dupla, o duplex de DNA, o mecanismo de replicação admissível, explicada pela base material da hereditariedade, saltava aos olhos. No entanto, o mecanismo da síntese protéica permanecia ainda envolto em mistério. Como poderia o DNA determinar a seqüência de aminoácidos de uma proteína? É exatamente nesse ponto que a genética se funde com a bioquímica no estabelecimento da Biologia Molecular. Podemos dizer que a Genética culminou na descoberta de estrutura física do DNA e na decifração do código genético. Duas outras técnicas foram desenvolvidas nos anos que se seguiram à descoberta do DNA e tornaram possível a engenharia genética: o seqüenciamento do DNA e a fusão de genes com o auxílio de enzimas especiais isoladas de microrganismos e usando esses últimos como vetores de transferência de genes, “contrabandeados” para dentro de células, transpondo as barreiras naturais que separam as espécies biológicas (CAPRA, 2005).
44 | Ciências Naturais e Matemática | UAB
A Biologia Molecular consiste principalmente em estudar as interações entre os vários sistemas da célula, partindo da relação entre o DNA, o RNA e a síntese de proteínas, e o modo como essas interações são reguladas.
At i v i d a d e
T e r a p i a G ê n i ca – C o n h e c i m e n t o
a fav o r d a v i d a
O princípio da terapia gênica é relativamente simples por se consistir na introdução no organismo de uma pessoa doente um gene sadio responsável por codificar uma proteína que terá um efeito terapêutico, com uso da técnica de DNA recombinante. (LINDEN, 2008). Segundo o autor, há doenças que são causadas por mutações em genes específicos. Nesse caso, um paciente pode não produzir uma determinada enzima necessária para o metabolismo, adquirindo, por exemplo, sintomas neurológicos associados. Neste caso, o tratamento poderia ser feito com a reposição da enzima. Atualmente, este procedimento é extremamente caro e precisa ser feito de forma contínua. A alternativa seria introduzir no paciente o gene normal, que passaria a codificar a proteína necessária. Já no caso de outras doenças neurodegenerativas, como Alzheimer, há vários genes associados à suscetibilidade ou à gravidade da doença, mas nenhum deles é exclusivamente responsável por ela. Nesses casos, poderia ser utilizada uma proteína neuroprotetora com fator neurotrófico, que diminui a chance de morte das células neurais. A terapia gênica poderia ajudar com a introdução de cópias adicionais dos genes que codificam essa proteína, aumentando sua carga no sistema nervoso a fim de combater a doença. Existem ensaios clínicos nessa área, que consistem na introdução do gene que codifica o fator neurotrófico NGF. Segundo Linden (2008), o número de pesquisadores envolvidos com o estudo de terapia gênica no Brasil ainda é pequeno, mas o país tem dado uma contribuição importante. Como vimos, as técnicas de engenharia genética estão cada vez mais rápidas e poderosas. Estamos falando de manipulação gênica com repercussões das mais diversas na sociedade, mostrando cenários futuros fantásticos e moldados segundo um padrão de perfeição. Sentimentos controversos – alívio, medo - seguidos por traços de ausência de caráter, etc... têm sido reproduzidos na mídia. E você, o que pensa a respeito dos termos no quadro a seguir? Faça uma reflexão antes de ler sobre Biotecnologia, que se segue.
Faça uma leitura sobre os conceitos de transcrição, transcrição reversa, replicação e tradução, para entender o quadro ao lado.
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
45
Mape am ento G enético
Ve to r Te r a p
ia
G ênico
V ac i n a s
G ê n i ca
Eugenia
Clo nag em
Projeto
Tr a n s g ê n i c o s
Genoma
Biotecnologia A revolução da biotecnologia, segundo alguns autores, estará afinada com as principais conquistas da Ciência em 2015, como o combate de doenças, o aumento da produção de alimentos, a redução da poluição e a melhoria da qualidade de vida. A Biotecnologia abrange diferentes áreas do conhecimento biológico que incluem a ciência básica (Biologia Molecular, Microbiologia, Biologia celular, Genética, Genômica, Embriologia etc.), a ciência aplicada (técnicas imunológicas, químicas e bioquímicas) e outras tecnologias (Informática, Robótica e Controle de processos). Dentre essas, a Engenharia Genética ocupa um lugar de destaque como tecnologia inovadora, seja porque permite substituir métodos tradicionais de produção (ex.: hormônio de crescimento, insulina), ou porque permite obter produtos inteiramente novos (organismos transgênicos). CONHECIMENTOS
CONHECIMENTOS
Ciência e Tecnologia
BIOTECNOLOGIA PRODUZIR BENS
Organismos, Células, Organelas, Moléculas.
ASSEGURAR SERVIÇOS
A B i o t e c n o l o g i a Tr a n s f o r m a N o s s a V i d a C o t i d i a n a . O seu impacto atinge vários setores produtivos, oferecendo novas oportunidades de emprego e inversões. Hoje contamos com plantas resistentes a doenças, plásticos biodegradáveis, detergentes mais eficientes, biocombustíveis, processos industriais e agrícolas menos poluentes, métodos de biorremediação do meio ambiente e centenas de testes diagnósticos e novos medicamentos. 46 | Ciências Naturais e Matemática | UAB
Quando se fala em biotecnologia logo pensamos em algo como clonagem, transgênicos, genoma, células-tronco e uma infinidade de descobertas recentes, prontas para atender às necessidades atuais da humanidade. Contudo, apesar do termo biotecnologia ser relativamente novo, civilizações antigas, de mais de 12 mil anos, já utilizavam o fermento para fazer pão, e a fermentação de microrganismos para a produção de vinhos. Nessa primeira fase da biotecnologia, sua aplicação era basicamente na produção de alimentos como pão, vinho, queijo, etc. Biotecnologia é, então, a área do saber que agrega tecnologia à vida, utilizando seres vivos com o objetivo de obter serviços e produtos úteis para outras áreas que não só a alimentícia (CARVALHO, 1993). No final do século XIX, com os trabalhos de Mendel, surge uma nova ciência que será o grande marco do desenvolvimento biotecnológico: a genética. No começo do século XX, a biotecnologia é impulsionada pela produção de quantidades elevadas de acetona a partir da fermentação acetobutírica, solvente fundamental para a fabricação de munições utilizadas na primeira guerra mundial. Novo marco no avanço biotecnológico surgiu na década de 1920, quando o médico escocês Alexander Fleming (1881-1955), descobriu a proteína lisozina e o antibiótico penicilina, obtido a partir do fungo Penicillium notatum. Pelas suas descobertas, Fleming compartilhou o prêmio Nobel de Medicina, em 1945, com o bioquímico alemão de origem judaica Ernst Boris Chain (1906-1979) e com o farmacêutico australiano Howard Walter Florey (1898-1968). Um marco importante para a biotecnologia foi a descoberta do modelo da estrutura heliocoidal do DNA, pelo britânico Francis Crick e pelo americano James Watson, em 1953. Eles provaram que o DNA é Sir Alexander F leming num uma molécula em forma de dupla hélice constituída por duas cadeias comselo das Ilhas Faroe plementares de nucleotídeos. O novo modelo de DNA tornou possível imaginar como ele se orientava na construção de outras moléculas, pois cada fileira de DNA podia agir como moldura para outros ácidos nucléicos. Um dos grandes avanços da biotecnologia se encontra na engenharia genética. Na década de 1970, manipulando material genético, o biólogo norte-americano Paul Berg obteve a primeira molécula recombinada, pela inserção do DNA de um vírus oncogênico (SU-40) no DNA de um bacteriófago. Essa molécula de DNA modificada marcou o início da chamada tecnologia do DNA recombinante, que valeu o prêmio Nobel de química em 1980 ao seu criador, juntamente com Walter Gilbert e Frederick Sanger, que criaram métodos para determinar a seqüência das “letras” que compõem o DNA. Em 1996, na Escócia, o cientista Ian Wilmut e sua equipe, utilizando a técnica
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
47
de transferência nuclear, criaram o primeiro clone de mamífero, a ovelha Dolly. No ano seguinte, a mesma equipe de pesquisadores criou Polly, uma ovelha que além de clone era também transgênica, devido à inserção de um gene humano no seu DNA. Esse gene humano codifica a produção de uma proteína responsável pela coagulação do sangue. Com isso, o leite dessa ovelha seria uma fonte riquíssima dessa proteína, útil no tratamento da hemofilia. A produção de plantas transgênicas tem proporcionado altos investimentos por parte das empresas que buscam culturas resistentes a pragas e de maior valor nutricional, e conseqüentemente maior retorno financeiro, como é o caso da soja resistente a um determinado herbicida, que por sua vez afeta apenas ervas indesejáveis para aquela cultura. O arroz dourado, rico em betacaroteno é um precursor da vitamina A Milho com genes de Bacillus thuringiensis, que produz uma substância inseticida natural que o protege de ataques de insetos. O seqüenciamento do DNA nuclear da espécie humana ou Projeto Genoma Humano (PGH) foi iniciado em 1990 por um consórcio governamental entre 18 países: Alemanha, Austrália, Brasil, Canadá, China, Coréia, Dinamarca, Estados Unidos, França, Holanda, Israel, Itália, Japão, México, Reino Unido, Rússia e Suécia. Em 2003 o seqüenciamento completo do genoma humano foi considerado encerrado, chegando ao número aproximado de 3,0 bilhões de pares de bases, com expectativa de 30 mil a 40 mil genes, Em 2006 cientistas anunciam o seqüenciamento do último cromossomo que faltava no Projeto Genoma Humano, o cromossomo 1, o maior da espécie humana. O genoma humano possui entre 20 mil e 25mil genes, sendo que foram identificados neste último cromossomo mais de mil genes novos. Cerca de 150 cientistas britânicos e norte-americanos levaram 10 anos para concluir o seqüenciamento do cromossomo 1, com 3.141 genes que tem relações com 350 doenças Discuta o que EHSAN MAcomo: câncer, mal de Alzheimer e Parkinson. SOOD quis dizer com: Capra (2005) considera o Projeto Genoma Humano como o maior empreendimento “Há 88 teclas em um piano. da Biotecnologia, mas, para o autor, o maEu sei o que significa cada uma das teclas, mas isso não me explica como peamento do genoma, o sequenciamento do tocar Beethoven. DNA desencadeou uma revolução conceitual O segredo não está nas teclas em si, na genética, fazendo-nos refletir sobre suas mas nas suas combinações, a ordem, a aplicações práticas e tangíveis. Afinal, não duração e a intensidade. basta sabermos onde os genes específicos se É a mesma coisa com os genes. localizam; é preciso saber, também, como eles Nós não vamos conseguir o segredo funcionam e quais outros fatores estão envolque está trancafiado no genoma por vidos no processo. Principalmente porque temeio do seqüenciamento do DNA.” mos percebido que o elemento principal não é
48 | Ciências Naturais e Matemática | UAB
a estrutura das seqüências genéticas, a estabilidade genética não é uma propriedade intrínseca do DNA, mas sim as redes metabólicas, resultantes da dinâmica complexa de toda a rede celular. Assim, vivemos uma mudança do paradigma reducionista para um pensamento sistêmico, dos elementos celulares. Mesmo conhecendo a seqüência dos elementos genéticos, não conseguimos, ainda, entender todos os processos biológicos! O Projeto Genoma, que contou com a participação de várias universidades e instituições de pesquisa do mundo todo (inclusive da USP – Universidade de São Paulo), também concluiu este mapeamento genético. Entre as aplicações do conhecimento proporcionado pela decifração do genoma são: produção de drogas específicas para tratamento de algumas doenças; o diagnóstico precoce de muitas doenças de predisposição genética; terapia gênica; a determinação da identidade das pessoas (DNA forense); a determinação da função do gene. No Brasil, pesquisadores da Organização para o Seqüenciamento e Análise de Nucleotídeos, lançaram em outubro de 1997 e concluíram em janeiro de 1999, o seqüenciamento genético da bactéria Xylella fastidiosa, o primeiro fitopatógeno seqüenciado no mundo. Essa bactéria causa nas laranjeiras infectadas uma doença conhecida como amarelinho, que provoca amarelecimento das folhas, perda dos frutos e até a morte dessas plantas. A biotecnologia é hoje uma ferramenta fundamental na obtenção de bens e serviços nas mais diversas áreas, tais como: na agricultura para produção de adubos compostos, pesticidas, silagem, mudas de plantas, plantas transgênicas, etc. Na alimentação para a produção de pães, queijos, picles, cerveja, vinho, proteínas, aditivos, etc. Na indústria química em butanol, acetona, glicerol, ácidos, enzimas e metais. Na energética para produção de etanol, biogás, etc. No meio ambiente para recuperação de petróleo, tratamento de lixo, purificação de água, etc. Na pecuária para produção de embriões , animais transgênicos, etc. Na saúde Bactéria Xylella fastidiocom a produção de antibióticos, hormônios, vacinas, reagentes, célulassa aderida à parede de vasos tronco, etc. transportadores de seiva O Jornal Folha de São Paulo publicou no dia 30 de Agosto de 2008, que em estudos realizados pelo Instituto Oswaldo Cruz, pesquisadores brasileiros descobriram três substâncias oriundas de algas marinhas que poderão ser utilizadas na fabricação de medicamentos para a prevenção e o controle das infecções pelo Vírus da Aids. O objetivo é desenvolver um microbicida e um anti-retroviral. O microbicida deverá ser em forma de gel, pomada, espuma ou creme, de uso vaginal antes das relações sexuais, auxiliando na prevenção da doença. O anti-retroviral será para ser administrado na forma oral ou intravenosa no tratamento de pacientes já infectados, para impedir a replicação do vírus.
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
49
A
b i o t e c n o l o g i a e a s a p l i ca ç õ e s d o s p r o d u t o s c o m e r c i a l i z a d o s e m a l g u n s m e r ca d o s
Atividade econômica
Comercialização de Produtos
50 | Ciências Naturais e Matemática | UAB
Âmbito
Organismos ou Produtos
Aplicações
Saúde
Humana Animal Plantas
Diagnóstico Farmacêutico Sementes-Fertilizantes
Alimentos
Aditivos Estabilizantes
Palatabilidade Conservação
Qualidade Ambiental
Enzimas Microrganismos
Degradação Reciclagem
F í s i ca C o n t e m p o r â n e a
“As nossas crianças deviam estar estudando Arthur C. Clark, Willian Tenn, Robert Scheckley, não porque esses escritores lhes possam dizer alguma coisa sobre naves e máquinas espaciais, mas, o que é mais importante ainda, porque eles podem guiar as mentes mais jovens a uma exploração imaginativa da floresta virgem dos assuntos políticos, sociais e éticos que haverão de desafiar essas crianças quando forem adultas. A ficção científica deve ser leitura obrigatória para o ano I do futuro.” Alvin Toffler, O choque do futuro
A
Alvin Toffler
o parágrafo acima, acrescentaria sem sombra de dúvida, Isaac Asimov, Gene Rondeberry, e o próprio Alvin Tofler. Estamos propondo agora, um desafio: depois de assistirmos ao episódio de Jornada nas Estrelas, que está na plataforma, vamos falar um pouco acerca das bases da Física Contemporânea alicerçada na Mecânica Quântica e na Teoria da Relatividade. Obviamente, não nos enveredaremos por aprofundamentos no formalismo matemático, pelo menos, não agora. Faremos uma apresentação das duas teorias algo do tipo “preview”. Contudo, prepare-se para um super aprofundamento ao longo do nosso curso.
A
v e l h a t e o r i a q u â n t i ca .
Precedentes
histór icos
Historicamente, a Mecânica Quântica, enquanto uma teoria científica formal, se configurou a partir de três resultados experimentais obtidos na transição entre os séculos XIX e XX: o espectro de radiação emitida pelos corpos e os efeitos Compton e Foto-elétrico. Tratava-se de resultados que a Física Clássica (FC), nos moldes em que ela foi configurada nos séculos XVIII e XIX, não podia explicar. Embora tenha-
UAB| Ciências Naturais e Matemática | As Ciências Naturais na Contemporaneidade |
51
mos oportunidade de nos aprofundarmos sobre estes experimentos de maneira bem específica em outro fascículo, vamos fazer uma breve incursão sobre cada um deles: A radiação emitida pelos corpos se constituía em um problema importante para a expansiva indústria siderúrgica no final do século XIX: para a confecção de ligas de alta qualidade era necessário saber a temperatura de uma mistura de metais incandescentes com uma precisão mínima – o que não poderia ser feito, evidentemente, por meio de termômetros. Já se sabia na época que, conforme se aumentava a temperatura de um material metálico, este mudava de cor, ou seja, que havia uma dependência entre a sua temperatura e os comprimentos de onda da radiação predominante emitidos; contudo, a Física Clássica (FC) previa que, quanto menor o comprimento de onda, maior deveria ser a quantidade de radiação emitida, sendo que quando o comprimento de onda tendesse a zero a radiação emitida seria infinita (o que se tornou conhecido como “a catástrofe do ultra-violeta”), contrariando frontalmente o princípio de conservação de energia. Max Planck solucionou teoricamente esse problema (após exaustivas formulações matemáticas), admitindo que a energia radiante dos corpos seria formada por “quanta” de energia. Veja bem, desde então, o conceito de energia enquanto um continuum, pertinente a Física Clássica, precisou ser redimensionado. Vejamos o que quer dizer “quanta”: é o plural de ‘quantum’ – termo que vem do latim e significa quantidade indivisível de uma grandeza física, ou seja, é a menor quantidade de energia discreta, que pode ser definida, ganhada ou perdida por um sistema físico, num processo elementar e único. Não gosto muito de analogias, mas às vezes elas podem ser úteis. Então vamos lá: imagine que você vá às compras, podes pagar algo com fração do centavo? Claro que não, porque frações de centavos não existem. Com o quantum, é assim também, são quantidades discretas ou “pacotes de energia” que não se encontram fracionados na natureza. O efeito Compton consiste na observação experimental de que a radiação eletromagnética pode trocar momento e energia com os elétrons. A explicação teórica para esse fenômeno pode também ser obtida admitindo-se que a radiação é constituída por pacotes (quanta) de energia. Esses pacotes interagiriam com os elétrons como se fossem partículas.
Representação esquemática do efeito Compton
52 | Ciências Naturais e Matemática | UAB
Finalmente, o efeito foto-elétrico consiste na observação de que a radiação eletromagnética, cuja freqüência esteja acima de um certo valor limite, pode arrancar elétrons de alguns materiais – especialmente metais, onde alguns elétrons estão fracamente ligados aos átomos. A descrição teórica para o fenômeno, dada por Einstein em 1905 (valendo-lhe o Prêmio Nobel), prevê que os assim chamados pacotes de energia – que seriam renomeados por Einstein como “fótons” – teriam uma energia proporcional à freqüência (ν) da radiação correspondente, sendo a constante de Planck (h) a estabelecer a proporcionalidade:
onde
E = hν h= 6,63 x 10-34 Joules x segundo ( Js)
Tal relação reatribui, à luz, uma característica de partícula (tal como defendia Newton), e que havia sido perdida, em prol da concepção da luz como onda, primeiro por Huygens, mas consolidando-se desde a teoria eletromagnética de Maxwell.
Representação esquemática do efeito fotoelétrico
Mas não é só isso, enquanto na mecânica Newtoniana as leis são válidas e aplicáveis a qualquer ordem de grandeza, por exemplo, um corpo que cai de uma mesa ou o movimento dos astros celestes estão sujeitos às mesmas leis, a lei da radiação de Max Planck mostra que há escalas de grandeza na natureza e que, portanto, as leis físicas tem um âmbito de validade restrito. Posteriormente, em 1924, Louis de Broglie descobre que é possível atribuir às partículas uma propriedade ondulatória, cujo comprimento de onda (λ) tem uma relação direta com a sua quantidade de movimento (p): Essas duas relações estabelecem que não é possível atribuir, tanto à matéria quanto à radiação, uma característica apenas de onda ou de partícula, o que abriu caminho para a formulação do Princípio de Complementaridade de Bohr, do qual a
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
53
A
década de 60 marcou uma profunda mudança na sociedade mundial. Cansadas de guerras e motivadas por conquistas sociais, pela primeira vez na história da humanidade, pessoas iam às ruas protestar pela paz e pelo amor, pela educação e pelo direito das minorias, num momento em que o mundo se chocava com as atrocidades cometidas na guerra do Vietnã, da qual, também pela primeira vez, chegavam imagens quase que instantaneamente aos lares, fruto da tecnologia da comunicação. 1968 foi um ano particularmente marcado por protestos em praticamente todo o mundo ocidental. Em 1969, entre os dias 15 e 17 de agosto, 400.000 pessoas se reuniram no maior festival de rock da história, o Woodstock, que ficou mundialmente famoso pelos apelos em prol de um mundo melhor. De fato, a partir de então, o mundo não seria mais o mesmo. As letras das músicas da época refletiam os anseios das pessoas. Na música All You Need is Love (Tudo o que você precisa é amor), dos Beatles, a palavra love (amor) é mais que 50 vezes. O último refrão (Amor é tudo o que você precisa é repetido mais que 15 vezes:
Tu d o
o que você precisa é amor
Amor, amor, amor Amor, amor, amor Amor, amor, amor Não há nada que você possa fazer que não possa ser feito Nada que você possa cantar que não possa ser cantado Nada que você possa dizer, mas você pode aprender como jogar o jogo. É fácil Nada que você possa fazer que não se possa fazer Ninguém a quem você possa salvar que não possa ser salvo Nada que você pode fazer, mas você pode aprender como ser com o tempo. É fácil Tudo o que você precisa é de amor Tudo o que você precisa é de amor Tudo o que você precisa é de amor, amor Amor é tudo o que você precisa Amor, amor, amor Amor, amor, amor Amor, amor, amor Tudo o que você precisa é de amor (Repita isso mais 1 vez) Tudo o que você precisa é de amor, amor Amor é tudo o que você precisa Não há nada que você possa saber que não possa ser conhecido Nada que você possa ver que não possa ser visto Nenhum lugar onde você possa estar que não seja onde você quer estar. É fácil Tudo o que você precisa é de amor (Repita isso mais 1 vez) Tudo o que você precisa é de amor, amor
dualidade onda-partícula é um caso particular. Assim, a MQ ainda evoluiria com o estabelecimento, entre 1913 e 1927, da chamada Nova Teoria Quântica.
A
Erwin Schrödinger (1887 - 1961)
As
n o va t e o r i a q u â n t i ca
A nova teoria quântica surge na década de 20 com o desenvolvimento dos formalismos de Schrödinger (Mecânica Ondulatória) e Heisenberg (baseado na álgebra matricial). Ambos os formalismos estruturaram a MQ como um arcabouço teórico que substitui e amplia o âmbito de validade das Leis de Newton que, a partir de então, são consideradas inadequadas para descrever o comportamento das entidades microscópicas. O desenvolvimento e as aplicações do formalismo serão desenvolvidos, como já mencionamos, em um futuro breve.
d i v e r s a s i n t e r p r e ta ç õ e s d a
M e c â n i ca Q u â n t i ca
Mesmo tendo sido estabelecida há cerca de 80 anos, a Mecânica Quântica ainda é palco de intensos debates sobre os seus fundamentos e sobre diferentes interpretações possíveis baseadas em diferentes filosofias. Diversos autores têm identificado diferentes maneiras de se interpretar os fundamentos da Mecânica Quântica, havendo diferenças bastante profundas entre elas. Uma das obras mais bem construídas versando sobre tais interpretações é o artigo publicado na American Journal of Physics em 2001 por F. Laloe. Apesar de se estender por 47 páginas da revista, este artigo representa uma síntese bastante concisa de uma análise de 182 obras importantes publicadas na área dos fundamentos da Mecânica Quântica. Após uma descrição da edificação histórica da Mecânica Quântica, o autor se propõe a mostrar que, longe de uma construção unânime, esta área da ciência foi demarcada por um espectro bastante amplo de interpretações constituído por muitos pontos de vista diferenciados. Assim sendo, não se pode afirmar que a MQ tenha um número definido de interpretações cujas fronteiras sejam bem definidas. Desta forma, o autor tenta identificar algumas das principais tendências interpretativas tendo como referência alguns pontos filosóficos principais: o determinismo, a localidade, a complementaridade e a realidade. A existência de diferentes interpretações viria do fato de que a assim chamada Interpretação Ortodoxa ou Interpretação de Copenhagen, apesar de ter se mostrado coerente com todos os resultados experimentais até hoje obtidos – mesmo aqueles especialmente construídos para derrubá-la – e ter se mostrado resistente frente a outras construções teóricas, implica em conseqüências de difícil aceitação ou compreensão. Para levar o leitor a compreender tais dificuldades, o autor faz uma breve des56 | Ciências Naturais e Matemática | UAB
crição dos dois princípios da Interpretação de Copenhagen que levariam a essas dificuldades: a linearidade da Equação de Schrödinger e o colapso da função de onda. A realização de medidas e o próprio desenrolar dos acontecimentos seriam governados por esses dois princípios. A Equação de Schrödinger descreve a evolução temporal das funções de onda (ou vetores de estado), que, por sua vez, contêm todas as informações sobre as coisas (objetos), os observadores e os aparelhos de medida. A Equação de Schrödinger é determinista e prevê que o “estado das coisas” pode ser constituído por uma superposição de diferentes soluções, ou diferentes “estado de coisas”. Por exemplo, no célebre experimento mental do gato de Schrödinger, o gato pode estar vivo e morto ao mesmo tempo (ou seja, uma superposição, ou soma, de dois estados diferentes). Contudo, o princípio do colapso da função de onda (chamado de “coerência”), estabelece que, uma vez que se faz uma medida sobre o sistema, ou alguém simplesmente observa ou interage com um sistema, a superposição abruptamente se desfaz, permanecendo apenas uma das soluções possíveis. Assim, ao observarmos o gato, o veremos ou somente vivo ou somente morto. O princípio da coerência torna a Interpretação de Copenhagen compatível com os resultados experimentais, mas o motivo dela ser necessária se constitui, segundo Laloe, na principal dificuldade da MQ , na qual se debruçam os especialistas na atualidade. O colapso da função de onda, de certa forma, estabelece uma estreita relação entre o observador e o objeto observado, ou seja, entre o sujeito e objeto (o que é um dos pontos principais enfocado neste trabalho). De acordo com a Interpretação de Copenhagen, é como se a realidade dependesse de como ela é observada. Uma das dificuldades quase imediatas do princípio de decoerência advém de quando um fenômeno é observado por mais de um sujeito. Vamos supor que um observador A verifique o estado do gato de Schrödinger, e constate que ele está vivo, sem que um outro observador B saiba disso. Se o observador B, depois de um certo tempo, averiguar o estado do gato, deve necessariamente obter também que o gato está vivo, do contrário, pessoas diferentes experimentariam realidades incompatíveis. Isso implica em dizer que o fato do observador A saber ou não o estado do gato influencia o que o observador B experimenta ou vivencia. O problema é que tal processo, na teoria quântica, independe, por exemplo, da posição em que os observadores se encontram o que torna a Interpretação de Copenhagen não-local: ou seja, haveria uma espécie de acoplamento entre todas as coisas do Universo, independentemente da distância em que se encontrassem uma das outras. Tais dificuldades levaram diversos autores a propor interpretações alterRepresentação esquemática do experimento mental de Schrödinger UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
57
nativas à de Copenhagen. Algumas dessas interpretações procuraram resgatar o caráter local da teoria, outras se apoiaram na manutenção do determinismo. Contudo, é importante frisar que nenhuma delas resultou em uma teoria completamente coerente e condizente com os resultados experimentais, exceto a Interpretação de Copenhagen, a qual é incoerente com o senso comum, mas que, pode não ser necessariamente a interpretação definitiva (Laloe, 2001). O número de interpretações diferentes existentes não é bem definido. Diferentes autores as classificam de formas diferenciadas. Por exemplo, Schreiber (1994), identifica nove diferentes interpretações: 1. 2. 3. 4. 5. 6. 7. 8. 9.
Interpretação Ortodoxa Interpretação de Bohr Colapso Provocado pela Mente Variáveis Ocultas Interpretação de Muitos-Mundos Interpretação de Muitas-Mentes Interpretação de Bohm Histórias Decoerentes (Ontologia) Histórias Decoerentes (Epistemologia)
A Interpretação Ortodoxa é aquela que estabelece as bases acadêmicas do formalismo quântico. Nessa interpretação, as funções de onda correspondem de fato aos estados de um sistema e o colapso da função de onda é um fenômeno que ocorre no sistema, inerentemente não-determinístico. Já na Interpretação de Bohr (ou Interpretação de Copenhagen), as funções de onda não descrevem simplesmente um sistema, mas o conjunto formado pelo sistema, pelo(s) observador(es) e pelo(s) instrumento(s) de observação. O colapso da função de onda, nesse caso, representaria os estados possíveis que esse conjunto pode assumir. Assim, a Mecânica Quântica não descreveria como as coisas, em si, seriam, mas a interação sujeito/objeto. A Mecânica Quântica seria, portanto, uma teoria não-realista. A Interpretação de Copenhagen, aliada a alguns resultados experimentais, como “O Experimento de Dupla Fenda” – que veremos a seguir, abre caminho para a constatação da existência de uma relação entre a mente humana e a realidade física, uma vez que um ato investigativo que leva a um resultado experimental – e conseqüentemente à ampliação da consciência humana – tem implicações sobre a própria realidade física. Tal relação, contudo, é considerada de uma forma diferente dependendo da interpretação da Teoria Quântica. A mais extrema delas, proposta por Von Neumann e defendida por Wigner, corresponde à terceira interpretação (colapso provocado pela mente). Nessa interpretação, a mente teria um papel ativo no estabelecimento do estado quântico de um sistema. De certa forma, é como se a mente humana tivesse algum poder sobre o estado das coisas. Já a quarta interpretação (variáveis ocultas) segue um caminho completamente diferente. Tendo uma perspectiva realista, sugere que o estado quântico dos objetos é
58 | Ciências Naturais e Matemática | UAB
bem definido, por si mesmo, independentemente do observador. Contudo, os objetos quânticos seriam multidimensionais no sentido em que os processos de observação conhecidos somente teriam capacidade de vislumbrar parte da realidade de um sistema. Atos de observação diferentes revelariam apenas aspectos específicos da realidade multidimensional, daí o grau de incerteza a respeito dos objetos. A sétima interpretação, proposta por David Bohm, segue essa linha, dedicando especial atenção à dualidade onda/partícula. Bohm argumenta que as entidades físicas seriam ondas e partículas juntas, ou seja, como uma partícula que viajaria imersa em uma espécie de campo ondulatório. A quinta interpretação (muitos-mundos) argumenta que não haveria propriamente um colapso da função de onda devido ao ato de observação, mas que os estados possíveis passariam a existir em universos diferentes. Por exemplo, no caso David Joseph Bohm do gato de Schrödinger, haveria um universo em que o gato estaria vivo e outro (1917-1992) em que o gato estaria morto. A sexta interpretação (muitas-mentes) é similar; contudo, ao invés de invocar muitos universos paralelos, sustenta a existência de mentes diferenciadas, cada uma delas percebendo a realidade de uma maneira diferente. Finalmente, as duas últimas interpretações elencadas se baseiam na argumentação que um conjunto de histórias (conjunto de soluções da equação de Schrödinger dependente do tempo) suficientemente consistente poderia ser utilizado para manter uma interpretação realista para a Mecânica Quântica. Isso poderia ser feito imaginando-se um conjunto de historias que descreveria todo o Universo – escrevendo-se a equação de Schrödinger para todo o Universo – sendo que os resultados das medidas e o(s) processo(s) de medição como um todo estivessem embutidos nesse conjunto de histórias. Desta forma, poder-se-ia ainda falar em sistemas existindo por si, independentemente do observador. Não haveria colapso da função de onda pois o processo de medir estaria já embutido no conjunto de histórias. Contudo, tal interpretação teria que abrir mão da localidade e do determinismo. Pode-se ver, portanto, que a Mecânica Quântica possui um largo espectro de interpretações diferentes, as quais estão estabelecidas em bases filosóficas diferentes. O tema é complexo, uma vez que, mesmo os participantes de uma corrente interpretativa, eventualmente trazem visões que se diferenciam em alguns aspectos. Para ilustrar essa dificuldade, Laloe (2001), por exemplo, traz uma lista de visões diferentes a respeito do papel do observador e do colapso da função de onda, por parte de importantes especialistas: • Bohr: “Não há mundo quântico... é errado pensar que o objetivo dos físicos é encontrar como a Natureza é. A Física diz respeito ao que nós podemos dizer sobre a Natureza”. • Heisenberg: “Mas os átomos ou as partículas elementares não são reais; eles UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
59
•
• • •
formam um mundo de potencialidades ou possibilidades no lugar de coisas e fatos”. Jordan: “Observações não apenas perturbam o que está para ser medido, elas as produzem. Em uma medida de posição, o elétron é forçado a uma decisão. Nós o compelimos a assumir uma posição definida; previamente ele não estava aqui ou ali, ele ainda não havia feito sua decisão sobre uma posição definida...”. Mermin: “O resultado de uma medida está relacionado com o próprio ato de medida; é, portanto, uma manifestação conjunta do sistema observado e do aparato de medida”. Bell: “(a Interpretação de Copenhagen) nunca diz respeito a eventos no sistema, mas apenas a resultados de observações sobre o sistema, implicando a existência do equipamento externo”. Stapp: A intepretação da teoria quântica se baseia nos seguintes pontos: 1) conceitos clássicos inválidos; 2) o processo de medida não é descritível no âmbito da teoria; 3) a distinção entre sujeito e objeto é invalidada; 4) o sistema de observação deve ser isolado para ser definido, ainda que, para ser observado, deva interagir.
A I n t e r p r e ta ç ã o
de
Co pen hag en
e m d e s taq u e
Apesar dos intensos debates em torno da melhor forma de interpretar a Mecânica Quântica, historicamente aquela que permeia a comunidade científica há 100 anos é a Interpretação de Copenhagen, no sentido em que seus procedimentos metodológicos e desdobramentos conceituais, desde então, tem como base elementos dessa interpretação. Apesar de uma quantidade significativa de pensadores e pesquisadores (como Popper (1992) e Bohm (1983)) não se sentirem confortáveis com a base nãorealista dessa interpretação, ela jamais foi colocada em xeque por algum resultado experimental, tendo se mantido consistente até os dias de hoje. O argumento utilizado na atualidade para a existência de pesquisa sobre outras interpretações é que, embora considerada a consistência da Interpretação de Copenhagen/Bohr, vale a pena investigar a possibilidade da construção de outra interpretação pois ainda não está esgotada a possibilidade de organizar outra interpretação consistente fundamentada em outras bases filosóficas (Laloe, 2001). Contudo, resultados experimentais recentes, tal como os de interferometria com neutrons, são condizentes com essa interpretação (Selleri, 1986). Assim, o primeiro argumento a favor de nos dedicarmos um pouco mais a estudar a Interpretação de Copenhagen é a sua consistência conceitual. Em segundo lugar, aspecto de importância considerável é a ênfase dada ao papel do observador no processo de obtenção de medidas e interação com outros sistemas, já que é a interpretação que mais enfatiza a relação sujeito/objeto (Heisenberg, 1995; Bohr, 1995). Assim sendo, a Interpretação de Copenhagen leva à discussão do papel de nossas ações e de nossa consciência no mundo que nos cerca. Considerando-se que 60 | Ciências Naturais e Matemática | UAB
vivemos atualmente em um mundo em que processos complexos (tais como os problemas econômicos, as questões ecológicas e de mudanças climáticas globais, a violência urbana e terrorismo) influenciam nossas vidas, é importante a discussão de nosso papel na sociedade e no mundo e de que forma nossas ações repercutem nas coisas e nas vidas de outras pessoas, ou seja, na discussão de questões morais do mundo contemporâneo. Conforme é explicitado no texto “O Experimento de Dupla-Fenda”, que será apresentado a seguir, a Interpretação de Copenhagen/Bohr explicita tais questões, pois, uma vez que o observador (sujeito) perturba aquilo (objeto) que está para ser medido, cada pessoa tem um papel ativo na percepção e construção da realidade.
Niels Bohr e Albert Einstein, foto por Paul Ehrenfest (1880-1933).
Experimento
da
Bohr concebeu o Princípio da Complementaridade: objetos quânticos podem ser analisados considerando várias características classicamente contraditórias. Por exemplo, sobre a luz comumente se conclui que apresenta aspectos tanto de onda quanto de um feixe de partículas - duas características mutuamente excludentes. Bohr também encontrou aplicações filosóficas para esse princípio original. Albert Einstein defendia o determinismo clássico em detrimento da nova física probabilística de Bohr - à qual Max Plank e ele próprio tinham contribuído. Einstein e Bohr sempre que se encontravam debatiam acerca destas questões e ambos tinham bons argumentos a partir da longa experiência acumulada como homens da ciência, promovendo, ao longo de suas vidas um dos mais importantes debates da Ciência Contemporânea acerca da realidade física.
D u pl a Fe n da
Antes de começar a leitura, assista ao vídeo “Quantum”, disponível na plataforma.
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
61
O experimento de dupla fenda está intimamente relacionado com os princípios da Mecânica Quântica. Além disso, de certa forma, ele já está presente no conteúdo tradicional do Ensino Médio, pois trata-se basicamente do experimento de interferência de Young aplicado a partículas. O experimento de Young pode ser visualizado através da figura abaixo.
Representação do experimento de Young O experimento consta de duas fendas de tamanho comparável com o comprimento de onda da luz incidente. A luz se difrata em cada uma das fendas e, em seguida, há a interferência (construtiva em a e destrutiva em b). Uma placa fotográfica situada em C registra uma figura de interferência. Uma vez que elétrons, nêutrons e partículas de um modo geral apresentam uma propriedade ondulatória, a questão é saber se, ao fazer passar, por exemplo, elétrons ou nêutrons pelas fendas, uma figura de interferência será obtida. A resposta a essa questão é um sonoro sim. Todos os experimentos realizados ao longo do séc. XX demonstram que a figura de interferência é obtida quando se faz passar pelas fendas qualquer feixe de partículas (desde que, é claro, as dimensões das fendas sejam comparáveis com o comprimento de onda das partículas). A questão que se coloca – e que é fundamental para a compreensão da Mecânica Quântica – é o que ocorreria se apenas uma partícula fosse lançada em direção às fendas. Seria o padrão de interferência observado na chapa fotográfica um resultado da interação coletiva das partículas? Para responder a essa questão, na década de 70, foram feitos experimentos em que é possível a passagem de apenas uma partícula por vez pelas fendas. Para evitar com que pudesse haver alguma possível influência da interação das partículas com as bordas das fendas, escolheu-se o nêutron, que não possui carga elétrica. Os resultados dos experimentos com interferência de nêutrons foram as seguintes:
62 | Ciências Naturais e Matemática | UAB
i) Ao se fazer passar um único nêutron pelas fendas, produz-se um único ponto na chapa fotográfica situada em c. ii) Ao se permitir que um único nêutron de cada vez passe pelas fendas, após a passagem de um número grande de nêutrons, a figura de interferência é formada. A figura de interferência é formada por regiões mais claras e outras mais escuras na chapa fotográfica. Onde a chapa foi mais impressionada, houve a incidência de maior quantidade de nêutrons. Os dois resultados acima são complementados por um terceiro: iii) Ao se tapar uma das fendas, a figura de interferência não é obtida (obtém-se apenas uma mancha na direção da fenda aberta – ver figura 2). Em toda e qualquer situação que SABEMOS por qual fenda os nêutrons passaram, não se obtém a figura de interferência.
c
a
d
b
Resultados do experimento de interferência de neutrons com as duas
fendas abertas (a e c) e com uma fenda aberta (b e d); a e b indicam o estado
das chapas fotográficas; c e d são gráficos da intensidade de impressão da chapa em função da posição.
Como já foi dito, os resultados desse experimento estão diretamente relacionados com os princípios fundamentais da Mecânica Quântica. A primeira conclusão a que se chega, devido aos resultados i, ii e iii, é que a propriedade ondulatória das partículas não se deve a uma característica coletiva das mesmas, ou seja, como um nêutron por vez passa pelas fendas (por uma delas, não sabemos qual) e ele incide sobre um ponto
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
63
específico na chapa de tal modo que, após a incidência de outros nêutrons, a figura de interferência se forma, então pode-se dizer que um único nêutron apresenta uma propriedade ondulatória. De alguma forma, tal onda associada ao nêutron influencia a sua trajetória. Assim, não é mais lícito se falar em partícula, mas sim em onda-partícula. Nesta perspectiva, ao chamar anteriormente o nêutron de partícula, nesse trabalho, cometemos um erro conceitual: o termo partícula deveria, neste caso, ser abolido. Nêutrons, elétrons, prótons, fótons, etc. são ondas-partículas. O experimento de interferência de nêutrons tem implicações diretas com relação ao Princípio de Complementaridade de Bohr. É comum se dizer que nêutrons, elétrons e prótons “ORA se comportam como onda, ORA se comportam como partículas”. Essa afirmação, no entanto, diante dos resultados i, ii e iii, deve ser considerado como uma concepção alternativa1. Os resultados do experimento de dupla fenda somente
podem ser compreendidos se os neutrons forem ao mesmo tempo ondas e partículas. Ou seja: não existem partículas. Os elétrons, neutrons, as pedras, os animais e as pessoas são ondaspartículas.
Karl Popper, epistemólogo, que assumiu uma postura realista, com relação aos fenômenos quânticos, reconhece: “... Parte dos ensinamentos de Bohr - líder espiritual e professor de Heisenberg, Pauli e quase todos os demais fundadores da Mecânica Quântica - era: não tente entender a Mecânica Quântica, porque ela é quase completamente incompreensível. E Bohr tratou de explicar essa incompreensibilidade; ou seja, tratou de fazer compreensível a incompreensibilidade. Sua explicação era que só podemos entender situações similares àquelas às quais estamos acostumados. Porém, a única física que estamos bem acostumados é a macrofísica. A microfísica é sensivelmente distinta e, portanto, está em desacordo com muitas coisas a que estamos acostumados. Esta é a razão pela qual somos incapazes de entender a microfísica e porque não deveríamos tentar entendêla. Todos os modelos clássicos devem fracassar em situações da microfísica. As entidades microfísicas são incognoscíveis: são coisas em si mesmas. Podem se mostrar tanto como partículas quanto como ondas. É como se o modo como se mostram dependesse de nós mesmos, do modo como as observamos. Assim, só podemos observá-las com a ajuda de instrumentos e, como consequência, sua aparição dependeria dos instrumentos que usamos: podemos utilizar ou instrumentos para partículas ou instrumentos para ondas. Porém não podemos, jamais, utilizar ambas ao mesmo tempo. Este é o argumento. Os experimentos de partículas e os experimentos de ondas são incompatíveis”. “Esta última frase não é correta, como demonstra a análise do exemplo favorito de Bohr: o experimento de duas fendas. Neste experimento, obtemos franjas de interferência, a característica padrão das ondas. Porém todas as franjas de interferência são também (como todo mundo sabe)
1 Neste caso, concepção alternativa é um termo conceitual, com algum poder explicativo, mas que não expressa um conjunto de características ou atributos que contemple o conceito científico.
64 | Ciências Naturais e Matemática | UAB
característica das frequências de partículas, de densidades de partículas, e isto é assim em cada um dos experimentos nos quais queremos observar uma onda”. “Para tanto, temos ondas e partículas, e não ondas ou partículas: para cada tipo de partícula, um tipo de campo”. Karl R. Popper, 10 de novembro de 1984 Prefácio da obra “O Debate da Teoria Quântica” - de Franco Selleri A segunda implicação dos resultados i, ii e iii diz respeito à natureza da onda associada à onda-partícula. Essa onda não é de natureza eletromagnética, mecânica ou qualquer outro tipo de onda clássica: trata-se de uma onda de probabilidade. Em outras palavras, tal onda é constituída de probabilidade. A propriedade ondulatória faz com que o nêutron tenha uma probabilidade definida de incidir em um ponto específico da chapa fotográfica. Ou seja, não há como dizer em qual ponto um neutron irá incidir, mas sua distribuição de probabilidade – que coincide com o gráfico c da imagem anterior e que é fruto da interferência da onda associada à onda-partícula devido às fendas – é bem definida. A terceira – e talvez a mais importante – implicação se refere ao postulado fundamental da Mecânica Quântica: o colapso da função de onda. Tal fenômeno está relacionado com o fato de aparecer um único ponto na chapa fotográfica com a incidência do nêutron, a despeito desse possuir uma propriedade ondulatória que, a princípio, possui uma extensão espacial (não-localidade). O fato é que a detecção de uma onda-partícula com uma chapa fotográfica é, essencialmente, um experimento de localização da onda-partícula. Ao se medir a localização de uma onda-partícula, sua propriedade ondulatória desaparece, resultando numa “resposta” ao experimento, ou seja, a onda-partícula nos diz “estou aqui”, mas isso acarreta sua própria destruição enquanto onda-partícula. É por isso que, ao tentarmos descobrir por qual fenda passa o neutron, o padrão de interferência desaparece: qualquer que seja a tentativa de localizar a onda-partícula tem como consequência a destruição de sua propriedade ondulatória, portanto a interferência já não pode mais ocorrer. Vê-se, portanto, que o fenômeno de interferência está ligado à não-determinação. Segundo Heisenberg [1995, p.46], o estado das entidades microscópicas depende de nosso grau de conhecimento sobre elas, ou seja, de nossa própria consciência. O colapso da função de onda deve ser considerado como o princípio mais importante da Mecânica Quântica, uma vez que é o único ponto que a diferencia fundamentalmente da Mecânica Clássica [Penrose, 1991, p.277]. Além disso, esse princípio tem profundas implicações filosóficas2, sendo a primeira delas o papel que a consciência 2 que são fundamentais para se promover uma mudança de perspectiva para os alunos do Ensino Médio, de forma que eles adquiram uma visão de mundo mais condizente com os tempos modernos.
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
65
humana tem sobre a matéria [ver Selleri, 1986, p.178].
Outro aspecto filosófico importante diz respeito à questão do livre-arbítrio. A Mecânica Quântica tem uma resposta bastante clara a respeito desse assunto. Vamos supor que, no caminho de volta para casa, você tenha que atravessar uma rua. Existe uma pequena probabilidade de você ser atropelado e morrer. Segundo a Mecânica Quântica, após você atravessar a rua, são possíveis apenas dois estados quânticos: OU vivo OU morto . No caso do experimento de dupla fenda, temos que o nêutron pode passar pela fenda A ou pela fenda B. Cada uma dessas possibilida= nêutron passando pela fenda A e des representa também um estado quântico = nêutron passando pela fenda B. A interferência ocorre porque a onda associada ao nêutron – tal qual a luz no experimento de Young – passa por ambas as fendas. interfere com e o que acontecerá com o nêutron após passar pelas Assim, fendas dependerá da interferência entre os estados. Da mesma forma, o que lhe acontecerá ao atravessar a rua dependerá de uma interferência entre vivo e morto . Em outras palavras, o que lhe acontecerá dependerá de uma interação entre dois possíveis acontecimentos futuros. De forma compatível com essa consideração, ainda segundo a Mecânica Quântica, o estado quântico do nêutron, antes de atingir a placa fotográfica, será: = + . Da mesma forma, o seu estado quântico, antes de atravessar = vivo + morto , ou seja, você estará vivo e morto ao mesmo tempo. a rua, será Apesar do absurdo do ponto de vista clássico, é exatamente o que acontece do ponto de vista quântico. Schrödinger muito bem expressou tal fenômeno no seu famoso experimento mental chamado “Gato de Schrödinger”. Contudo, a questão do livre-arbítrio aparece com a questão do colapso da função = vivo + morto . Podemos alterar o estado através de nossos de onda atos e de nossa consciência. Antes de atravessar a rua, você pode “realizar uma medida”, do ponto de vista quântico, se certificando, por exemplo, da posição e velocidade , que pode passar a ser = vivo . Tal dos carros. Isso pode provocar colapso procedimento é análogo a se detetar por qual fenda o neutron passa. Concluindo, nosso estado quântico é constituído de uma soma de todas as nossas possibilidades futuras. Ao ampliarmos nossa consciência, estaremos contribuindo para a construção de nosso futuro. Assim, o futuro não é totalmente “amarrado” (“ditado pela vontade de Deus”), nem há um completo livre-arbítrio (já que o número de possibilidades é limitado). Tudo depende de nossas atitudes e consciência. A questão de levar a filosofia da Mecânica Quântica para o Ensino Médio é At i v i d a d e de vital importância para a formação de cidadãos conscientes que podem contribuir para a melhoria do mundo moderno. Tal filosofia implica num Atividade: acesse profundo respeito à natureza e ao ser humano, havendo condições, pois, a aula multimídia sobre de pensarmos numa educação em ciências com maior tendência humanis“Gato de Schrödinger”, ta. faça as alterações que julAo tomar consciência das implicações da Mecânica Quântica, Niels gar necessárias e elabore um plano de aula usando este material. 66 | Ciências Naturais e Matemática | UAB
Bohr procurou qual filosofia já existente seria mais adequada a essa ciência. Ele não a encontrou no ocidente, mas sim no Taoísmo de Lao Tsé (Tao te King, o Livro do Sentido e da Vida – Lao Tse ed. Hemus,1986). Compreender a Mecânica Quântica, perspectiva da Interpretação de Copenhagen, significa aceitar a perfeita harmonia entre o antagônico: ser grande e ao mesmo tempo pequeno; ser profundo e ao mesmo tempo superficial; ser claro e ao mesmo tempo escuro; ser onda e ao mesmo tempo partícula. A maneira como apreendemos o mundo macroscópico está relacionada com nossas experiências sensoriais. Usamos nossos sentidos para medir, calcular, refletir, inferir e concluir acerca dos fenômenos da natureza. Contudo, quando se trata do mundo atôO escudo de armas de Niels Bohr, mico, boa parte das nossas percepções sensoriais falha inexoraveledição comemorativa, organizada mente até porque as observações não são mais diretas e objetivas, por S.Rozental (North-Holland dependemos criticamente dos instrumentos de medida e, como viPublishing Company, Amsterdã,1967) mos, o processo de medição interfere com o objeto ou fenômeno quântico de maneira tal que nossas inferências passam a ser fruto dessa interação sujeito-objeto.
At i v i d a d e : Reveja o vídeo “Dr. Quantum” e responda: Fótons, elétrons, nêutrons e prótons são ondas ou partículas? Qual é a natureza dessas entidades microscópicas?
Preliminares
ac e r ca d a
Te o r i a
da
R e l at i v i d a d e
Essa estranha Física Contemporânea da qual estamos falando neste fascículo está cheia de conceitos novos como quantum, dualidade, complementaridade, fótons etc, mas também nos traz novas concepções sobre conceitos clássicos como espaço e tempo. É especificamente disso que trata a Teoria da Relatividade (TR). Os conceitos de espaço e tempo constituem as bases de todas as nossas experiências cotidianas. Em geral, não consideramos os mesmos como resultados, mas como
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
67
pontos de partida. São conceitos que são inseridos em nossas vivências a priori1. A Física Clássica parte do pressuposto de que espaço e tempo são absolutos, inalteráveis e o universo, a partir das leis de Newton, pode ser descrito e compreendido. Contudo, a TR mostra que essa
completa independência do espaço e do tempo na natureza, até então concebida como algo incontestável, deixa de existir, por exemplo, no âmbito das observações e experimentos que sucedem em velocidades próximas a da luz. Toda boa teoria, epistemologicamente falando, além
de simples, é construída a partir de uma evolução de conhecimentos movidos pela necessidade de conhecer a natureza e,com a TR, não foi diferente. É o que veremos a seguir.
Além de considerar o espaço e o tempo absolutos a FC, bem como as nossa próprias concepções, admitem que a realidade física é a mesma em qualquer ponto do universo, ou melhor, em qualquer referencial. Ou seja, se, por exemplo, na copa do mundo de 2002, o Brasil sagrou-se campeão com dois gols do jogador Ronaldo “fenômeno”. Este fato, deveria ser percebido da mesma maneira por qualquer outro observador situado em qualquer outro ponto do universo movendo-se ou não em relação à Terra. Jamais este observador poderia ver a vitória do Brasil por um número diferente de gols ou mesmo uma derrota. Contudo, na segunda metade do século XIX os cientistas descobriram que não é possível manter, ao mesmo tempo, o caráter absoluto da realidade física e caráter absoluto do espaço e do tempo. Por quê? Vamos imaginar o tradicional exemplo de um trem movendo-se com velocidade, v, constante e próxima à velocidade da luz, c. No interior do trem há uma fonte de luz e um espelho situado no teto de um dos vagões, conforme mostra a figura abaixo:
Observe que d é a distância da fonte de luz até o espelho. Um observador que se encontre fora do trem veria um percurso diferente da luz se dirigindo ao espelho e sendo refletida do que outro observador dentro do trem, conforme se observa na figura a seguir: à priori: significa dizer que “não depende de nenhuma forma de experiência por ser gerado no interior da própria razão.” ( Immanuel Kant -1724 – 1804).
1
68 | Ciências Naturais e Matemática | UAB
Imagine agora, que a fonte de luz é dotada de um dispositivo que a desliga automaticamente se o feixe de luz refletido no espelho não chegar de volta à fonte em um intervalo de tempo correspondente a 2l/c, que é o tempo que a luz leva para percorrer o trajeto fonte-espelho-fonte, já que o tempo corresponde à distância total percorrida dividido pela velocidade da luz. Assim, para o observador situado no interior do trem, a luz retornará à fonte a tempo e então permanecerá acesa. Entretanto, para o observador situado fora do trem, a luz deve percorrer uma distância maior já que o trem está se movendo e então levaria maior intervalo de tempo até atingir novamente a fonte. Assim sendo, o feixe não atingiria o dispositivo a tempo e a luz se apagaria. Então teríamos uma situação ambígua em que para um dos observadores a fonte se manteria acesa e para o outro se apagaria. Afinal, qual seria a realidade?
N a I n t e r n e t Veja as seguintes simulações: http://www.walter-fendt.de/ph14br/timedilation_br.htm http://titan.physx.u-szeged.hu/physics/theophys/specrel/applet/eSimultaneity.html Essa ambigüidade pode ser solucionada se abrirmos mão do caráter absoluto do espaço e do tempo. Einstein solucionou esta questão ao perceber que a maneira com que os fenômenos elétricos e magnéticos ocorrem depende do valor da velocidade da luz. Assim, ele supôs que a velocidade da luz é a mesma em todos os referenciais, ou seja tanto para observador situado dentro como fora do trem. Portanto, considerando que a velocidade é o espaço percorrido dividido pelo intervalo de tempo correspondente, temos, para o observador situado dentro do trem: c = 2d ∆t .
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
69
Já para o observador situado fora do trem: 2 d 2 + (v∆t '/ 2) 2 c= ∆t ' Considerando ∆t’ o intervalo de tempo que a luz leva para percorrer o caminho fonte-espelho-fonte para o observador situado fora do trem. A equação acima é uma decorrência da aplicação do Teorema de Pitágoras ao triângulo desenhado pela trajetória da luz para o observador em repouso, situado fora do trem. Então, já que a velocidade da luz nos dois referenciais é a mesma: 2d 2 d 2 + (v∆t '/ 2) 2 = ∆t ∆t ' podemos rearranjar os termos e chegar a ∆t =
∆t ' 1−
v2 c2
Vamos refletir sobre tudo isso que fizemos até agora: se para Newton o tempo é absoluto, não importa o movimento relativo entre os corpos; esta equação nos mostra que os intervalos de tempo dentro e fora do trem são diferentes. Analisando esta equação é possível verificar que ∆t > ∆t’; logo o tempo dentro do trem passa mais devagar do que fora, dando tempo suficiente para a luz retornar à fonte e atingir o dispositivo mantendo-a ligada. Desta forma, ambos os observadores participarão da mesma realidade (fonte permanentemente ligada). Eis a dilatação temporal! O realismo está salvo!!! Este conceito é absolutamente novo para a maioria de nós. Vamos amadurecê-lo para compreendermos outras esquisitices como, por exemplo, a contração espacial e massa relativística. At i v i d a d e s : 1. Deduzir passo a passo a equação da dilatação temporal elucidando textualmente cada etapa. 2. Einstein formulou dois postulados para a TR; pesquise-os na rede e transcreva-os.
70 | Ciências Naturais e Matemática | UAB
C i ê n c i a , Te c n o l o g i a
e
no
Sociedade S é c u l o XX
E
m meados do século XIX, a ciência construída por Descartes, Bacon e Newton proporcionara à humanidade uma série de desenvolvimentos tecnológicos que levaram a uma melhor condição de vida para a população mundial. No século XIX surgiram as locomotivas, os barcos a vapor, a lâmpada elétrica, as máquinas industriais que não necessitavam de tração humana ou animal e, entre o final do século XIX e início do XX, os motores a combustão, os automóveis, as linhas de produção, o telefone, o avião, etc. A humanidade parecia estar destinada ao bem estar social. A ciência cartesiana era a ciência da certeza, da exatidão, da previsibilidade. Era confortável para o ser humano acreditar que o Universo fosse previsível e bem comportado e que ele teria o poder de saber o que aconteceria no dia seguinte. A tecnologia permitira a produção de itens em massa, o que tornaria os alimentos e as vestimentas mais baratas, pois seriam fabricadas em série. Assim, todos seriam ricos e felizes no futuro. No entanto, alguma coisa deu errado no meio do caminho. O século XX seria marcado por guerras, onde dezenas de milhões de pessoas pereceriam, e também pela intolerância, pela fome, por tragédias econômicas e por cidades inteiras sendo vaporizadas em poucos segundos. O que houvera de errado com as luzes do liberalismo da Revolução Francesa, com o racionalismo cartesiano e o determinismo newtoniano? Por que não levara o homem a um estado de iluminação pela razão e justiça? Talvez porque o Universo, afinal, não seja tão previsível e racionalizável como supunham os pensadores modernos. Talvez porque o ser humano não possa ser reduzido à faculdade da razão. Talvez porque tivéssemos negado nossa própria irracionalidade ela tenha se manifestado no século XX – quer seja nos campos de concentrações nazistas, quer seja nos desertos da Etiópia e Somália – com tanta intensidade. A ciência moderna começou a ruir ainda na segunda metade do século XIX, quando dois grandes nomes da ciência publicaram – de maneira completamente independente, ou seja, sem um influenciar o outro – os seus trabalhos, onde afirmavam que a aleatoriedade desempenha um papel fundamental nos fenômenos naturais: Charles Darwin e Ludwig Boltzmann. A obra do primeiro (A Origem das Espécies, publicada em 1859) causou furor na sociedade por um ponto que, aliás, não é o fundamental na sua obra: a possibilidade da espécie humana ter descendido de macacos. Evidentemente, uma menção científica contrária à idéia de que o homem fora feito à Sua imagem causou, e ainda causa, uma forte rejeição. Exemplo disso é a proibição, em pleno século XXI, do ensino de Darwin em algumas escolas estadunidenses.
UAB| Ciências Naturais e Matemática | As Ciências Naturais na Contemporaneidade |
71
Contudo, a teoria darwiniana guardava um perigo mais fundamental contra a ciência estabelecida na Idade Moderna: De forma contrária ao determinismo newtoniano-cartesiano, Darwin defendia a idéia (amplamente aceita nos dias de hoje) de que a reprodução das espécies vivas não se dá de maneira previsível. Devido a imperfeições na formação dos embriões, é comum a prole apresentar pequenas diferenças em relação aos pais. Tais diferenças ocorrem de maneira aleatória e, algumas delas, levam a indivíduos um pouco mais adaptados para viver num dado ambiente e que têm melhores chances de sobrevivência, estabelecendo-se assim um mecanismo de seleção natural. Para o cientista moderno, essa idéia é muito difícil de ser aceita, já que as Leis de Newton (as quais deveriam descrever todos os fenômenos do Universo, segundo o que se acreditava na época) foram concebidas de acordo com a idéia de que todos os fenômenos são previsíveis e racionais.
Darwin e Boltzmann, de forma independente, estabeleceram a aleatoriedade como elemento fundamental em suas teorias. Já Ludwig Boltzmann (1844-1906) desenvolveu uma teoria capaz de descrever as propriedades físicas macroscópicas da matéria, como temperatura, pressão e volume, por meio de suas propriedades microscópicas. Para isso, teve que supor que a matéria fosse constituída de pequenas partículas, as moléculas, numa época em que, embora já existissem modelos de átomo, como o de Dalton, jamais se havia tido provas concretas de sua existência. Nessa época, os prótons, nêutrons e elétrons ainda não eram conhecidos e muitos duvidavam que os átomos realmente existissem. Segundo a teoria da Boltzmann, que também é plenamente aceita nos dias de hoje, a temperatura e a pressão de um gás se deve à velocidade das moléculas. O movimento das moléculas se dá em meio a colisões umas com as outras (processo conhecido
72 | Ciências Naturais e Matemática | UAB
como difusão), com subseqüente mudança de direção de propagação. Da mesma forma que Darwin, um dos pontos fundamentais de sua teoria é que a direção de propagação de uma molécula imediatamente após uma colisão é aleatória, o que outorga-lhe uma característica fundamentalmente estatística e não determinística. A teoria de Boltzmann é frontalmente contrária a de Newton no aspecto que se refere à reversibilidade dos fenômenos naturais: de acordo com as Leis de Newton, se soubermos as posições e velocidades das moléculas num dado instante de tempo, podemos calcular (determinar) a posição e velocidade das moléculas em Lápide do túmulo de Boltzmann no Zenqualquer instante futuro ou passado. Já, para a teoria de tralfriedhof em V iena Boltzmann, parte das informações transportadas pelas molécom a sua famosa equação. culas se perde nas colisões, de forma que não é possível reconstituir completamente o estado passado de um gás. Após a publicação das principais obras de Boltzmann, nas décadas de 70 e 80 do século XIX e sua posterior divulgação, houve um forte oposição por parte de um grupo de cientistas, liderados por Ernst Mach, que não aceitavam que o comportamento da matéria fosse governado pela dinâmica de suas partículas fundamentais. Tratavase do grupo dos energetistas, os quais acreditavam que as propriedades de um sistema deveriam ser determinadas por suas propriedades macroscópicas e, em particular, pelo princípio de conservação de energia. Além de Mach, energetistas como Wilhelm Ostwald, Georg Helm e Pierre Duhem argumentavam que, ao longo do século XIX, a ciência fracassara em estabelecer um modelo atômico coerente e que fosse capaz de prever alguns fenômenos macroscópicos, tal como o espectro de emissão e absorção dos corpos. Mach defendia a tese de que a ciência deveria trabalhar sob o paradigma da “economia de idéias”, e não explicá-la em termos de entidades hipotéticas tal como o átomo ou o éter eletromagnético. Nesse aspecto, a obra de Boltzmann era tida como idealista. Contudo, não seria o idealismo a doutrina filosófica que marcaria as obras de Darwin e Boltzmann no começo do século XX, mas uma outra entre duas doutrinas que ditariam o destino de toda a humanidade nesse século, governando os seus principais fatos, tais como as guerras mundiais, a quebra da bolsa de Nova York, o pouso do homem na lua, as guerras da Coréia e do Vietnã. Os energetistas mantinham uma visão pragmática da ciência, dentro de uma postura filosófica disseminada na ciência e na política da época: o Positivismo. Essa doutrina filosófica fora estabelecida por August Comte (1798-1857) e partir da premissa de que a causa dos fenômenos não é importante, mas o estudo de suas leis deve ter UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
73
Ford Modelo T
como objetivo justamente prever o que vai acontecer: “ver para prever, a fim de prover”. Ou seja, o positivismo tinha, e tem, um caráter pragmático, em que a ciência tem como objetivo o “prever para prover”, para melhorar a condição do ser humano. A filosofia positivista se ajustava perfeitamente ao espírito da sociedade ocidental no começo do século XX. Alimentados pela crença de um futuro melhor, operários trabalhavam freneticamente nas linhas de produção em todo o mundo ocidental, produzindo os sonhos de consumo que, até pouco tempo anterior, jamais poderiam ser imaginados (ver o filme Tempos Modernos, de Charles Chaplin). Foi nessa época que a produção frenética aliada a uma explosão de consumo levou Henry Ford (1863-1947) a inventar a linha de produção para construir automóveis. Ele percebeu que se poderia colocar um monte de peças sobre uma esteira rolante, enquanto que operários em posições fixas e desempenhando funções repetitivas e bem definidas (como apertar parafusos) tratariam de montar o automóvel etapa por etapa. Era um processo bem mais eficiente, rápido e barato. Assim, a partir de 1913, o Ford Modelo T seria produzido em série, tornando-se um produto barato e confiável. O futuro da humanidade, nesse ano que antecedeu a Primeira Guerra Mundial, parecia belo e feliz com a possibilidade de todo cidadão possuir um automóvel. Contudo, o futuro seria muito mais difícil do que se apresentava até então: o século XX que se descortinaria parecia mais com o Admirável Mundo Novo, a obra do escritor inglês Aldous Huxley (18941963) em que todas as pessoas do mundo são concebidas de forma geneticamente controlada e reverenciam o modelo T como um deus. Os positivistas acreditavam que se deveria produzir muito e trabalhar muito, para que, no futuro, a humanidade tivesse uma vida mais tranqüila e rica. Contudo, trabalhar muito significava muito mesmo. Era normal operários trabalharem 10 ou 12 horas por dia, sem limite de idade. Na época não havia benefícios trabalhistas como férias, décimo terceiro salário, previdência social, seguro saúde ou desemprego. Se alguém ficava incapacitado devido a um acidente de trabalho, simplesmente podia ser mandado embora sem nenhuma indenização. Diante desse quadro, não é de se admirar que as obras de Karl Marx (1818-1883) encontrassem ressonância entre a intelectualidade européia. Marx defendia um sistema em que os benefícios sociais fossem compartilhados por todo o proletariado. Adicionalmente, a teoria marxista era (é) uma teoria materialista, negando o metafísico, ou seja, o que estaria além da matéria. Não é de se admirar também que os partidários do marxismo vissem nas obras de Darwin e Boltzmann o embasamento teórico-científico
74 | Ciências Naturais e Matemática | UAB
para as suas teses. A descendência primata do homem, assim, foi bastante explorada como uma prova da inexistência de Deus. Já a teoria de Boltzmann foi defendida pelo próprio Lênin. Vladimir Ilich Lenin (1870-1924) foi o idealizador da revolução russa de 1917 que destronou o último czar e instituiu um regime comunista, tornando-se seu primeiro presidente. Segundo Lenin, a obra de Boltzmann era essencialmente materialista, já que procurava destrabalhadoras de uma mina crever a matéria a partir de seus constituintes internos. de carvão na Pensilvânia, A época da revolução russa foi bastante conturbada para o mundo EUA, em 1910. Foto de inteiro. A Primeira Guerra Mundial, que se estendeu de 1914 a 1918, foi uma Lewis Hine. das mais violentas da história. A visão de Lenin sobre o conflito consistia na tese de que o desenvolvimento econômico de diferentes nações capitalistas irremediavelmente levaria a um confronto armado sem precedentes. Talvez isso tenha ocorrido de fato, ou talvez fora apenas uma oportunidade do líder russo defender o regime comunista. O fato é que, antes da guerra, uma onda de nacionalismo varreu o continente europeu, onde guerras antigas entre as nações eram lembradas em público, aliada a uma corrida armamentista que vinha se delineando entre as nações desde os primeiros anos do século XX, protagonizada principalmente pela Inglaterra e Alemanha. O naufrágio do Titanic em 1912 não serviu para alertar a humanidade sobre os perigos de uma tecnologia que se desenvolvia rápido demais. Uma das características mais marcantes da Primeira Guerra Mundial foi a utilização da tecnologia em um contexto em que as implicações de sua utilização ainda não eram bem conhecidas. Um indício disso foi o fato de que, durante as batalhas, alguns generais ainda mantivessem a estratégia de atacar com uma infantaria humana ou cavalaria contra tanques de guerra. A conseqüência foi o maior índice de mutilação da história da humanidade. Foi uma guerra suja. Tem-se daí uma das principais conseqüências do desenvolvimento da ciência e da tecnologia no século XX: a morte. Os anos que se seguiram veriam o fortalecimento econômico de duas “jovens” nações: a Rússia Comunista e os Estados Unidos. Em particular, essa última viveu um período de ouro na década de 20, sendo que o seu produto interno bruto (PIB) aumentou em mais de 20% em menos que 10 anos. No final dos anos 20, a economia estadunidense se consolidava como uma das principais no contexto mundial. No entanto, ao final dessa década, ocorre uma outra tragédia: a economia entra em colapso. Em 24 de outubro de 1929 ocorre a assim chamada quebra da bolsa de Nova York, quando despenca o valor das ações de muitas empresas. A partir de então, a economia dos Estados Unidos e Europa entra em recessão. A taxa de desemprego nos EUA dispara de 9 para UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
75
25%, sendo que outros 30% tiveram que aceitar uma redução nos salários. Diversos bancos e indústrias faliram. Instalaram-se bolsões de pobreza, bem como deflação. Praticamente todos os ganhos do PIB da década de 20 desapareceram de uma hora para a outra. A produção industrial caiu em 45%, a de aço, 61%, a de automóveis, 70%. A causa principal de tal quadro se chama liFoto de Wall Street na Quintaberalismo econômico. Desde a sua independência, em 1777, os feira negra, 24 de outubro de EUA escreveram, e mantiveram até os dias de hoje, uma consti1929, foto Bettmann/Corbis tuição liberal, significando que os seus princípios estariam baseados nos ideais da Revolução Francesa: Liberté, égalité, fraternité. O indivíduo seria livre para tomar suas próprias decisões e o estado não seria opressor, mas democrático. Por outro lado, sendo todos livres para lutar pelos seus direitos e para trabalhar para o seu próprio bem estar, não haveria necessidade do estado criar e manter programas sociais para beneficiar os pobres. O bem estar social viria do esforço individual de cada um. Já o desenvolvimento econômico, na lógica do estado mínimo, viria com a lei fundamental da economia: a lei liberal formulada por Adam Smith (1723-1790) e popularmente conhecida como a lei da oferta e da procura. De acordo com a lógica dos governantes que seguiram esse preceito de forma quase absoluta, o estado não deveria intervir na economia – ou, no máximo, fazê-lo minimamente. Assim, os mercados deveriam se autoregular e o fruto dessa autoregulação seria um inevitável crescimento econômico. De fato, pode-se constatar que crescimento econômico decorre em função do liberalismo econômico, mas os sistemas econômicos são sistemas abertos e complexos, não deterministas, e que a isenção do governo em assumir um papel regulador da economia é desastroso. Tanto a crise de 1929 teve como pano de fundo uma certa falta de regras para a regulamentação de financiamentos, como também a crise de 2008, que, sob a condução liberal do governo Bush (entre 2000 e 2008), se caracterizou pelo afrouxamento de regras de empréstimos e compra de títulos, como também um déficit orçamentário gigantesco (centenas de bilhões de dólares anualmente), acoplado a gastos astronômicos associados a guerras e cortes em programas sociais. Para combater os efeitos da crise de 1929, o presidente Franklin Roosevelt contou com a assessoria do grande economista inglês John Maynard Keynes (1883-1946), o qual era fascinado pela obra de Newton, especialmente no que diz respeito às pesquisas deste com alquimia. Numa época em que a economia do ocidente definhava
76 | Ciências Naturais e Matemática | UAB
enquanto que a Rússia comunista se desenvolvia a pleno vapor, Keynes defendia a idéia do estado como regulador. Sob a orientação de Keynes, Roosevelt, a partir de 1932, promoveu a assim chamada revolução keynesiana, introduzindo elementos socialistas na até então exclusivamente liberal economia estadunidense: Estabeleceu regras para as operações bancárias, sob gerenciamento atento do governo; criou mecanismos de financiamento e controle estatal sobre a agricultura, com planejamento de longo prazo sobre todo esse setor da economia, incluindo a instituição de subsídios; consolidou direitos trabalhistas e instituiu programas sociais de auxílio a desempregados e a famílias pobres; e principalmente empregou um grande número de desocupados praticamente “inventando” grandes obras, mesmo que desnecessárias, como a construção de aeroportos, represas e hospitais, com a parceria de empresas e, muitas vezes, mantida com a emissão de títulos – os quais, sob um certo ponto de vista, nada mais são que papéis em que o governo escreve “te pago mais tarde” e que podem ser trocados por mercadorias em padarias e supermercados. É claro que tais medidas oneraram o estado e aumentaram a dívida pública. Mas, de acordo com Keynes, períodos temporários de déficit público são benéficos para a economia quando esta se encontra em depressão. O resultado dessa política (chamada New Deal por Roosevelt) foi que os Estados Unidos se tornaram a economia mais poderosa do mundo no século XX. A principal característica dessa economia, longe de ser puramente liberal, foi a de conciliar preceitos socialistas (como a institucionalização de programas sociais, subsídio à agricultura e controle estatal sobre operações financeiras) com liberdade de mercado e propriedade privada. O sistema econômico puramente socialista ruiria mais tarde, por volta de 1985, com o colapso da União Soviética e a queda do muro de Berlin. O sistema econômico puramente capitalista ruiu em 1929. Entretanto, a crise econômica mundial teve repercussões diferenciadas em outros países. Em alguns deles, tais como a Alemanha e Itália, o desemprego e o aumento da pobreza levou partidos nacionalistas de extrema direita ao poder, os quais prometiam um futuro de glórias se os agentes causadores da crise fossem atacados. Não foi difícil para esses partidos elegerem bodes expiatórios, tal como o partido Nacionalista Alemão (nazista), que escolheu os judeus como os culpados. A expansão territorial da Alemanha nazista, anexando outras nações ao seu território, levou à Segunda Guerra Mundial Vala comum em campo de em 1939. Novamente nesse episódio da história da humanidade a tecconcentração nazista na nologia fez a diferença. Nas primeiras décadas do século XX a ciência segunda guerra mundial. alemã foi a que mais se desenvolveu, tornando-se a mais forte do planeta. UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
77
Assim, o exército alemão, no início da segunda guerra, era o mais eficiente e melhor equipado do mundo. Contudo, a história mostra que, às vezes, pequenas diferenças tecnológicas fazem uma grande diferença, mesmo diante de inimigos mais poderosos. Exemplo disso foi a derrota da frota espanhola em 1588 nas costas da Inglaterra. A frota espanhola era a mais poderosa do mundo, constituída de maior número, maiores e mais destruidores navios da época. Contudo, os barcos ingleses eram menores e mais ágeis. Resultado: a Espanha perdeu quase toda a sua potência naval nesse ano, abrindo caminho para que a Inglaterra se tornasse a nação mais poderosa do mundo desde 1588 até a Segunda Guerra Mundial. Nesta época, dois desenvolvimentos tecnológicos detiveram as nações aliadas à Alemanha nazista. O primeiro deles esteve diretamente relacionado com a própria sobrevivência da Inglaterra enquanto nação autônoma durante o conflito. Contando com a força aérea mais bem equipada do mundo, a Alemanha passou a bombardear sistematicamente as principais cidades da Inglaterra, numa época em que a tecnologia de defesa antiaérea ainda engatinhava. A nação inglesa apenas sobreviveu porque promoveu os esforços de um conjunto de cientistas na melhoria da precisão do radar. O segundo desenvolvimento tecnológico foi o que pôs fim ao conflito mundial: a bomba atômica. A história da bomba atômica pode ser contada a partir da semana entre 15 e 21 de setembro de 1941, quando dois grandes cientistas se encontraram em Copenhagen, a capital da Dinamarca: Niels Bohr, considerado o pai da Mecânica Quântica, e Werner Heisenberg, o autor do famoso princípio da incerteza. Este fora aluno do primeiro no instituto de Bohr em Copenhagen, onde alunos e professores eram tratados A primeira bomba atômica como membros de uma família. Contuconstruida. Foi utilizada do, o encontro de 1941 foi tenso e deixou Bohr extremamente abalado. Heisenberg alertou Bohr dos planos nazistas para prendê-lo, mas não foi na cidade de Hiroshima, no exatamente isso que abalou Bohr, mas as revelações de Heisenberg sobre Japão, em 6 de Agosto de os planos da Alemanha de construção da bomba atômica. Segundo ele, era 1945 inevitável que a Alemanha venceria a Segunda Guerra Mundial, pois a construção da bomba era mera questão de tempo. Dentre os cientistas alemães, Heisenberg era reconhecidamente aquele que reunia melhores condições para conduzir o projeto. Assim, fora designado a assumir o Instituto Nuclear Kaiser-Wilhelm. Em 1941, sua equipe havia produzido evidências experimentais de multiplicação de nêutrons livres num reator nuclear. O princípio de funcionamento da bomba atômica consiste na fissão de núcleos de átomos pesados (normalmente urânio, tório ou plutônio) por nêutrons que são liberados por outras fissões, produzindo-se uma reação em cadeia. Tal princípio de baseia na idéia desenvolvida pela própria equipe de Bohr de que o núcleo de
78 | Ciências Naturais e Matemática | UAB
elementos pesados se comporta como uma gota líquida e, portanto, pode ser dividido assim como uma gota de água pode ser fragmentada. Ou seja, Heisenberg demonstrara a Bohr o firme propósito da Alemanha em desenvolver e utilizar armas nucleares. Não é de se admirar o desconcerto de Bohr. O que fazer diante de tal situação? O desconcerto sentido por Bohr já se abatera em outro cientista anos antes: desde 1939, Leo Szilard demonstrara profunda preocupação com a questão, especialmente após a Alemanha ter cessado a exportação de urânio produzido pelas minas da Tchecoslováquia ocupada, para consumo próprio. Juntamente com Eugene Wigner, Szilard redigiu uma carta endereçada ao presidente estadunidense Franklin Roosevelt, solicitando a Einstein que a assinasse. Este o fez, mas a carta produziu pouco efeito. O governo dos Estados Unidos apenas endereçou alguma verba para que Szilard e Enrico Fermi conduzissem alguns experimentos com fissão nuclear. Foi somente em 1942, após o encontro de Heisenberg com Bohr e após o ataque ao porto de Peal Harbor pelo Japão, um dos aliados de Hitler, que os Estados Unidos decidiram empreender um projeto específico para a construção da bomba atômica: O Projeto Manhattan. Na época, os Estados Unidos se tornaram um abrigo para um grande número de grandes cientistas que fugiam do nacional socialismo que se implantara na Alemanha, Itália e todo o leste europeu, tais como Einstein, Enrico Fermi e o próprio Szilard. Uma boa parte deles aceitou participar do projeto, sob a sombra da ameaça de Hitler obter a arma antes. Para chefiar o projeto foi nomeado o físico estadunidense Robert Oppenheimer. Fugindo da Dinamarca, sob o risco de ser preso, o próprio Bohr viria a se juntar à equipe em 1943. Muitas eram as dificuldades técnicas para a construção da bomba. Em primeiro lugar, para se obter uma reação em cadeia suficientemente intensa, é necessário se obter uma amostra de urânio com alto teor do isótopo 235. O urânio mineral é rico no isótopo 238. Assim é preciso retirar o 238 da amostra, deixando apenas o 235 – um processo conhecido como enriquecimento – e é muito difícil de ser obtido. Em segundo lugar, é necessário um dispositivo que proporcione uma detonação controlável, ou seja, que não exploda antes da hora – outro processo difícil de obter na prática. Desta forma, mesmo contando com uma equipe formidável de mentes, o projeto se estendeu por quase 3 anos, desde a sua implantação em 1942, até a finalização da bomba em 1945. Enquanto isso, na Alemanha, Heisenberg, após alertar a comunidade científica, através de Bohr, sobre a realidade da bomba nazista, e após atrair para si a condução da pesquisa nuclear em seu país, fez o que todo herói faria diante da possibilidade de uma arma Enrico Fermi (abaixo na direita) e a equipe que iniciou a primeira reação nuclear em cadeia artficial
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
79
de destruição em massa na mão de um lunático (Hitler): dedicou-se ao estudo e a recitais de piano. Assim, quando a Alemanha foi tomada pelos aliados, não se encontrou nenhum vestígio de qualquer esforço alemão pela construção da bomba: o projeto da ogiva nuclear nazista, nas mãos de Heisenberg, não se realizara. Contudo, Hitler seria derrotado meses antes da bomba estadunidense ser utilizada. Hitler cometera vários erros táticos, dentre eles invadiu a Rússia. Talvez o líder nazista não tinha aprendido muito com a história, pois o destino do seu exército foi o mesmo que o do francês durante a era napoleônica: Napoleão invadiu a Rússia em 1812 e chegou mesmo a tomar Moscou, mas os russos fizeram o que sempre fazem quando o seu país é invadido: vão para o interior, deixando o rigor do seu inverno e a fome tomarem conta dos invasores. Além disso, Hitler chamou a operação de invasão de “Operação Barbarossa”: Desconheceria Hitler que Barbarossa (apelido do rei Frederico I, sacro imperador romano-germânico) morreu afogado ao atravessar um rio, durante uma cruzada em 1190, ao cair do cavalo, devido ao peso de sua própria armadura? De fato, em abril de 1945, o exército vermelho da União Soviética toma Berlin, a capital alemã. A guerra não acaba nesta data, pois um último aliado da Alemanha, o Japão, ainda estava ativo no leste asiático. Entretanto já se sabia que a derrota do Japão era uma mera questão de tempo. Diante da iminência do término da guerra, os cientistas participantes do Projeto Manhattan manifestaram-se oficialmente contra a utilização da bomba. Nesse meio tempo, Roosevelt vem a falecer, assumindo a presidência dos EUA o anti-comunista Harry Truman, o qual autorizou a utilização da bomba sobre as cidades japonesas de Hiroshima e Nagazaki, em 6 e 9 de agosto de 1945, respectivamente. A energia liberada por uma bomba atômica é tamanha (equivalente a milhões de toneladas de dinamite) que pulverizou as duas cidades em poucos segundos, matando, estima-se, entre 140 e 220 mil pessoas. Diante do poder destruidor dessa nova arma, Oppenheimer citaria um trecho do Bhagavad Gita: Agora eu me tornei como a Morte: a destruidora de mundos. O fato é que, a partir de agora, o homem se tornara capaz de destruir o mundo todo. A humanidade nunca mais seria a mesma. Uma nova guerra mundial seria inconcebível. Realmente, um novo e estranho mundo emergiria do término da Segunda Guerra Mundial: Mesmo antes do seu fim, em janeiro de 1945, os “três Cogumelo formado com a explosão da bomba atômica sobre Nagasaki, em 1945. O cogumelo se extendeu mais de 18 km acima da superfície 80 | Ciências Naturais e Matemática | UAB
senhores do mundo” (Franklin Roosevelt, presidente dos EUA; Winston Churchill, primeiro-ministro da Inglaterra e Josef Stálin, ditador da União Soviética) tratariam de repartir os espólios do planeta: a Alemanha seria dividida em duas (ocidental e oriental); Berlim, incravada na nova Alemanha Oriental, também seria dividida em duas, construindo um muro para separar os dois lados: o muro de Berlim. O lado oriental de cada uma delas (Alemanha e Berlim) caberia à URSS (União das Repúblicas Socialistas Soviéticas) e o lado ocidental aos EUA. Já a Inglaterra, enfraquecida economicamente pela Segunda Guerra, deixaria de ser a nação mais poderosa do mundo. Entretanto, a secular política colonial do mundo ocidental, aliada a uma sede incomensurável de Stálin por expansão territorial, levou não somente à divisão da Alemanha, mas, de uma certa forma, do mundo inteiro, entre URSS e as nações do mundo ocidental. Ao final da Segunda Guerra, a África estava praticamente repartida entre Inglaterra e França (suas nações foram ganhando independência gradualmente a partir do final da década de 50 até a década de 70, surgindo, em grande parte delas, nações independentes desestruturadas e recheadas de guerras civis). A Ásia, dominada em grande parte pela Inglaterra na época, foi adquirindo autonomia mais rapidamente graças a um advogado hindu formado na Inglaterra, ao qual seus conterrâneos chamavam de “grande alma” (mahatma): Ghandi, que, através da prática da não-violência obteve a independência da Índia em 1947. Contudo, os EUA se tornaram uma espécie de tutor do Japão após o conflito mundial. Já a URSS incorporou os países do leste europeu (como Polônia, Tchecolosváquia, Iugoslavia e Hungria), bem como do noroeste asiático, como o Cazaquistão e Uzbequistão. A doutrina comunista-marxista “contaminaria” outros países importantes como a China (1949, com a revolução liderada por Mao Tsetung) e Cuba (1959). O comunismo, de um modo geral, ganhou adeptos na Europa Ocidental e também na América Latina. A expansão das idéias marxistas pelo mundo gerou uma forte política de direita nos EUA, que foi particularmente intensa na década de 50, num quadro em que, tanto os EUA como a própria URSS desenvolveram e dominaram a tecnologia da bomba H, uma bomba muito mais poderosa que a bomba A, utilizada em Hiroshima e Nagazaqui (na Churchill, Roosevelt e Stálin em janeiro de 1945, na conferência que redefiniu o desenho político da Europa e do mundo. UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
81
verdade a bomba A é o estopim da H). Para se ter uma idéia do poder de destruição acumulado por essas duas nações a partir da Segunda Guerra, em 2004 os EUA contavam com cerca de 10000 (dez mil) bombas H montadas em mísseis intercontinentais e a URSS, 17000 (dezessete mil). É o suficiente para destruir um raio de 100 km em torno das 27000 cidades mais populosas do planeta. Obviamente os dois países jamais se enfrentaram numa guerra direta, mas a segunda metade do século XX seria marcada pela assim chamada Guerra Fria, que gerou diversos conflitos armados, como o da Coréia (1950-1953), do Vietnã (1959-1975) e do Afeganistão (1979-1989), bem como impôs ditaduras a diversas nações. Um dos primeiros episódios da Guerra Fria foi a instauração, dentro dos próprios EUA, do movimento chamado “macartismo”, instituído e defendido principalmente pelo senador Joseph McCarthy, composto por um série de medidas governamentais de restrição ao trabalho e a direitos civis de pessoas envolvidas com o comunismo, que vitimou personalidades conhecidas, dentre elas: Charles Chaplin, a atriz Lee Grant, o ator e diretor Orson Welles e o próprio Robert Oppenheimer. Temerosos quanto à expansão do comunismo e contando com um sistema econômico que se fortalecia Senador Joseph McCarthy: com o tempo, os EUA passaram então a fomentar ditadores de direita este homem iniciou a persepelo mundo afora (alguns já existentes, outros criados a partir de enguição aos comunistas nos tão): Alfredo Stroessner, entre 1954-1989, no Paraguai; Juan Domingo EUA. Perón, Rafael Videla e Leopoldo Gualtieri, entre 1946-1982, na Argentina; Augusto Pinochet, entre 1973-1990, no Chile; Castelo Branco, Costa e Silva e Médici, entre 1964-1974, no Brasil; a família Somoza, entre 1936-1979, na Nicarágua; Francisco Franco, entre 1939-1975, na Espanha; Antonio de Oliveira Salazar, entre 1932-1968, em Portugal; Reza Pahlevi, entre 1941-1979 dentre outros. Nesses países, nos seus respectivos períodos, milhares de pessoas desapareceram, outras tantas foram torturadas e/ou exiladas. A URSS fomentou um número equivalente de ditaduras de esquerda como as de Jozip Broz Tito, entre 1945-1980, na Iugoslávia e Fidel Castro, entre 1959-2008, em Cuba. Em outros países, nenhuma das duas superpotências logrou estabelecer um governo ideologicamente orientado num curto período de tempo, como no caso da Coréia e do Vietnã, o que resultou em conflitos armados. Em particular nesse último país, o conflito se tornou particularmente doloroso para a população em geral, já que, com o
82 | Ciências Naturais e Matemática | UAB
aperfeiçoamento das técnicas de transmissão de sinal de TV, a guerra passou a adentrar os lares dos cidadãos.
Duas das mais famosas imagens da Guerra do Vietnam: a esquerda, crianças fugindo de um bombardeio nalpam, foto de Nick Ut. Prisioneiro sendo executado diante das câmeras em 1968, foto de Eddie Adams. Nessa guerra, tanto os EUA quanto os vietcongs (terroristas municiados pela URSS) utilizaram armas de dizimação em massa, como napalms (uma mistura de agentes inflamáveis, como a gasolina, misturados com gel, capaz de queimar hectares de florestas em segundos) e o agente laranja (uma mistura de fortes herbicidas), além de minas terrestres, que levaram à mutilação de muitos civis, e ataques e dizimação de aldeias inteiras. Assim, em meados da década de 60, a história do século XX, contada em poucas páginas, parecia uma crônica de terror. A tecnologia proporcionara ao homem uma extrema capacidade de matar e destruir; entretanto, filosoficamente, o pensamento dos governantes ainda remontava a séculos passados. Contudo, uma coisa inteiramente nova (e possivelmente inesperada) aconteceu nesse período: muitas pessoas incorporaram a idéia de que as guerras são desnecessárias e de que podemos trabalhar para um mundo melhor em que pessoas de diferentes etnias, classes e credos possam conviver em harmonia. Especialmente a partir de 1968, um grande número de pessoas (talvez milhões) em todo o mundo (na maioria jovens) saiu para as ruas para protestar contra as guerras, as ditaduras, as injustiças sociais e pelo direito das minorias. As pessoas se perguntavam o que de fato os EUA estavam UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
83
fazendo no Vietnam: a resposta, por exemplo, do cineasta Francis Ford Coppola, diretor do filme Apocalipse Now, eles foram ao Vietnam para surfar. A partir de então, a democracia e a educação em massa se fortaleceram no mundo. Aqueles que almejam o poder sabem que não podem atingi-lo defendendo velhas bandeiras. Na era da internet, muita informação está disponível para muitos. Temos a experiência dos erros do passado e a vontade de acertar está viva. Muitos benefícios da ciência agora são colhidos: temos a capacidade de produção de alimentos em massa – acabar com a fome mundial é, a cada dia mais, uma mera decisão política; a medicina tem conseguido aumentar a expectativa de vida das populações; a guerra está se tornando caríssima e inviável; as grandes tecnoestruturas e empresas em geral estão descobrindo que o trabalho feito em cooperação é mais eficiente e rentável que aquele feito por competição. Existem ainda muitos desafios pela frente, como o quadro das mudanças climáticas globais e a violência urbana, contudo a possibilidade de um mundo melhor é concreta e é algo a ser trabalhado. Não conhecemos o futuro, a terra desconhecida nas palavras de Shakespeare. Não sabemos se somos fruto do destino, ou se “flutuamos sem rumo como a brisa”, como diria Forest Gump (Paramont Pictures, 1984), mas talvez sejamos um pouco dos dois e, nesse meio termo, possamos caminhar para um futuro melhor. Assista um discurso feito por Adolf Hitler aos jovens alemães disponível na plataforma ou em: http://www.youtube.com/watch?feature=related&v=EHqt4AcIiMY. Analise o discurso e responda: Qual era a intenção de Hitler com o discurso? Que valores estão embutidos no conteúdo do discurso? Faça uma comparação entre a postura de Hitler – e também a disposição das pessoas no interior do estádio – com os princípios trazidos a tona com a Mecânica Quântica. O discurso de Hitler é mais compatível com a filosofia da ciência antiga, medieval, moderna ou contemporânea? Quais foram as principais influências do desenvolvimento da ciência e tecnologia na história do século XX? Explique sua resposta.
Como educadores precisamos despertar a curiosidade e estimular o espírito crítico de crianças e adolescentes para questões relacionadas à nanociência e à nanotecnologia. Como tem feito a Unicamp, em conjunto com o Laboratório Nacional de Luz Síncrotron (LNLS), Instituto Sangari e Prefeitura Municipal de Campinas desenvolvendo o projeto de divulgação científica intitulado Nanoaventura. Exposição que consiste em jogos eletrônicos, cinema em 3D, teatro, música e animação, cujos conteúdos são resultado de pesquisas no campo da nanociência, que estuda as estruturas de dimensão física de ordem de dezenas de nanômetros (o nanômetro é a bilionésima parte do metro). (SBPC, 2005). As nanotecnologias vão um passo além do nosso cotidiano, e algumas destas apli84 | Ciências Naturais e Matemática | UAB
cações podem parecer ficções científicas. Como nanopartículas impermeáveis à água, microrrobôs antibióticos podem destruir bactérias. Quando aplicada às Ciências da Vida recebe o nome de NANOBIOTECNOLOGIAS, em que vários nanodispositivos ou nanorrobôs conhecidos como os “trabalhadores” em tamanho molecular no mundo da “nanofatura” poderiam funcionar como kits de reparo de neurônios para os indivíduos com mal de Parkinson ou doença de Alzheimer. Além de outros dispositivos microscópicos conhecidos como “buckyballs” que podem abrigar substâncias em seu interior, percorrendo o organismo para encontrar e destruir vírus ou células cancerosas, por exemplo. Em diferentes áreas de conhecimentos como na Física, Química, Biologia, Tecnologia da informação, todos se encontram no estudo dos fenômenos em nível nanométrico. A França é considerada um dos pioneiros mundiais na aplicação da nanotecnobiologia, um campo que pode parecer ficção científica, e hoje já é real. No Brasil, há centros especializados em realizar tratamentos de câncer de pele; em Ribeirão Preto, desde 2000 são utilizados os tratamentos que usa nanotecnoloFotos de divulgação do gia para tratar este tipo de doença, na Universidade de Brasília (Unb) desde projeto Nanoaventura 2006 e na Universidade Federal de São Paulo (Unifesp) desde 2007. A nanotecnologia atualmente é uma biopolêmica, segundo o pesquisador Robert Freitas, o maior especialista nesta área, considera um risco e discute a possibilidade de nanorrôbos devorarem tudo o que for vivo para se auto-replicar, o que ele chama de “ecofagia”. Desta maneira, a previsão na área da saúde chegou a atender alguns povos. Como ciência a semente da nanotecnologia foi plantada por Richard Phillips Feynman (1918-1988) em uma conferência intitulada “Há Muito Espaço Lá Embaixo”. A partir destas idéias muitas descobertas foram anunciadas, frutos das pesquisas de muitos cientistas, por exemplo, Kim Eric Drexler, que popularizou a palavra “nanotecnologia”, nos anos 80, referindo-se à construção de máquinas em escala molecular, de apenas uns nanômetros de tamanho: motores, braços de robô, muitos dos lasers semicondutores que empregamos na nossa vida quotidiana, At i v i d a d e em toca-discos CD e DVD, por exemplo, são produzidos por essas técnicas. Dentre os instrumentos da nanotecnologia, temos ainda: a Discuta com seus microscopia eletrônica de alta resolução, as microscopias de varrecolegas sobre a engenhadura (tunelamento e força atômica, entre as principais) e as fontes ria biomédica e as conde luz síncrotron. Alguns desses instrumentos de caracterização de trovérsias que existem no materiais nanoestruturados estão disponíveis em vários laboratórios campo da ética, da moral no País. e da religião. UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
85
86 | Ciências Naturais e Matemática | UAB
O A va n ç o
Espécie Humana s o b r e a N at u r e z a
da
R
amade (1979), ao fazer um retrospecto dos efeitos da ação do ser humano sobre o meio ambiente, considera a agressão humana como “tradicional”. Para ele o impacto da ação do homem sobre a ecosfera tornou-se verdadeiramente significativo desde o momento da descoberta do fogo, tendo se acentuado com a revolução do neolítico. O maior aspecto negativo da supremacia do Homo sapiens como espécie dominante na Terra é a crise atual da biodiversidade, que, de acordo com algumas estimativas, pode estar levando ao desaparecimento de 30 mil espécies por ano. O Biólogo e paleontólogo evolucionista Niles Eldredge afirma que “Estamos destruindo rapidamente o planeta e que a Terra está na segunda fase da sexta grande extinção, mas ainda há como reverter o processo. Pela primeira vez na história das espécies, o desaparecimento em massa de várias formas de vida não não será resultado de eventos físicos, de perturbações nos ecossistemas derivadas de fenômenos de causa natural. Diferentemente das cinco grandes extinções que ocorreram nos últimos 420 milhões de anos, sendo a mais famosa a dos dinossauros 65 milhões de anos atrás, a sexta será essencialmente creditada na conta de um agente biológico: o homem. “Somos o equivalente atual do meteoro que matou os dinossauros”, comparou o biólogo , que é dos curadores do Museu de História Natural de Nova York (Pesquisa FAPESP Edição Online - 11/03/2008) A sexta extinção – um tema, sem dúvida, sujeito a controvérsias – entrou em sua segunda fase há 10 mil anos, quando o ser humano, após ter se instalado nos principais pontos do planeta Terra, desenvolveu a agricultura, tornou-se sedentário e mudou drasticamente sua relação com os biomas. Em vez de ser apenas um caçador-coletor, dependente do que a natureza lhe oferecia, o ser humano começou a plantar os alimentos de que necessitava. “Saímos dos ecossistemas locais e passamos a não depender deles para comer”, segundo Eldredge (PIVETTA, 2008), “Começamos a produzir nosso alimento. Não comemos mais frutas das árvores. Um dos principais efeitos do sucesso desse modelo é o aumento da população do planeta. Hoje há mais de 6 bilhões de pessoas na Terra. Mas quantos indivíduos o planeta pode suportar? Depende do padrão de vida que escolhermos. Depende das nossas pegadas ecológicas.Se pensarmos num padrão de classe média, mais ou menos confortável, a Terra tem condições de suportar apenas 2 bilhões de pessoas.”.Essas afirmações de Eldredge podem nos tirar o sono, mas para ele, o eventual desaparecimento UAB| Ciências Naturais e Matemática | As Ciências Naturais na Contemporaneidade |
87
do Homo sapiens não deverá representar literalmente o fim do mundo. Alguma forma de vida, como sempre, escaparia à hipotética sexta extinção em massa e sobreviveria (Marcos Pivetta.. Niles Eldredge. Pesquisa FAPESP Online, abril.08. http://www. revistapesquisa.fapesp.br/index.php?art=3507&bd=1&pg=1&lg. Durante a segunda metade do século XIX, como extensão das atividades dos naturalistas, os ecólogos estudaram as necessidades ambientais exatas dos indivíduos de uma dada espécie: sua tolerância ao clima, seu ciclo de vida, os recursos necessários e os fatores que controlam a sobrevivência (inimigos, competidores, doenças). Eles estudaram as adaptações que determinado indivíduo de uma espécie deve ter para viver com sucesso no ambiente específico da espécie. Tais adaptações incluem a hibernação, a migração, a atividade noturna e um conjunto de outros mecanismos fisiológicos e comportamentos que permitem aos organismos sobreviver e se reproduzir sob condições às vezes extremas, desde o Ártico até os desertos. Do ponto de vista da ecologia do indivíduo, o principal papel do ambiente é o de exercer uma contínua seleção estabilizadora, que elimina todos os indivíduos que transgrediram o nível ótimo de variação permissível. Isso é exatamente o que um darwinista esperaria. É o ambiente, tanto o biótico quanto o físico, que desempenha o papel fundamental na seleção natural. Cada estrutura de um organismo, cada uma de suas propriedades fisiológicas, todo o seu comportamento e, com efeito, todo e qualquer componente de seu fenótipo e genótipo evoluíram para uma relação ótima do organismo com o seu ambiente. Assim, como acabamos de ver, o meio ambiente não se refere apenas às áreas de preservação e lugares paradisíacos, mas sim a tudo que nos cerca: água, ar, solo, flora, fauna, microbiota, ser humano, etc. Cada um desses fatores está sofrendo algum tipo de degradação hoje. Na Contemporaneidade os problemas ambientais deixam de ter caráter local e passam a ter amplitude global, fazendo parte das políticas públicas, empresas e sociedade civil. O modelo de desenvolvimento atual deve investir em ferramentas para analisar e gerir de forma adequada os serviços ambientais. Hoje observamos que muitos tomadores de decisões levem em consideração, de forma prioritária, os aspectos econômicos. Entendemos que, além da imposição legal (legislação ambiental) como meio de alcance de melhorias ambientais, existem ainda os aspectos éticos, ecológicos e econômicos a ele relacionados. Podem-se entender os aspectos éticos como medida do grau de responsabilidade do ser humano com o ambiente. A preocupação com o planeta trazida aqui é hoje vista como questão si ne qua non, para a sobrevivência humana. Já a compreensão dos aspectos ecológicos nos permite escolher as melhores alternativas para minimizar as influências negativas das diversas atividades antrópicas. Os aspectos econômicos priorizam as vantagens competitivas de uma política ambiental que deve ser responsável, como a obtenção de certificação ambiental ou mesmo os menores custos das ações preventivas em relação às ações corretivas dos danos ambientais. Nesse ponto, as técnicas preventivas, como os estudos de vulnerabilidade ambiental vêm ganhando força como ferramentas que permitem planejamentos ambientais mais adequados, eficientes e baratos. 88 | Ciências Naturais e Matemática | UAB
A globalização e as mega-fusões parecem tornar mais evidentes a exploração e as desigualdades. Simultaneamente cresce o descontentamento das populações exploradas que tendem a se mobilizar para mudar esse panorama de exclusão. Exemplos contemporâneos no Brasil são os movimentos organizados, locais, regionais e nacionais (com destaque para o Movimento dos Sem-Terra), agrupados por interesses comuns e até mesmo por faixas etárias, como os grupos da terceira idade e os aposentados. Dentre as reivindicações explícitas de todos esses grupos, a de uma educação mais atuante, forte, comprometida com resultados em favor das maiorias está sempre presente (ANGOTTI; AUTH, 2001). As atividades humanas levaram o planeta à beira de uma onda maciça de extinção de várias espécies, ameaçando ainda mais nosso bem-estar. Os seres humanos vêm causando alterações sem precedentes desde a segunda revolução industrial nos ecossistemas para atender a crescentes demandas por alimentos, água, fibras e energia. Essa pressão exercida reflete a necessidade de desenvolvimento de novas técnicas de conservação, prevenção e mitigação ambientais. Tais técnicas visam reduzir os níveis de degradação ambiental recentemente observados como a contaminação das coleções d’água e dos solos, a poluição atmosférica e a substituição indiscriminada da cobertura vegetal nativa, com a conseqüente redução dos habitats silvestres, entre outras formas de agressão ao meio ambiente. Em 2000, o então Secretário-Geral das Nações Unidas, Kofi Annan, solicitou à Assembléia Geral das Nações Unidas uma avaliação ecossistêmica visando uma discussão do papel das Nações Unidas no Século XXI. Assim, este estudo conhecido como Ava“O homem é o equivalente liação Ecossistêmica do Milênio- doravante chamada de AEM, atual do meteoro que matou envolveu mais de 1360 especialistas de 95 países e teve por objeos dinossauros !” tivo avaliar as conseqüências que as mudanças nos ecossistemas trazem para o bem-estar humano e as bases científicas das ações Niles Eldredge (2008) necessárias para melhorar a preservação e uso sustentável desses ecossistemas e sua contribuição ao bem-estar humano. O relatório apresenta a síntese e a integração dos resultados dos quatro Grupos de Trabalho da AEM (Condições e Tendências, Cenários, Respostas e Avaliações Subglobais). Todos os seres vivos, humanos ou não, dependem da natureza e dos serviços providos pelos ecossistemas para terem condições a uma vida saudável e segura. É incontestável que as alterações ajudaram a melhorar a vida de bilhões de pessoas, mas ao mesmo tempo, enfraqueceram a capacidade da natureza de prover outros serviços fundamentais, como a purificação do ar e da água, proteção contra catástrofes naturais e remédios naturais. Dentre os problemas mais sérios identificados pela AEM relacionam-se as condições drásticas de várias espécies de peixes; a alta vulnerabilidade de dois bilhões de pessoas vivendo em regiões secas de perder serviços providos pelos ecossistemas, como o acesso à água; e a crescente ameaça aos ecossistemas das mudanças climáticas e poluição de seus nutrientes.
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
89
Os serviços ambientais estão classificados como: • serviços de provisão, incluindo alimentos, água, madeira e fibras; • serviços reguladores, que afetam climas, inundações, doenças, resíduos e a qualidade da água; • serviços culturais, que fornecem benefícios recreacionais, estéticos e espirituais; • serviços de suporte, tais como formação do solo, fotossíntese e ciclo de nutrientes.
SERVIÇOS AMBIENTAIS G a r a n t i n d o a V i d a n a Te r r a
SERVIÇOS DE PROVISÃO
SERVIÇOS REGULADORES
SERVIÇOS CULTURAIS
SERVIÇOS DE SUPORTE
A espécie humana, embora protegida de mudanças ambientais pela cultura e pela tecnologia, depende fundamentalmente do fluxo dos serviços dos ecossistemas. No dia 22.08.2008, foi divulgado o Relatório do estudo elaborado pela organização Care International e pelo Escritório de Ajuda Humanitária das Nações Unidas (Ocha), que classifica Índia, Paquistão, Afeganistão e Indonésia como países extremamente sensíveis à mudança climática, por sua vulnerabilidade frente a desastres vinculados a fenômenos, como secas extremas, inundações e ciclones. A previsão é de que as pressões sobre os ecossistemas aumentarão em uma escala global nas próximas décadas
90 | Ciências Naturais e Matemática | UAB
se a atitude e as ações humanas não mudarem. Este relatório repete a previsão de outras avaliações científicas ao assinalar PERGUNTA-SE que haverá um aumento da intensidade, freqüência, duração Quais são as cone alcance de desastres relacionados com o clima. Todavia, o dições e tendências atuRelatório também nos dá a esperança ao assinalar que estes ais dos ecossistemas, perigos não derivarão necessariamente em desastres, caso os dos serviços ambientais líderes mundiais atuem agora, ou seja, esforços coordenados de e do bem-estar humano todos os setores governamentais, empresariais e institucionais de acordo com a AVAserão necessários para melhor proteção do capital natural. A LIAÇÃO ECOSSISprodutividade dos ecossistemas depende das escolhas corretas TÊMICA DO MILÊem termos de políticas de investimentos, comércio, subsídios, NIO? impostos e regulamentação. Giuliani (1998) parte da “premissa de que duas das crises, Envie para o tutor sua atualmente muito discutidas, estão intimamente associadas: de avaliação um lado, a crise dos paradigmas das ciências, em particular das ciências humanas, decorrente de processos de mudanças profundas e rápidas na atual sociedade industrial-capitalista; de outro lado, a crise nas relações entre as formas de organização social da produção e do consumo e os ambientes físico-naturais da vida societária ou, dito de maneira mais geral, a crise nas relações homem-natureza”. Se voltarmos aos fascículos 1, 2 e 3 do módulo I de nosso curso, poderemos resumir a relação humana com o ambiente como bem descreveu Giuliani (2000): “As grandes filosofias sempre tiveram princípios de interpretação da natureza, e desde os gregos e os romanos são escritas as histórias dos animais e das plantas. Tais histórias permaneceram até o século XVII como visões objetivadas da natureza, fundadas em cosmologias religiosas. Na Idade Média, conhecer a natureza significava, no fundo, conhecer Deus, que a havia criado. Nos séculos XVI e XVII os homens estavam em luta permanente com a natureza - as montanhas, as florestas, a natureza selvagem provocavam imagens pavorosas; seus habitantes eram vistos como perigosos e bárbaros; faziam-se leis para combater os pássaros predadores, os lobos e todos os animais que competiam com os homens pelos recursos da terra. Até o século XVIII o campo era sinônimo de ignorância e rusticidade, enquanto a cidade era o lugar das boas maneiras e da civilização, embora fosse também o lugar da libertinagem e da corrupção. Terras não cultivadas significava desperdício e presença de homens incultos; as ervas não cultivadas eram daninhas, as flores silvestres contaminavam os jardins. Uma paisagem habitada, cultivada, domesticada, ao contrário, era tida como bonita. As áreas de cultivo possuíam formas regulares e geométricas, seja para aproveitar o espaço, seja para mostrar o controle do homem sobre a natureza. Nesta ordem estava a essência da beleza e essa foi a maneira de indicar a separação entre cultura e natureza”. Thomas, 1988. UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
91
A mudança da postura humana com relação à natureza teve início a partir da década de 60, do séc. XX. Um marco importante no desenvolvimento das ciências ambientais foi o lançamento do livro “Primavera Silenciosa” de Rachel Carson, que mostrava os efeitos negativos do uso indiscriminado de insumos agrícolas. Desde então, a preocupação de promover a mudança de comportamento no relacionamento entre o homem e a natureza começa a ser observado. O principal objetivo passou a ser o alcance do equilíbrio entre os interesses econômicos e conservacionistas, levando a melhorias na qualidade de vida da população, dando origem aos processos que, em conjunto, futuramente seriam denominados de desenvolvimento sustentável. Tal desenvolvimento pode ser entendido como modelo que visa atender às necessidades do presente sem comprometer a possibilidade de gerações futuras atenderem às Rachel Carson (1907-1964) suas próprias necessidades. No Brasil, o início da influência do homem sobre o meio ambiente pode ser notado a partir da chegada dos portugueses. Antes da ocupação do território brasileiro, os indígenas que aqui habitavam (estimados em 8 milhões) sobreviviam basicamente da exploração de recursos naturais, por isso, utilizavam-nos de forma sustentável (VIEIRA e RIBEIRO, 1999). Após a exterminação de grande parte dos índios pelos portugueses, o número de habitantes do Brasil se reduziu a três milhões no início do século XIX. Foi nesse período que começaram as intensas devastações do nosso território. À época, o homem se baseava em crenças religiosas que pregavam que os recursos naturais eram infindáveis, então, o término de uma exploração se dava com a extenuação dos recursos do local. Infelizmente, essa cultura tem passado de geração em geração e, até os dias de hoje, ainda predomina (WALLAVER, 2000). O crescimento rápido e descontrolado da cidade acabou por gerar uma séria crise, onde os sistemas urbanos de abastecimento de água, energia elétrica, esgotos, entre outros, já praticamente se encontravam inadequados desde as décadas de 1920-30. Para Meirelles (2000), foi só a partir do século XIX que as ciências passaram a olhar e orientar as ações sociais sobre os espaços, mas, sempre ligadas ao modelo capitalista. Claro que não se pode negar que a ciência, as técnicas e tecnologias vêm desempenhando papéis significativos na reprodução do modelo de desenvolvimento, tanto em nível de produção de mercadorias, quanto como parte fundamental na constituição das relações sociais. O modelo de desenvolvimento industrial e agrícola implantado após a revolução industrial no século XIX promoveu não só o aumento da extração dos recursos naturais, como também tem emitido cada vez mais produtos de alta sofisticação, cuja
92 | Ciências Naturais e Matemática | UAB
composição dificulta sua degradação natural, destacando-se os xenobiontes. Muitos produtos recalcitrantes, ao reagirem com substâncias ácidas ou fogo, liberam compostos tóxicos que podem até mesmo ser letais para os seres vivos, além de causarem lenta e contínua destruição do ambiente. Outros são biacumulados e magnificados na cadeia alimentar. Pode-se concluir, portanto, que a evolução da população e a forte industrialização aumentaram significativamente a geração de resíduos das mais diversas naturezas, biodegradáveis, não biodegradáveis, recalcitrantes ou xenobióticos, que determinaram um processo contínuo de deterioração ambiental com sérias implicações na qualidade de vida do ser humano. A transformação da agricultura brasileira acontece a partir de meados da década de 60, quando se insere no contexto da modernização e desenvolvimento do país introduzido pelo Governo de Juscelino Kubitschek através do Plano de Metas. Inicialmente, foi nas regiões do sul e sudeste do país que a agricultura se desenvolveu de forma intensiva. Entretanto, devido ao esgotamento de terras disponíveis para a ocupação da agropecuária e à necessidade de aumento da produtividade agrícola, houve o direcionamento da produção para novas áreas e a conseqüente expansão agrícola, como aconteceu com o estado de Mato Grosso, cuja extensa área de cerrado tornou-se estratégica na incorporação de novas áreas, tanto pela sua posição geográfica, como por suas características ambientais físicas, químicas, biológicas e climáticas, que propiciavam a expansão da produção agropecuária nos padrões da nova agricultura moderna, baseada no pacote tecnológico da “Revolução Verde”, forte apelo para o desenvolvimento econômico. A ocupação da área central do país, a partir dos anos 30, intensificou-se devido ao desenvolvimento do setor industrial aliado ao processo de urbanização com o conseqüente crescimento da demanda de alimentos e matérias primas. Com a implantação do cultivo de grãos, intensificou-se o uso dos insumos agrícolas, aliado às tecnologias desenvolvidas, especialmente às áreas de Cerrado, tais como: o uso de máquinas e sementes selecionadas, a correção das deficiências químicas dos solos, além da utilização intensa dos herbicidas e inseticidas, agrotóxicos organofosforados e carbamatos (SCHNEIDER, 1996 apud SILVA, 2000). A vulnerabilidade da agricultura com relação à ocorrência de doenças de plantas é assunto estratégico para o Brasil e as mudanças climáticas certamente vão alterar o atual cenário dos problemas fitossanitários da agricultura no País. A cultura do café será uma das mais afetadas com o aquecimento global. A produção atual, que é de 30 milhões de sacas, poderá cair em 2100, para 2,4 milhões de sacas, um prejuízo em torno de US$ 375 milhões. O aquecimento global é uma das alterações climáticas que provoca elevado impacto em culturas como o feijão, soja, algodão, arroz, milho e canade-açúcar, simulando aumentos na temperatura de 1 a 5,8 graus Celsius, conforme estudo da Embrapa - Empresa Brasileira de Pesquisa Agropecuária (Embrapa), vinculada ao Ministério da Agricultura, Pecuária e Abastecimento (MAPA), divulgado em abril deste ano. Em todos os casos citados, a pesquisa verificou uma redução considerável de áreas plantadas em todo o Brasil. Contrariamente a essa previsão, segundo dados do Instituto Brasileiro de GeoUAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
93
grafia e Estatística (IBGE, 2008), o Brasil nunca produziu tantos alimentos como na safra atual de grãos (2007/08), que acaba de ser concluída pela Companhia Nacional de Abastecimento (Conab). Os números do 12º levantamento confirmam uma colheita de 143,87 milhões de toneladas, ou 9,2% maior que a do ciclo anterior. Bons números também estão presentes na oitava estimativa da safra nacional de cereais, leguminosas e oleaginosas. Todavia, em se tratando de Mato Grosso, estado preponderantemente agrícola, medidas urgentes precisam ser tomadas sob pena de falência econômica. Existem diferentes soluções que podem ser tomadas para evitar essas conseqüências trágicas num futuro bem próximo. Uma delas seria a mitigação, que consiste em sistemas mais eficientes e limpos, como a redução de queimadas; substituição de combustíveis fósseis por biocombustíveis (cana-de-açúcar, soja, mamona, feijão, dendê; florestamento e reflorestamento; energias alternativas, dentre outros). O melhoramento genético é outra alternativa ao nosso alcance, pois é possível desenvolver variedades resistentes a altas temperaturas e à seca, além da introdução de novas culturas pelas empresas ligadas ao setor.
Como
p o d e m o s s a b e r s e u m a e m p r e s a é a m b i e n ta l m e n t e
r e s p o n s áv e l , c o m p r o m e t i d a c o m a s u s t e n ta b i l i d a d e d o m e i o ?
O principal deles é a certificação ambiental, sendo a mundialmente conhecida série ISO 14000 a mais comumente encontrada. Assim sendo, nos cabe observar a procedência dos produtos consumidos, dando preferência àqueles que, em sua produção, incorporem padrão de qualidade ambiental. ISO 14000 SGA - Diretrizes, Princípios e Elementos Adicionais aos Componentes Centrais ISO 14010/11/12 Auditoria Ambiental
ISO 14031 Avaliação de Desempenho Ambiental
Relação entre alguns documentos da série ISO 14000
94 | Ciências Naturais e Matemática | UAB
Os questionamentos sobre a intervenção dos seres humanos no ambiente e seus impactos se tornaram bem expressivos a partir da década de 60, liderados por diversos movimentos de contestação, como o da contra-cultura e o ecologista/ambientalista. Na década de 70, um passo decisivo foi a Conferência de Estocolmo, em 1972, com o lançamento das “bases de uma legislação internacional do meio ambiente”, versando desde a questão das armas nucleares até a exploração dos recursos naturais (ANGOTTI; AUTH, 2001). Capra (1982: 19) diz que: “[...] As últimas décadas de nosso século vêm registrando um estado de profunda crise mundial e é uma crise complexa, multidimensional, cujas facetas afetam todos os aspectos de nossa vida – a saúde e modo de vida, a qualidade do meio ambiente e das relações sociais, da economia, tecnológica e política. [...]” É uma crise de dimensões intelectuais, morais e espirituais; uma crise de escala e premência sem precedentes em toda história da humanidade. Pela primeira vez, temos que nos defrontar com a real ameaça da existência da raça humana e de toda a vida no planeta.
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
95
A Saú d e
e o
Ser Humano
A
Ciência da Saúde avançou com enorme velocidade e a especialização foi um salto que muitas vezes muitos dos pesquisadores já haviam previsto assim como vários acontecimentos referentes à saúde; para isso, é preciso conhecer os perfis das personagens da ciência que, segundo Simmons (2002), influenciaram na construção do mundo contemporâneo, de maneira penetrante e duradoura. Muito deles idealizaram teorias na área da genética, descobriram a teoria da hereditariedade que teve uma base celular e, conseqüentemente, a molecular. O retorno de velhas doenças transmissíveis, ou não, quase esquecidas no cenário sanitário do Brasil contemporâneo, é uma mudança no quadro das moléstias consideradas como problemas sanitários do país nas últimas décadas do século XX, seja na forma de grandes epidemias, como a cólera, a dengue e a malária, ou de endemias, como a tuberculose e a hanseníase entre outras. Garrett (1995) explica que existe uma luta de vida e de morte entre os homens e os micróbios e, nesse terreno, os pesquisadores vão a campo estudar os ameaçados pela contaminação e morte. Avicena (Ibn Sina), no século XI, redigiu, entre outras obras de relevante interesse, o Cânon de medicinas, paradigma da ciência biológica medieval. Na Era Contemporânea, o mundo ocidental construiu e vive grande avanço científico. No plano da saúde, esta evolução repercutiu tanto do ponto de vista da medicina clínica como, principalmente, após a “Revolução Pasteuriana”, na microbiologia, na patologia, na parasitologia, na fisiologia, na genética, e na medicina preventiva. Conseqüentemente, as máquinas, equipamentos e instalações foram se tornando cada vez mais potentes e sendo incorporadas progressivamente, conforme visto quando abordamos a Biotecnologia. Muitos pesquisadores com suas idéias inovadoras foram marcantes neste período contemporâneo. Só se pode falar em modernização da saúde a partir dos trabalhos de Louis Pasteur (1822-1895) e da criação do Instituto Pasteur, em 1888, por ele construído com os inúmeros prêmios recebidos, AVICENA e tendo como fonte de financiamento a rede de conhecimentos que Louis Pasteur mantinha com as municipalidades, os industriais, os banqueiros, os Abu–Ali Al–Husayn Ibn Abfilantropos, entre outros, sobretudo após a descoberta do soro antidiftérico dullah I bn Sina (980 - 1037) UAB| Ciências Naturais e Matemática | As Ciências Naturais na Contemporaneidade |
97
(1894). A medicina pasteuriana era considerada nova forma de combate à pobreza, por meio primeiramente do financiamento da produção de soros (ex.:anti-rábico, em 1885) e, depois, da distribuição deles pelos Escritórios Assistenciais (SIMMONS, 2002). Com a possibilidade de prevenção das doenças aberta pelas descobertas de Pasteur, a pesquisa médica passa a ser considerada, pelos filantropos, uma forma de terapêutica em potencial (SANGLARD, 2007).
A
p r i m e i r a vac i n a ç ã o
A grande maioria de nós que usufruímos dos confortos da vida moderna certamente terá dificuldades para imaginar a presença em nosso meio de doenças como a tuberculose, uma enfermidade associada a um período histórico anterior ao desenvolvimento de boa parte dos medicamentos. Duas bactérias podem causar a tuberculose em seres humanos: a Mycobacterium bovis, presente no gado, pode ser transmitida pelo consumo de leite não pasteurizado. Porém, mais comumente, a tuberculose é causada por outro bacilo conhecido como Mycobacterium tuberculosis ou bacilo de Koch. Essa bactéria foi descrita em 1882 pelo méA criança doente, tela de 1885 dico alemão Robert Koch (1843-1910), que, por essa descodo norueguês Edvard Munch berta, recebeu o Nobel de medicina em 1905. Koch também (1863-1944), retrata sua irmã desenvolveu um teste para identificar a ocorrência de tuberSophie, que morrera de tubercu- culose em 1890 (teste de tuberculina) que ainda é empregado, lose aos 15 anos. com adaptações, para a detecção da doença. A tuberculose só foi identificada como doença única no início século 19, sendo batizada em 1839 por um professor alemão de medicina chamado Johann Lukas Schönlein (1793-1864). Esses primeiros estudos demonstraram que a tuberculose podia ser transmitida diretamente de uma pessoa para outra pela inalação de gotículas provenientes da tosse de pessoas contaminadas. O bacilo de Koch infecta centenas de milhões de indivíduos. Estimativas da Organização Mundial da Saúde (OMS) indicam que atualmente cerca de um terço da população mundial (2 bilhões de pessoas) talvez estejam hospedando – a maioria sem saber – esse germe em seus organismos. Entre as vítimas notórias dessa patologia podemos citar vários escritores, poetas e pintores como Noel Rosa (1910-1937), José de Alencar (1829-1877), Álvares de Azevedo (1831-1852) e Augusto dos Anjos (1884-1914) que, por sua vida boêmia, estavam mais sujeitos aos efeitos devastadores da doença.
98 | Ciências Naturais e Matemática | UAB
O primeiro êxito no combate à doença foi alcançado alguns anos depois das pesquisas pioneiras de Koch e Schönlein, graças ao trabalho dos médicos franceses Albert Calmette (1861-1933) e Camille Guérin (1872-1961), que desenvolveram acidentalmente uma vacina contra a tuberculose humana a partir de linhagens atenuadas da tuberculose bovina. Essa vacina, conhecida como BCG (Bacilo de Calmette e Guérin) foi primeiramente testada em 1921 em um recém-nascido francês e é hoje amplamente empregada como forma Sir Alexander F leming de combate à tuberculose, apesar de ser efetiva em apenas cerca de 5% dos (1881 - 1955) casos. Na década de 1980, Robert Koch investigou métodos para fazer crescer culturas puras de microorganismos, utilizando placas de Petri contendo agar e nutrientes específicos. A disciplina da bacteriologia começava assim a tomar forma. Introduziu também aquilo a que se viria a chamar de postulados de Koch, permitindo através da sua utilização, à determinação concreta que um microorganismo provoca uma doença específica. Alexander Fleming (1881-1979); Ernst Chaim (1906-1976) e Howard Florey (1898-1968) mudaram o curso da história da medicina, dividiram o Prêmio Nobel de Medicina em 1945, pela descoberta do primeiro antibiótico capazes de prevenir e tratar infecções, aumentando a esperança de vida do Homem (SIMMONS, 2002). Durante a Segunda Guerra Mundial, a penicilina foi testada e tornou-se capaz de prevenir e tratar as infecções e teve início o programa de pesquisa e a penicilina começou a ser produzida em grande escala, na Inglaterra e Estados Unidos, dando-se início à “era dos antibióticos”.
http://cienciahoje.uol.com.br/109805 Acesse e leia o texto
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
99
Os Brasileiros
ta m b é m f i z e r a m
( fa z e m )
p e s q u i s a s d e p o n ta .
No Brasil vários pesquisadores contribuíram com uma rica produção; o trabalho de Oswaldo Cruz (1872-1917), médico sanitarista, teve destaque no estudo de moléstias tropicais e foi fundador da medicina experimental no Brasil. Na transição dos séculos XIX para o século XX, ocorreram profundas mudanças nas áreas de saneamento; para melhorar as condições de higiene local e para combater a peste, foram removidos lixos, derrubadas casas antigas e despejo dos moradores. Esta operação ficou conhecida como o “bota-abaixo. Mais tarde veio a preocupação com a febre amarela, medidas firmes foram tomadas para obter êxito contra os mosquitos transmissores da febre amarela. Outra missão para Oswaldo Cruz foi o convite que recebeu para coordenar a campanha contra a varíola; foi instituída a lei de vacinação obrigatória, novamente foi alvo das mais pesadas críticas, pela população humilhada peOswaldo Cruz los governantes autoritários: a imprensa impulsionou o movimento que ficou (1872 - 1917) conhecido como a Revolta da Vacina. Carlos Ribeiro Justiniano das Chagas (18791934), médico sanitarista, bacteriologista e cientista dedicou-se aos serviços públicos do Brasil. O sucesso que obteve na campanha antimalárica bem sucedida tornou-o conhecido e respeitado. Desde cedo seu foco sempre foi a medicina; concluiu o curso escrevendo uma tese com o tema “Hematologia do Paludismo”, em 1903, o que o colocou pela primeira vez em contato com Oswaldo Cruz. Iniciou sua carreira nas profilaxias contra a malária. Este trabalho serviu de base para a investigação no combate à moléstia no mundo inteiro. Foi admitido Carlos Ribeiro Justiniano das Chagas (1879-1934) em 1906 no Instituto Osvaldo Cruz em Manguinhos e, no ano seguinte, encarregado por Oswaldo Cruz viajou com Belisário Penna, para Lassance (MG), para tentar erradicar a malária no acampamento dos trabalhadores que prestavam serviço na Estrada Ferroviária Central do Brasil. Chegando, adaptou o laboratório em um vagão de trem e constatou uma epidemia sem causa conhecida. Deparou com um grande número de insetos hematófagos, barbeiros (Triatoma megista) alojados nas paredes das habitações de pau-a-pique; ao examinar, encontrou neles os parasitos (protozoários) que mais tarde chamou-o de Trypanosoma cruzi em homenagem a Oswaldo Cruz. Na ocasião das investigações já havia constatado as alterações patológicas ao analisar o sangue em um ser humano e detectou a presença do parasito. 100 | Ciências Naturais e Matemática | UAB
Em 1909 concluiu as pesquisas destinadas a desvendar a tripanossomíase, posteriormente a doença recebeu o nome de “Mal de Chagas”, numa justa homenagem ao grande bacteriologista. É a única doença que um pesquisador estabeleceu a etiologia (causa da doença), o modo de transmissão, a patologia (doença) e a transmissão. Com estas descobertas recebeu reconhecimento internacional. Em 1911, recebeu o prêmio Schaudinn, conferido por um júri internacional ao melhor trabalho sobre Protozoologia e Microbiologia como homenagem do Instituto de Doenças Tropicais de Hamburgo, na Alemanha; ganhou título de Doctor Honoris Causa das Universidades de Bruxelas, Paris, Buenos Aires, Harvard, Arequipa, Lima, Minas Gerais e São Paulo. Emílio Marcondes Ribas (1862-1925), médico sanitarista que trabalhou no combate a epidemias e endemias, tendo criado o Instituto Butantan e trabalhou junto com Osvaldo Cruz, Adolfo Lutz e Vital Brasil, é pioneiro na Medicina preventiva e curativa no Brasil. Teve uma atuação arrojada liderando uma campanha em favor da higiene, removendo lixos das ruas, pressionou as autoridades a canalizar os córregos. Ribas realizou importantes experiências sobre a febre amarela, Ribas chegou à conclusão de que o mal não se transmitia diretamente de uma pessoa doente para outra sadia, e sim que devia existir, no caso, um transmissor, o mosquito Aedes aegypti. Sofreu críticas ferrenhas e para comprovar sua Emílio Marcondes Ribas teoria da transmissão, deixou-se picar pelo mosquito portador (1862-1925) do vírus e ficou um bom tempo de cama, com febre amarela. Por meio da Lei 4.903 de 19/12/1985, do projeto do Deputado Geraldo José Rodrigues Alckmin Filho, foi instituído pelo Governo Franco Montoro a Semana Estadual da Higiene e Saúde Pública e Ocupacional que deverá ser comemorada anualmente dia 18 de Outubro, Dia do Médico, e que tem como patrono o “Dr. Emílio Ribas” precursor do sanitarismo no Brasil. Vital Brazil Mineiro da Campanha (1865-1950), doutor em Medicina e pesquisador, Brazil sempre foi um entusiasta na área experimental. Em 1901, quando o Presidente do Estado, Rodrigues Alves convidou-o para criar o Instituto Soroterápico, para produzir soros e vacinas que combatessem as epidemias que vinham assolando a população, representando o início das pesquisas no Brasil, trabalhou junto com Oswaldo Cruz, Adolfo Lutz e Emílio Ribas no combate à peste bubônica, ao tifo, à varíola e à febre amarela. Os estudos com animais peçonhentos levaram à publicação do livro “Defesa contra Ofidismo”, em 1911. Vital Brazil Mineiro da Campanha (1865-1950)
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
101
Adolfo Lutz (1855-1940), médico epidemiologista e cientista, especializou-se em doenças infecciosas e em medicina tropical. Em 1890 quando a cidade de Santos passou por uma epidemia de peste bubônica, Lutz foi trabalhar com Emílio Ribas e Vital Brazil. Mais tarde, tornou-se amigo de Brazil, e iniciaram uma parceria nos estudos sobre os antídotos para picada de cobras, contribuindo para criação de um novo instituto em São Paulo, conhecido como Instituto Butantan. Em sua investigação médica atuou no combate às doenças transmissíveis como malária, hanseníase, leishmaniose, esquistossomose, tifo e febre amarela, que maltrataram a população no início do século XX. Teve uma trajetória como pesquisador de grande reconhecimento quando se dedicou à pesquisa sobre a hanseníase, tornando-se uma autoridade internacional nesta doença. Destacou-se também na Entomologia Adolfo Lutz (1855-1940) Médica (estudo dos insetos); descreveu várias espécies de insetos, como o Anopheles lutzii (uma espécie de mosquito); além de descrever sobre alguns cordados na área dos anfíbios. A teoria miasmática da doença foi ultrapassada pela nova teoria germinal da doença. O método antisséptico tornou-se prática usual na atividade médica. Todos estes e outros homens merecem destaque especial seja pelas idéias inovadoras, seja por sua liderança no encaminhamento das discussões e pesquisas, seja pela sua vida e realizações que servem de modelo aos jovens cientistas. Muitos se debruçam sobre os problemas que a ciência coloca e tentam resolvê-los com os meios técnicos da sua época, opondo-se muitas vezes aos pontos de vista dos seus antecessores e contemporâneos, promovendo idéias novas e geradoras de descobertas luminosas (http://biogeonorte.blogspot.com/2007/12/histria-da-biologia.html) A era Contemporânea consiste em um marco na História da Biologia e ainda não revelamos a totalidade dos processos vitais. Hoje, a Biologia tem papel fundamental para o mundo científico; com o uso de computadores e algumas inovações experimentais, o homem chegou à descoberta da estrutura do DNA, desvendando princípios do funcionamento básico da vida. A biotecnologia com toda sua urgência têm trazido de volta a taxonomia, mas com outra importância, quiçá com certo protagonismo. Aparecem novas espécies com as quais é preciso trabalhar de forma urgente, e o biólogo molecular deve saber com certeza qual organismo está sendo manipulado. E, assim, se produz uma simbiose e um aporte de outras especialidades; a taxonomia que invade os campos do RNA utiliza as técnicas de campo pulsado para separar os cromossomos, redefine critérios com respeito a espécies e subespécies em extinção que são necessárias conservar para o bem da humanidade. Enfim, o conjunto das ciências naturais (matemática, biologia, física e química), que são básicas, tem tido períodos de luz e sombra para a compreensão do desenvolvimento histórico da espécie humana, visando, sobretudo, a melhoria da sua qualidade de vida e dependendo, algumas vezes, de genialidades (vide História dos maiores cientistas em Simmons, 2002) que têm contribuído para os saltos ou avanços qualitativos e significativos da Ciência e Tecnologia.
102 | Ciências Naturais e Matemática | UAB
Resumindo
um pouquinho...
A
o longo dos quatro fascículos de História e Filosofia da Ciência, adotamos um critério de divisão que não coincide com aquela utilizada pelos historiadores ou mesmo por algumas comunidades de cientistas. O critério adotado na divisão utilizada foi o estabelecido pela filosofia que embasou a Ciência numa dada época. Tal divisão pode ser assim esquematizada:
Ciência
P r i n c i pa i s
ca r ac t e r í s t i ca s
Período
P r i n c i pa i s tendências f i l o s ó f i ca s
Antiga
Ciência unificada. Crença em objetos ideais e na experiência imediata.
Do surgimento da humanidade até o ano 0.
Idealismo x Empirismo
Medieval
Pensamento abstrato guiado pela fé, aliado à experiência passada de geração em geração pelos artesãos. Criação da Universidade.
0 - 1500 d.C.
Experiência prática dos artesãos + Pensamento abstrato da igreja
Moderna
Crença no poder absoluto das leis deterministas da natureza. Ciência guiada pela Razão. Separação entre Ciência e Religião. Fragmentação do conhecimento humano em áreas e subáreas. A verdade é única e objetiva.
1500 – 1900 d.C.
Racionalismo + Liberalismo
Contemporânea
Incorporação da incerteza na Ciência. Pensamento probabilístico. A realidade pode não ser objetiva.
1900 d.C. - hoje
Não-Racionalismo, Não-Realismo, Não-Deteminismo
UAB| Ciências Naturais e Matemática | As Ciências Naturais na Contemporaneidade |
103
R e f e r ê n c i a s B i b l i o g r á f i ca s ANDREY, M.A.P.A. et al. Para compreender a ciência: uma perspectiva histórica. Rio de Janeiro: Garamond, São Paulo: EDUC, 2004. ANGOTTI, J. A. P., AUTH, M. A. Ciência e Tecnologia: Implicações sociais e o papel da Educação. Ciência & Educação, v.7, n.1, p.15-27, 2001. BOHR, N. Física atômica e conhecimento humano. Rio de Janeiro: Ark Paperback, 1995. BORN, Max. Problemas da Física Moderna. Perspectiva. São Paulo, 2000. CAPRA, F. O Ponto de Mutação. São Paulo: Editora Cultrix, 1982. CARUSO, Francisco e OGURI, Vitor. Física Moderna. Rio de Janeiro: Ed. Campos, 2006. CHALMERS, A. F. O que é Ciência afinal? Brasília: Editora Brasiliense, 1993. CHASSOT, A. I. A Ciência através dos tempos. 2 ed. São Paulo: MODERNA, 2004. CULOTTA, E. PENNISI, E. Evolution in action. Science. Washington, DC, v. 310, n. 5.756, p. 1878-1879, 2005. DARWIN, C. R. and WALLACE, A. R. 1858. “On the Tendency of Species to form Varieties; and on the Perpetuation of Varieties and Species by Natural Means of Selection”. Journal of the Proceedings of the Linnean Society of London. Zoology 3: 46-50 DE COCK, K. M. et al. Shadow on the continent: public health and HIV/AIDS in Africa in the 21st century. The Lancet, London, v. 360, p. 67-72, 2002. FEYNMAN, Richard. Física em 12 Lições. Rio de Janeiro: Ed. Ediouro, 2006 FINKE, H. M., “Eduard Strasburger - eine biographische Skizze”. In “100 Jahre Strasburgers Lehrbuch der Botanik für Hochschulen 1894-1994“. Stuttgart: Gustav Fischer Verlag, 1994. GARRETT, L. A próxima peste: novas doenças num mundo em desequilíbrio. Rio de Janeiro: Nova Fronteira, 1995. HEISENBERG, Werner. Física e Filosofia. 3.ed. Brasília: UnB, 1995. KRITSKI, A.L.; RUFFINO-NETTO, A. Health sector reform in Brazil: impact on tuberculosis control. Int. J. Tuberc. Lung Dis, 2000, 4, 622-626. KUHN,T.S. A estrutura das revoluções científicas. 9 ed. Trad. Beatriz V. Boeira e Nelson Boeira. São Paulo:
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
105
Perspectiva, 2005. LALOE, F. Do we really understand quantum mechanics? Strange correlations, paradoxes, and theorems. American Journal of Physics, vol. 69(6), 2001, p. 655. LINDEN, R. Genes contra doenças, Rio de Janeiro: UFRJ, 2008. LINDORFF, D. Pauli and Jung: The Meeting of Two Great Minds, Wheaton: Quest Books, 2004. LOPES, S. Bio. V.1, 1ªed. São Paulo: Ed. Saraiva. 2006. MAARTENS,G. E WILKINSON, R.J. (2007). Tuberculosis. Lancet 370, 2030-2043. MARGULIS, L.; SAGAN, D. Microcosmos. Quatro bilhões de anos de evolução microbiana. São Paulo: Edit. Pensamento-Cultrix. 2002. MARTINS, Roberto. Teoria da Relatividade Especial. Campinas: Ed. Unicamp, 2008 MAYR, E. Isto é biologia: a ciência do mundo vivo. São Paulo: Companhia das Letras, 2008. MEIRELLES, S A, A explosão urbana, Revista Ecologia e Desenvolvimento, 85: 2000. MORIN, E. e LE MOIGNE, Jean-Louis, A inteligência da complexidade. São Paulo: Petrópolis, 2000. MORIN, E. Os sete saberes necessários à educação do futuro. São Paulo: Cortez, 2000. PAULO, I. A Aprendizagem Significativa Crítica de Conceitos da Mecânica Quântica Segundo a Interpretação de Copenhagen e o Problema da Diversidade de propostas de Inserção da Física Moderna e Contemporânea no Ensino Médio, 2006. 235p. Tese (Doctorado en Enseñanza de la Ciencias) – Universidade de Burgos, Espanha. PÉREZ, D. G. El papel de la Educación ante las transformaciones científico-tecnológicas. Nº 18. 1998. RAMADE F. A agressão Humana Tradicional. In: Charbonneau, J. P. Enciclopédia de Ecologia. São Paulo, SP: EPU: EDUSP, 1979. RASHEVSKY, N. Mathematical principles in biology and their applications. Springfield, USA,Thomas Ed.. 1961. RAW, I. A Biologia e o Homem. São Paulo: Edit. USP. 2001. RIVAL, M. Os grandes experimentos científicos. Trad. Lucy Magalhães, Rio de Janeiro: Jorge Zahar Editora, 1997. RONAN, C.A. História Ilustrada da Ciência. Vol. IV. Rio de Janeiro: Jorge Zahar Editora. 2001. SANDLER, I. Development: Mendel’s Legacy to Genetics. Genetics, v. 154, p.7-11, January 2000. SBPC. Uma aventura pelo nanomundo. Edição 2747 - Notícias de C&T - Serviço da 14 de abril de 2005. SELLERI, F. El debate de la teoría cuántica. Madrid: Alianza Editorial, 1986. SILVA, L. L. O papel do Estado no processo de ocupação das áreas de cerrado entre as décadas de 60 a 80. Rev. Caminhos de Geografia 1(2)24-36, dez/ 2000. SIMMONS, J.C. Os 100 maiores cientistas da história: uma classificação dos cientistas mais influentes do
106 | Ciências Naturais e Matemática | UAB
passado e do presente. Rio de Janeiro: Ed. Difel. 2002. TIDON, R; LEWONTIN, R.C.. Teaching evolutionary biology. Genetics and Molecular Biology, 27, 1, 124-131. 2004. VENTURA, M.M. Evolução do pensamento biológico: os esforços para uma Biologia teórica. Brasília: Editora UNB. 2001.p. 7-23. VIEIRA, P.F; RIBEIRO, M.A. Ecologia Humana, Ética e Educação: a mensagem de Pierre Dasereau. Porto Alegre: Edit. Pallotti. 1999. WALLAVER, J. P. ABC do meio ambiente, fauna brasileira. Brasília (DF): Ed. Ibama, 2000. XAVIER, M. C. F. A nova (moderna) Biologia e a genética nos livros didáticos de Biologia. Ciência e Educação, v. 12, n° 3. 2006.
WEBGR AFIA ABRAMOVAY, R. Hora de fé numa ciência que se faz popular http://www.martinsreciclagem.com/ new/?p=50 jul 24th, 2008 em Almanaque Abril, 2008, edição 34. AZEVEDO, R., TREVISAN P.; GONZAGA A. Proposição de metodologia para a formação do conceito de saúde no Ensino de Ciências Naturais. Ensino, Saúde e Ambiente, v.1, n.1, p 70-80, ago.2008. http:// www.unipli.com.br/mestrado/rempec/img/conteudo/7- PROPOSICAO%20DE%20METODOLOGIA.pdf BARRETO, V.M. Árvore da Vida Disponível em: http://memoria-inventada.weblog.com.pt/arquivo/a_pulga_de_hooke/ Acesso em 20 de julho de 2007. BECERRA, A. G. El tránsito desde la Ciencia básica a la Tecnología: la Biología como modelo. Revista Iberoamericana de Educación, OEI, nº18. 1998. http://www.rieoei.org/oeivirt/rie18.htm Acesso em 3 de agosto de 2008. BERMAN, Marshall - Tudo O Que É Sólido Desmancha No Ar http://www.scribd.com/doc/2301035/ Marshall-Berman-Tudo-O-Que-E-Solido-Desmancha-No-Ar?query2=quais+sao+as+ideias+de+Marshall+Ber man Acesso em 15 de maio de 2007. BORGES, J. C. Movendo as engrenagens da vida. Disponível em: http://cienciahoje.uol.com.br/118821 Acesso em 2 de maio de 2008. BRIGGS, JOHN, F.; PEAT DAVID. Sabedoria do Caos. Disponível em: http://www.teoriadacomplexidade.com.br/textos/teoriadocaos/A-SabedoriaDoCaos.pdf Acesso em 1 de agosto de 2008. C A R L S O N , K I M B E R L Y A; W A G O N E R, S T A C Y A . DNA Fingerprinting in a Forensic Teaching Experiment http://www.nabt.org/sites/S1/File/pdf/070-06-0029.pdf Acesso em 30 de agosto de 2008 ABT Online Inquiry & Investigations, vol. 70, Number 6 - August 2008 CARVALHO, A. P. Ciência e Tecnologia no Brasil: Uma Nova Política para um Mundo Global. 1993. http://www.schwartzman.org.br/simon/scipol/pdf/biotec.pdf Acesso em 13 de setembro de 2008.
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
107
COSTA, F. A. P. L. Ernst Mayr, 100 anos. Brasil: La Insignia, fev. de 2005. http://www.lainsignia.org/2005/ febrero/cyt_002.htm Acesso em 16.de agosto de 2008. CHAVES, M. M. Complexidade e transdisciplinaridade: Uma abordagem multidimensional do setor saúde. Disponível em: http://www.psy.med.br/textos/complexidade/complexidade.pdf Acesso em 26/10/05. CHRISTOPHER, R. As maravilhas da medicina. São Paulo: Dois Mundos, 1950. Collection “Evolutionism: Foundations and Challenges”. Lisboa:Centro de Filosofia das Ciências da Universidade de Lisboa. Disponível em: http://cfcul.fc.ul.pt/publicacoes/col_evolucao.htm Acesso em: 01.8.08 DIMITROV. V.. Descobrindo a Fuzziologia. Disponível em: http://www.uws.edu.au/vip/dimitrov/ Acesso em 3 de agosto de 2008. EPSTEIN, Isaac. Criação e evolução. http://www.comciencia.br/200407/reportagens/15.shtml Acesso em 29.7.08. Étienne Geoffroy St. Hilaire (1772-1844). Disponível em http://www.ucmp.berkeley.edu/history/ hilaire.html Acesso em 1 de agosto de 2008. GEÓFAGOS. Problemas ambientais atuais e desenvolvimento sustentável. Agricultura, Ciência Geral, Meio Ambiente, Água..Disponível em: http://geofagos.wordpress.com/2008/05/01/problemas-ambientaisatuais-e-desenvolvimento-sustentavel/ Acesso em 1 Maio de 2008. GIODA A. Problemas ambientais: temos consciência da influência dos mesmos em nossa vida? Disponível em: http://www.terrabrasil.org.br/noticias/materias/pnt_problemasamb.htm . Acesso em 30 de julho de 2008. GIULIANI, G. M. Sociologia e Ecologia: Um Diálogo Reconstruído. Rio de Janeiro: Dados, v. 41, n. 1, 1998 Disponível em: . Acesso em 01 agosto de 2008. GOMIDE, F. de M. Sobre a Origem Histórica da Hipótese Ficção do Positivismo. Disponível em: ftp:// ftp2.biblioteca.cbpf.br/pub/apub/1999/mo/mo_zip/mo00499.pdf Acesso em 16 de maio de 2008. HENN, B. et al. Y-chromosomal evidence of a pastoralist migration through Tanzania to Southern Africa. Acesso em 5 de agosto de 2008. http://ww.euroresidentes.com/futuro/nanotecnologia/nanotecnologia_responsavel/introducao_nanotecnologia.htm - 17k 428 p. http://www.agencia.fapesp.br/materia/9229/divulgacao-cientifica/rebanhos-viajantes.htmhttp://www.anpuh. uepg.br/xxiii-simposio/anais/textos/MARIA%20LUCIA%20DE%20SOUZA%20RANGEL%20RICCI. pdf) http://www.clubedobiologo.com.br/index.php?start=60 http://www.teoriadacomplexidade.com.br/textos/teoriadocaos/TeoriaDoCaosAutopoiese-e-Fractais.pdf Acesso em 28 de julho de 2008. KON , J.. Teoria do caos, Autopoiesis PENA, S. D.. Viva Lamarck (!?). Ciência Hoje Online. Disponível em http://cienciahoje.uol.com.br/52486. Acesso em 28 de julho de 2008.. RICHARDS, R. J. Karl Ernst von Baer. Acesso em 2 de agosto de 2008. SANGLARD, G. P. Entre os salões e o laboratório: filantropia, mecenato e práticas cientíticas .Rio de
108 | Ciências Naturais e Matemática | UAB
Janeiro, 1920-1940. Disponível em: http://www.bvshistoria.coc.fiocruz.br/local/File/sanglardgp.pdf Acesso em 2 de outubro de 2007. TÔRRES, J. J. M. Conjuntos Fuzzy e Lógica Fuzzy. Disponível em: users.femanet.com.br/~fabri/fuzzy.htm Acesso em 3 de agosto de 2008. YOON, C. K. Ernst Mayr, Pioneer in Tracing Geography’s Role in the Origin of Species, Dies at 100. New York Times, 5.Fev. 2005. Disponível em: http://www.nytimes.com/2005/02/05/science/05mayr. html?pagewanted=1&_r=1&oref=slogin ). Acesso em 28 de agosto de 2008. Witkowski, N. (2003), Uma História Sentimental das Ciências , Rio de Janeiro: Jorge Zahar Ed.,Wikipedia – www.wikipedia.org Acesso em 12 de setembro de 2008.
UAB| Ciências Naturais e Matemática |As Ciências Naturais na Contemporaneidade |
109
View more...
Comments