Filosofia da Física Clássica

February 22, 2019 | Author: ImScatman | Category: Axiom, Infinity, Física e matemática, Physics, Time
Share Embed Donate


Short Description

Download Filosofia da Física Clássica...

Description

 FLF0472 Filosofia da Física (USP-2008)

Cap.VII: Princípios de Mínima Ação

Paralelamente a essas linhas de pesquisa, há o desenvolvimento da dinâmica dos corpos rígidos. Em seu  Horologium oscillatorium (1673), Christiaan Huygens havia mostrado como calcular o “centro de oscilação” de um pêndulo físico, ou seja, o pêndulo simples com o mesmo período de oscilação. Houve muita discussão sobre esse trabalho, o que levou Jakob Bernoulli, irmão mais velho de Johann, a publicar em 1703 um trabalho em que refaz a demonstração de Huygens a partir das propriedades da alavanca. Isso seria uma antecipação do princípio de trabalho virtual, de d’Alembert. Jakob Bernoulli também inaugurou a teoria dos corpos elásticos (1705). A teoria das vibrações se inicia com Taylor (1713) e é desenvolvida por Euler, Johann e Daniel Bernoulli. Este último desenvolve também a hidrodinâmica (1733-38). O Traité de Dynamique (1743) de d’Alembert trata do problema dos corpos rígidos sem utilizar o conceito de força newtoniano, mas sim o “princípio de trabalho virtual”, que é uma lei de equilíbrio. Tal princípio está intimamente relacionado com o de conservação de força viva, mas d’Alembert toma o princípio de trabalho virtual como fundamental (não o de força viva), juntamente com o princípio de inércia e o princípio de composição de movimentos (que permite decompor um movimento de maneira conveniente para a aplicação do trabalho virtual). Para entender o princípio de trabalho virtual, pode-se consultar a exposição didática de Feynman45. Considere a situação de equilíbrio de dois corpos ligados, como o da Fig. VII.1a.  Numa situação de reversibilidade (sem atrito), o equilíbrio pode ser estabelecido como na Fig. VII.1b. Nesta transição, o corpo B subiu uma altura de ∆h B = 3 m, ao passo que a descida de A é expressa pela variação ∆h A = – 5 m. Assim, a massa desconhecida m A pode ser calculada  pela conservação de energia potencial gravitacional (a energia cinética não se altera), o que corresponde a uma igualdade nos trabalhos realizados (a menos do sinal): m A·∆h A + m B·∆h B = 0. Numa situação mais complicada, como a da Fig. VII.2, o valor do peso W  que equilibra o conjunto pode ser calculado considerando-se um pequeno deslocamento vertical neste peso, o que alterará as alturas das outras massas para valores facilmente calculáveis. Aplica-se então a conservação dos trabalhos e encontra-se o valor de W . Como esse trabalho não ocorre de fato, mas é apenas um artifício para o cálculo, recebe o nome de “trabalho virtual”.

 Figura VII.1: Pesos em equilíbrio,  sem atrito, em um plano inclinado.

 Figura VII.2: Situação de equilíbrio para aplicação do princípio de trabalho virtual.

D’Alembert fez questão de não exprimir as “causas motivas” dos movimentos, ou seja, as forças, que considerava “obscuras e metafísicas” (ver D UGAS, p. 247). A partir de seu  princípio, aplicado a sistemas com restrições entre as partes, derivou a conservação de força viva. Esta estratégia foi posteriormente generalizada com sucesso pelo italiano de 45

FEYNMAN, R.P.; LEIGHTON, R.B. & SANDS, M. (1963), The Feynman Lectures on Physics, vol. I, AddisonWesley, Reading, pp. 4-1 a 4-5. As Figs. VII.1 e VII.2 são retiradas desta referência.

41

 FLF0472 Filosofia da Física (USP-2008)

Cap.VII: Princípios de Mínima Ação

descendência francesa Louis de Lagrange, em sua  Mécanique Analytique (1788), onde também não se fala em forças (no sentido de Newton e especialmente Euler). Euler, por seu turno, foi bem sucedido na extensão dos princípios newtonianos para diversos sistemas, inclusive corpos rígidos, que envolve um princípio adicional, a lei do torque, derivada em 1776. Argumenta-se que este princípio é independente das três leis de  Newton, para casos gerais. Delineam-se, assim, diferentes programas de pesquisa na mecânica no séc. XVIII, e uma tendência de unificação entre eles. O programa cartesiano acabou sendo mesclado com o leibniziano, e ambos foram incorporados ao programa d’alembertiano, que resultou na mecânica lagrangiana. Paralelamente a isso, o programa de Newton e Euler acabou se firmando como mais geral, aplicável em maior número de casos, fundamentado na noção de força. A controvérsia a respeito do estatuto do conceito de força adentraria o séc. XIX, como veremos no próximo capítulo, mas as abordagens rivais de Euler e d’Alembert acabaram sendo vistas como duas abordagens diferentes para uma mesma ciência da mecânica. 3. Princípio de Mínima Ação

 No esboço histórico da mecânica apresentada acima, deixamos de lado uma abordagem adicional, inaugurada por Pierre de Maupertuis em 1744, o princípio de mínima ação, e que seria posteriormente assimilado na mecânica analítica de Lagrange. Este princípio é de interesse pois ele pretende implementar a tese filosófica de que a natureza age de maneira a minimizar uma certa grandeza, como se ela tivesse um objetivo ou uma meta – um telos, em grego. Nas palavras de Maupertuis: “a Natureza, na produção de seus efeitos, sempre age das maneiras mais simples”. 46 Tal tese levou a uma grande discussão porque ela sugere que a física pode ser construída de maneira “teleológica”, ou seja, envolvendo causas finais (que estariam no futuro ou estariam indicando um estado no futuro), e não apenas causas eficientes (que vêm sempre antes dos efeitos). A física de Aristóteles é um exemplo de teleologia. Para ele, os corpos graves têm um “lugar natural”, que é o centro do Universo, e por isso eles caem quando soltos (ver seção III.1). É como se eles tivessem uma meta ( telos), um propósito. As explicações do naturalismo animista (seção III.3) também são teleológicas. A idéia de que a natureza segue caminhos simples tem vários precursores, mas na física o primeiro exemplo mais detalhado é dado por Héron de Alexandria, em 125 a.C. Ele argumentou que na reflexão da luz por um espelho, o caminho percorrido é o de menor  comprimento. Considere a Fig. VII.3, no qual a luz sai de uma vela em  A, reflete no espelho em C , e ruma para o olho em  B. Este é o caminho mais curto saindo de  A, refletindo no espelho e incidindo em  B. Para mostrar isso, considere um outro ponto de reflexão,  D. Ligando o ponto  E , que é a imagem de  A, aos pontos C  e  D, temos que os seguintes segmentos têm o mesmo comprimento:  AC = EC , e  AD = ED. Ora, mas está claro que a linha reta  ECB é mais curta do que o caminho  EDB (desigualdade do triângulo). Portanto, o caminho ACB é mais curto do que qualquer outro caminho  ADB. Em 1662, Pierre de Fermat adaptou a estratégia de Héron para o caso da refração da luz, só que agora considerando que a luz toma o caminho que leva menos tempo. Ele queria mostrar que a fórmula da refração (lei de Snell) derivada por Descartes era falsa, e para isso supôs que a luz se propaga com uma velocidade menor em meios mais densos (o que é verdade, mas ia contra ao que achavam Descartes e Newton). Ao fazer suas contas, descobriu que o caminho de menor tempo era justamente aquele que satisfazia a lei de Snell-Descartes! 46

DUGAS (1988), op. cit. (nota 44), pp. 254-75. Ver também YOURGRAU, W. Variational Principles in Dynamics and Quantum Theory, Dover, Nova Iorque.

42

& MANDELSTAM, S. (1968),

 FLF0472 Filosofia da Física (USP-2008)

Cap.VII: Princípios de Mínima Ação

Obteve assim uma “lei de mínimo” para a propagação da luz, mas seu resultado só seria aceito após a metade do séc. XIX.

 Figura VII.3. Diagrama ilustrando a demonstração de Héron de que a luz, na reflexão, percorre o caminho de menor  distância.

Em 1744, Maupertuis buscou corrigir o trabalho de Fermat, e chegou à conclusão que o que seria minimizado na propagação da luz não seria o tempo, mas a ação S , que é o  produto da distância r  percorrida e do momento linear  mv: S  = ∫ m v(r ) d r  . Já em 1740 Maupertuis havia usado um princípio de máximo ou de mínimo para uma situação de equilíbrio Em 1747, mostrou que é possível aplicar este resultado para o choque de dois corpos, quer no caso de colisões elásticas quanto inelásticas, o que tornaria o princípio mais geral do que a conservação de força viva (que só valeria no caso de choques elásticos). A partir daí, generalizou o princípio de mínima ação para toda a mecânica: “Quando alguma mudança ocorre na natureza, a quantidade de ação necessária para essa mudança é a menor possível” (DUGAS, p. 265). Maupertuis via em seu princípio uma expressão da perfeição de Deus, que agiria por meio de leis simples e com um gasto mínimo de ação. Em 1751, o holandês Samuel Koenig apresentou uma carta em que Leibniz teria anunciado em 1707 que “nas variações dos movimentos, [a ação] usualmente se torna mínima ou máxima”. Ele usou o termo “ação”, definindo-o também como o produto do tempo e da força viva (energia cinética). Iniciou-se então uma grande polêmica sobre a prioridade e os méritos de Maupertuis, mas a tal carta de Leibniz nunca foi encontrada (D UGAS, pp. 270-3). Independentemente de Maupertuis, seu amigo Euler publicou em 1744 uma versão mais particular, porém matematicamente mais precisa, do princípio de mínima ação. Segundo seu teorema, quando uma partícula viaja entre dois pontos fixos, ela toma o caminho para o qual ∫ v(r ) d r  é mínimo. Seu resultado é baseado no cálculo de variações, e na verdade o que ele demonstra é que a integral da ação é um mínimo, um máximo ou mesmo um ponto intermediário de derivada nula. A rigor, então, o princípio de Euler é um enunciado relativo às trajetórias “virtuais” (que não satisfazem as leis de Newton) que são vizinhas à trajetória real da partícula. “A diferença entre as integrais ∫ v d r  tomadas ao longo da trajetória real e dos caminhos virtuais vizinhos, entre os dois pontos, é uma grandeza infinitesimal de segunda ordem; os caminhos virtuais considerados são aqueles com velocidades que resultem na mesma energia que aquela suposta para a partícula” (Y OURGRAU & MANDELSTAM, p. 25). O princípio variacional foi derivado de maneira mais geral por Lagrange, em 1760,  para n partículas, mostrando que as leis de Newton são equivalentes ao princípio de mínima ação em conjunção com a lei de conservação de energia. A conservação de energia entra ao se considerarem caminhos virtuais de mesma energia. Com o princípio de trabalhos virtuais, Lagrange abriu caminho para sua  Mécanique  Analytique (1788), que forneceu um método prático para calcular os movimentos de corpos rígidos sujeitos a vínculos, problema cuja resolução pelos métodos de Newton e Euler em geral se torna onerosa. Ele introduziu coordenadas generalizadas e obteve equações cuja forma é invariante ante troca de coordenadas. Definindo a “lagrangiana” como a diferença 43

 FLF0472 Filosofia da Física (USP-2008)

Cap.VII: Princípios de Mínima Ação

entre a energia cinética T e potencial V , escrita em função das coordenadas generalizadas qi e q& := dq /dt  , sua equação é: i d    ∂ L  

∂ L   − ∂qi dt   ∂q& i  

= 0 .

As formulações do princípio variacional de Euler e Lagrange estão restringidas a caminhos virtuais de mesma energia. Essa restrição foi removida em 1834 pelo irlandês William Hamilton, que considerou, porém, caminhos virtuais que terminam no mesmo ponto e no mesmo tempo. Chegou assim ao chamado “princípio de Hamilton”: δ ∫  L dt  = 0. “Um sistema muda de uma configuração para outra de tal maneira que a variação da integral ∫ Ldt  entre o caminho real e um vizinho, terminando no mesmo ponto do espaço e do tempo, é nula” (YOURGRAU & MANDELSTAM, p. 47). A partir deste princípio variacional, obtêm-se as equações de Lagrange. Uma formulação em que o tempo é eliminando, resultando em uma “geometrização” do princípio de extremo, foi feita pelo alemão Carl Jacobi em 1843. Anunciou então que “em sua forma verdadeira [é difícil] atribuir uma causa metafísica a este princípio” (D UGAS, pp. 407-8). Princípios variacionais foram usados na velha teoria quântica e na derivação da equação de Schrödinger, da mecânica quântica, e nos trabalhos de Schwinger e Feynman 47 na teoria quântica de campos relativísticos. 4. Causas Finais na Física

O princípio de mínima ação foi visto, por Maupertuis e Euler, como um princípio metafísico exprimindo a perfeição de Deus ou uma tendência da natureza de escolher  caminhos mais simples. Essa noção teleológica passou a ser atacada posteriormente, por  exemplo por d’Alembert (1758), que criticou “o princípio das causas finais” (D UGAS, p. 269), e foi abandonada pela maioria dos físicos, que costuma não interpretar os princípios de extremo de maneira teleológica. Mesmo assim, a linguagem teleológica está presente em algumas explicações físicas corriqueiras. Um sistema tende para o estado que minimiza sua energia, ou para um que maximiza sua entropia. Explicações mecânicas buscam dar conta desses enunciados teleológicos por meio apenas de causas eficientes, como será exemplificado mais à frente com relação à entropia. A questão da teleologia na biologia é bem mais controversa. Pode-se interpretar o mecanismo da seleção natural como uma explicação causal-eficiente para evolução dos seres vivos, mas autores como Ernst Mayr defendem que uma “teleonomia” estaria associada ao código genético.  Na cosmologia, o “princípio antrópico” pode ser interpretado como uma tese finalista, ao afirmar que o nosso Universo contém as condições ideais para o surgimento da vida. No entanto, em sua versão mais fraca, tal princípio é perfeitamente consistente com a causação eficiente.

47

Uma discussão interessante sobre o princípio de Fermat é feito por FEYNMAN et al. (1962), op. cit. (nota 45),  pp. 26-7 a 26-8, em que ele apresenta de maneira didática sua visão conhecida como “soma sobre histórias”.

44

 Filosofia da Física Clássica

Cap. VIII 

Axiomatização Axiomatização da Mecânica Clássica Questão: Por que e como axiomatizar as teorias físicas ? (Nota: Esta aula não foi ministrada minis trada em 2008) 1. Contexto da Descoberta e Contexto da Justificação

Ao se discutir a metodologia da ciência, é importante traçar uma distinção entre dois contextos: o da descoberta e o da justificação. 48 A maneira como uma descoberta científica é feita envolve diversos fatores, incluindo aspectos psicológicos, sociais e culturais. O químico alemão August Kekulé (1865), por exemplo, chegou à idéia de que o benzeno é um anel  de átomos de carbono após ter sonhado com uma cobra mordendo o rabo. No entanto, ele não incluiria esta informação ao escrever seu artigo para publicação. No contexto da justificação de uma teoria, procura-se partir de bases firmes e deduzir conseqüências de maneira rigorosa e de acordo com os cânones da metodologia científica. No contexto da descoberta, por outro lado, os caminhos para se adquirir conhecimento são os mais variados. Ao se discutir uma questão de filosofia da ciência, é preciso especificar em qual contexto se está trabalhando. Por exemplo, qual a importância da indução na ciência? A “indução por enumeração” consiste de se observar uma regularidade em um número finito de casos, e daí generalizar para todos os casos, em uma “lei empírica”. No contexto da descoberta, tal método é muitas vezes usado, especialmente nos estágios iniciais de uma área científica. Os positivistas tendem a considerar que a indução também é uma maneira de  justificar  a aceitação de uma lei empírica. No entanto, autores como Karl Popper discordam que a indução possa servir de justificação, sem negar, porém, que ela possa ter um papel na geração de hipóteses (contexto da descoberta). Para Popper, o método privilegiado para se  justificar uma teoria é o método hipotético-dedutivo, hipotético-dedutivo, que consiste em formular uma hipótese e deduzir suas conseqüências empíricas (observacionais): se houver concordância entre a  previsão e o que é de fato observado, a hipótese é “corroborada” (verificada); se não, ela é “falseada” (ou seja, a hipótese ou alguma outra suposição usada na dedução deve ser  abandonada).  Neste capítulo, examinaremos as tentativas de fundamentar teorias científicas em  bases rigorosas, por meio de sua axiomatização. Tais tentativas estão claramente no contexto da justificação. No cap. X, estudaremos o contexto da descoberta da teoria do eletromagnetismo por Maxwell, onde as analogias desempenham papel importante. 2. Discussão dos Princípios Newtonianos no Séc. XIX

Em meados do séc. XIX, concomitantemente com a ascensão da Termodinâmica e do  princípio de conservação de energia, vários físicos começaram a questionar os fundamentos da mecânica newtoniana. Na França, Barré de Saint-Vernant (1797-1886), em 1851, adotou uma perspectiva atomista para fundar a mecânica apenas nas velocidades e acelerações entre  pontos, derivando definições de “massa” “massa” e “força”. Considerava que as forças eram “agências “agências de uma natureza oculta ou metafísica”, e não as relacionou com as causas eficientes dos 48

Os termos “contexto da descoberta” e “contexto da justificação” foram cunhados por Hans Reichenbach (1938), mas a distinção é mais antiga. Immanuel Kant (1781), por exemplo, se referia a “questões de fato” (quid   facti) e “questões de direito” (quid juris). John Herschel (1830) também é citado como um autor que distinguiu claramente entre “como alcançamos conhecimento” e “a verificação das induções”.

45

 FLF0472 Filosofia da Física (USP-2008)

Cap.VIII: Axiomatização Axiomatização da Mecânica Clássica

movimentos.49 Por contraste, outro francês, Frédéric Reech (1852), seguiu a abordagem de Euler ao colocar a força como ponto de partida da mecânica. Comparou uma força a um fio tensionado que estaria ligado à partícula sofrendo a ação da força. A força poderia ser  avaliada cortando-se o fio e observando o movimento subseqüente da partícula. Trabalhando com diferenças de acelerações, buscou eliminar a descrição em termos de um referencial  privilegiado. Sua “escola “escola do fio” foi levada levada adiante por Jules Jules Andrade (1898). (1898). Um quarto de século após essas primeiras formulações, em 1876, o alemão Gustav Kirchhoff (1824-87) se propôs a construir a mecânica de maneira lógica, a partir das noções de espaço, tempo e matéria, e derivando destas os conceitos de força e massa. Uma abordagem semelhante foi publicada independentemente, em 1883, pelo austríaco Ernst Mach (de quem já Ciência da Mecânica Mecânica. Mach considerou que os princípios falamos na seção V.4), em seu livro  A Ciência da mecânica precisariam ser fundados na experiência, e não na especulação teórica: seu livro seria “um trabalho de explicação crítica animado por um espírito anti-metafísico ”. Fez uso de um “princípio de simetria” para definir  operacionalmente (por meio de operações experimentais) o conceito de massa (inercial). Para isso, considerou que dois corpos idênticos  A e  B comunicam acelerações iguais e contrárias, a A, a B, ao longo da linha que os une (por exemplo, por meio de uma mola). Tomando  A como tendo massa unitária m A=1, a massa de  B seria tal que m B·aB = – m A·aA. Eliminou assim o apelo de Newton à noção intuitiva de “quantidade de matéria” (ver seção IV.2), e declarou que “nesta concepção de massa não há teoria”. Tendo assim definido “massa” em termos operacionais, pôde  F  := ma , derivada a caracterizar a 2 a lei de Newton como sendo uma definição 50 de força:  F :=  partir de termos observacionais. Sua estratégia foi apoiada por positivistas como como Karl Pearson (1892). Heinrich Hertz (1857-1894) também se dedicou ao problema, logo antes de sua morte  prematura, publicando Os Princípios da Mecânica apresentados em uma Nova Forma (1894). Seguindo seu professor Kirchhoff, buscou construir construir a Mecânica a partir dos conceitos conceitos de tempo, espaço e massa. Comentou a abordagem tradicional, baseada nos conceitos de espaço, massa, força e movimento, que estão ligadas às leis de Newton e ao princípio de d’Alembert (seção VII.2), argumentando que ela teria imprecisões lógicas. Uma dessas imprecisões seria que a noção de força em geral é tomada como a causa do movimento, mas, no caso de forças fictícias como a força centrífuga, ela surge como efeito do movimento. Criticou também a  profusão do uso do conceito de força, por exemplo na Mecânica Celeste, sem que isso correspondesse a algo observável: só observamos as posições dos astros em diferentes instantes (comparou o uso de forças ao uso de epiciclos na Astronomia antiga). Parte então da abordagem de Kirchhoff, mas faz a seguinte constatação, característica de uma atitude realista. “Se quisermos obter um quadro do mundo que é fechado em si mesmo, no que tange a leis, devemos conjeturar a existência de outros seres invisíveis por trás das coisas que vemos, e buscar os atores escondidos por detrás das barreiras de nossos sentidos”. Os conceitos de força e de energia seriam idealizações desse tipo, mas Hertz preferiu postular a existência de “variáveis ocultas” que nada mais seriam do que massas em movimento, que se chocariam com os corpos visíveis de maneira a dar conta do que observamos. Teríamos assim um retrato mecanicista, semelhante ao de Descartes ou Le Sage (seções III.6 e 7). Hertz, porém, não estava preocupado em fornecer modelos particulares para diferentes fenômenos, como a gravitação, mas em formular uma descrição geral que fosse consistente com os princípios da Mecânica Clássica. A lei fundamental da Mecânica seria uma lei de mínimo (seção VII.3): para sistemas isolados, o sistema segue a trajetória de curvatura mínima, com uma velocidade 49

Nesta seção, seguimos DUGAS (1988), op. cit. (nota 44), pp. 436-51.

50

Adotamos a convenção de “dois-pontos-igualdade”, adotada por alguns lógicos, para exprimir uma definição: “:=”. Outras signos usados usados para para “definição” “definição” são: são: “≡” ou “=df.”.

46

 FLF0472 Filosofia da Física (USP-2008)

Cap.VIII: Axiomatização Axiomatização da Mecânica Clássica

constante. Tal lei se reduziria para as leis conhecidas da Mecânica, como o princípio de mínima restrição de Gauss, que era uma formulação alternativa do princípio de d’Alembert. O último autor que consideraremos neste resumo é o francês Henri Poincaré (18541912), que em sua Ciência e Hipótese (1902) levou adiante o projeto de mostrar em que medida as teorias físicas envolvem convenções. Uma convenção seria uma tese, a respeito do mundo, que poderia ser diferente, mas que é adotada porque permite a construção de uma teoria econômica (simples) e eficiente em suas previsões. Nossa tendência é supor que o  princípio de inércia (1 a lei de Newton), por exemplo, reflete um fato fundamental do mundo ou espelha diretamente a uma realidade. No entanto, argumenta Poincaré, não é possível verificar experimentalmente este princípio. Podemos tentar fazê-lo lançando um corpo em uma região na qual não há forças resultantes, mas, neste caso, como sabemos que não há forças atuando? Um critério é verificar se um corpo de prova não sofre acelerações, mas neste caso estaríamos usando implicitamente o princípio de inércia para constatar que numa região não há forças, de modo a testar o próprio princípio de inércia! Seria um círculo vicioso! 51 Poincaré considerava que vários outros princípios seriam convencionais: a simultaneidade do tempo, o espaço absoluto, a suposição que o espaço seria euclidiano, a lei de ação e reação, e o princípio de conservação de energia. (Em um capítulo posterior  examinaremos o argumento de Poincaré a respeito deste último princípio.) A 2 a lei de Newton seria uma convenção, mas mesmo assim Poincaré associava ao conceito de força um conteúdo intuitivo (associado à noção de esforço), ao contrário do que fizera Kirchhoff. Considerava assim que a abordagem de Kirchhoff era apenas uma convenção possível, assim como a adotada pela “escola do fio” que mencionamos anteriormente. Quanto ao papel da experimentação, considerava que ela poderia verificar a teoria física de maneira apenas aproximada (dado que não existiria um sistema perfeitamente isolado); ou seja, as convenções da física seriam parcialmente justificadas pela experimentação. experimentação. 3. Críticas ao Método de Mach

Críticas à proposta de Mach começaram a surgir de maneira mais detalhada a partir do trabalho de dois matemáticos ingleses, L.N.G. Filon e C.G. Pendse, na década de 1930. Filon  publicou em 1926 um estudo sobre as bases da mecânica racional em que tinha simpatia pela abordagem de Mach. Em torno de 1932, porém, passou a questionar a abordagem machiana  por razões semelhantes às consideradas por Poincaré (a quem não cita): nunca podemos ter  certeza que um corpo não está sob o efeito de uma força externa, nem que dois corpos interagentes (segundo a receita de Mach) também não estejam. As três leis de Newton não seriam leis experimentais, pois não podem ser provadas nem refutadas experimentalmente. Filon concluiu que a única maneira correta de definir a massa de um corpo seria através de seu peso, método este proposto pelo próprio Newton. 52 Em 1937, C.G. Pendse 53 mostrou que o método operacional de Mach, de observar as acelerações entre dois corpos para inferir os valores das massas, falhava para muitos corpos. Sem levar em conta a 3 a lei de Newton, se as acelerações fossem medidas apenas uma vez, o 51

Esta e outras discussões são tratadas em CHIBENI, S.S. (1999), “A Fundamentação Empírica das Leis Dinâmicas de Newton”, Revista Brasileira de Ensino Ensino de Física 21, 1-13. 52

FILON, L.N.G. (1938), “Mass and Force in Newtonian Mechanics”, Mathematical Gazette Gazette 22, 9-16.

53

PENDSE, C.G. (1937), “A Note on the Definition and Determination of Mass in Newtonian Physics”,  Philosophical Magazine 24, 1012-22. PENDSE, C.G. (1939), “A Further Note on the Definition and Determination of Mass in Newtonian Mechanics”, Philosophical Magazine 27 , 51-61. PENDSE, C.G. (1940), “On Mass and Force in Newtonian Mechanics”, Philosophical Magazine 29, 477-84.

47

 FLF0472 Filosofia da Física (USP-2008)

Cap.VIII: Axiomatização da Mecânica Clássica

método falhava para mais do que 4 corpos, pois o número de incógnitas (forças entre pares de  partículas, mais as massas) tornava-se maior do que o número de equações. Mesmo levando em conta a 3 a lei de Newton, uma única observação de aceleração, para corpos não coplanares, não consegue determinar as massas relativas, de maneira exata, para mais do que 5 corpos. Pendse calculou também o que aconteceria se se pudesse medir as acelerações em vários instantes diferentes. Inicialmente, concluiu que para acima de 7 corpos o método falharia, mas em um artigo posterior concluiu que seria possível derivar as massas relativas em alguns casos, com um número suficientemente grande de medições, mas não as forças! O método de Mach funcionaria, naturalmente, se se pudesse pegar cada corpo individualmente, e comparar sua aceleração com a de um corpo de referência, e pô-lo de volta no sistema, supondo que sua massa não varia neste procedimento.  Na prática, é claro, tal procedimento não é necessário para corpos de nosso cotidiano,  pois confiamos em balanças. Para se determinar as massas dos planetas, não podemos retirar  os corpos para pesagem, mas o fato de o Sol ser muito mais massivo do que os planetas facilita os cálculos a partir das acelerações. Já no caso de partículas elementares, as massas são medidas por diversos procedimentos, muitos dos quais dependem da aceitação de uma teoria física. Concluindo esta seção, podemos dizer que métodos operacionais parecem viáveis na física, mas na prática científica utilizam-se de bom grado métodos nos quais conceitos teóricos são introduzidos de maneira primitiva. 4. Axiomatização de Teorias Matemáticas

Uma axiomatização consiste em uma formulação de uma teoria que se inspira na sistematização que Euclides deu para a geometria (ver seção I.3). Partem-se de axiomas, demonstram-se teoremas e resolvem-se problemas de construção.  No séc. XIX, o quinto postulado de Euclides – que diz que dados uma reta e um ponto fora dela, em um plano, então pelo ponto passa apenas uma paralela à reta – passou a ser  modificado, resultando nas geometrias não-euclidianas. Com isso, começou a ficar claro que o importante em uma axiomatização na matemática não é nossa opinião sobre a veracidade dos axiomas, mas a consistência interna do sistema axiomático. Essa concepção foi bastante divulgada no começo do séc. XX pelo alemão David Hilbert, que sublinhou que uma axiomatização deve deixar claro quais são as noções  primitivas (não-definidas) do sistema.  No caso da Geometria Euclidiana, as noções de “ponto” e “reta” são primitivas: não devem ser definidas a partir de outros conceitos e nem precisam satisfazer nossa intuição a seu respeito. O significado dessas noções é parcialmente estabelecido pelos cinco axiomas de Euclides. No entanto, diferentes “interpretações” podem satisfazer o sistema axiomático, sendo chamadas de “modelos”. Por exemplo, o modelo representado pictoricamente na Fig. VIII.1 satisfaz o seguinte conjunto de axiomas, usados por Hilbert 54: A1: Para quaisquer duas retas, há no máximo um ponto pertencente às duas. A2: Para quaisquer dois pontos, há exatamente uma reta que as contém. A3: Em cada reta há pelo menos dois pontos. A figura pode causar estranheza, porque a reta BDF não se parece com as outras. Mesmo assim, representa um modelo do sistema de axiomas {A1,A2,A3}. 54

Exemplo apresentado por  VAN FRAASSEN, B. (2007),  A Imagem Científica, trad. L.H.A. Dutra, Ed. Unesp/ Discurso, São Paulo, pp. 84-6 (orig. em inglês: 1980).

48

 FLF0472 Filosofia da Física (USP-2008)

Cap.VIII: Axiomatização da Mecânica Clássica

 Figura VIII.1: Geometria dos sete pontos e sete retas, que é um modelo dos axiomas A1, A2 e A3.

5. Axiomatização Dedutivista da Mecânica Clássica

A formulação que Newton deu para a Mecânica pode ser considerada uma “axiomatização informal”, pois partiu de algumas definições e das três leis fundamentais da Mecânica, além da lei de atração gravitacional, e deduziu diversos teoremas. No entanto, a sua axiomatização não satisfaz os critérios de rigor da lógica moderna, sendo por isso considerada “informal”. Em 1953, J.C.C. McKinsey, A.C. Sugar & Patrick Suppes publicaram uma axiomatização da mecânica clássica de partículas que se propunha a cumprir os padrões de rigor estipulados por Hilbert. Em especial, tomaram cuidado em deixar claro quais são as noções  primitivas da teoria mecânica. Escolheram não introduzir um axioma de impenetrabilidade entre partículas, e pressupuseram também diversos resultados da matemática clássica. As noções primitivas introduzidas foram  P , T , m,  s e  f . O que seria  P ? Não diretamente uma entidade física, mas um conjunto! P e T são conjuntos, m uma função unária,  s uma função binária e  f  uma função ternária. A axiomatização de McKinsey et al. é uma teoria matemática, baseada em conjuntos e em funções, que por sua vez são redutíveis a conjuntos. Assim, Suppes cunhou o slogan que “axiomatizar uma teoria é definir um  predicado conjuntista”. 55 Essa abordagem não foi bem recebida pelos físicos, como pode ser  visto pelo comentário de Clifford Truesdell, em nota na primeira página do artigo de McKinsey et al ., que se inicia assim: “O comunicador está em completo desacordo com a visão da mecânica clássica expressa neste artigo”.  Naturalmente, McKinsey et al. tinham em mente uma interpretação física para esses conceitos matemáticos.  P  poderia ser interpretado como um conjunto de partículas  p, mas também poderia ser interpretado de maneira não física, como um conjunto de números, por  exemplo. T  é interpretado como um conjunto de números reais que medem o tempo transcorrido. A função m(p) interpreta-se fisicamente como a massa da partícula  p, s(p,t) é seu vetor posição num instante de tempo t , e f(p,t,i) é o vetor de força i atuando em p no instante t . Apresentam então seis axiomas, de tal forma que o conjunto ordenado 〈 P ,T ,m ,s ,f 〉 define um sistema de mecânica de partículas. Os axiomas P1 e P2 apenas estipulam que  P  não é vazio e 55

MCK INSEY, J.C.C.; SUGAR , A.C. & SUPPES, P. (1953), “Axiomatic Foundations of Classical Particle Mechanics”, Journal of Classical Mechanics and Analysis 2, 253-72. O slogan de Suppes aparece em um texto não publicado de 1967, e é citado na revisão feita por SANT’A NNA, A.S. & GARCIA, C. (1998), “É Possível Eliminar o Conceito de Força da Mecânica Clássica”,  Revista Brasileira de Ensino de Física 20, 346-53, que axiomatiza a mecânica de Hertz.

49

 FLF0472 Filosofia da Física (USP-2008)

Cap.VIII: Axiomatização da Mecânica Clássica

que T  é um intervalo de números reais. O terceiro axioma cinemático determina que o vetor   s(p,t) é duplamente diferenciável em t . O axioma P4 apenas estipula que m(p) é um número real positivo, e P5 que a soma em i das forças  f(p,t,i) converge em uma força resultante de valor finito. O último dos três axiomas dinâmicos, P6, corresponde à 2 a lei de Newton.  Notamos a importância que os autores atribuem à especificação matemática precisa dos conceitos envolvidos. A 1a lei de Newton é derivada de P3, P4 e P6, como o teorema de que se a força resultante sobre um corpo é nula, o vetor velocidade é constante. Quanto à 3 a lei de Newton (ação e reação), McKinsey et al. preferem não impô-la como axioma, para permitir aplicações em que ela não é usada, como no disparo de uma bala de canhão (em que a força de reação na Terra é desprezada). Vemos assim uma característica pragmática de sua axiomatização,  próxima de um instrumentalismo (seção IV.4), pois na formulação dos axiomas não importa tanto qual é a “verdade”, mas sim o quão prático é a aplicação do formalismo. De fato, no início do artigo eles advertem: Deve-se notar que a mecânica de partículas, como quase qualquer outra ciência em forma dedutiva, envolve uma idealização do conhecimento empírico factual [actual  empirical knowledge] – e é assim melhor concebida como um instrumento para lidar  com o mundo [a tool for dealing with the world ], do que como um retrato que o representa. (MCK INSEY et al., 1953, p. 254.)

Apesar de não adotarem a 3 a lei de Newton, provam um teorema segundo o qual qualquer  modelo de seu sistema axiomático pode ser inserido como parte de um modelo mais amplo que satisfaz a 3 a lei. Um resultado bastante citado do trabalho de McKinsey et al. é a demonstração de que m,  s e  f  são noções primitivas independentes, sendo que  P  e T , por seu turno, poderiam ser  definidos em termos dos outros primitivos. Utilizam para isso um método lógico devido a Alessandro Padoa (1900), que consiste essencialmente em fixar os valores dos outros  primitivos, e mostrar que o primitivo em questão pode assumir diferentes valores (ou seja, seu valor não é fixado univocamente pelos valores dos outros primitivos). No caso da força, mostram, em um exemplo simples, que as acelerações de um conjunto de corpos colineares  podem ser devidas a distintos conjuntos de forças (ver Fig. VIII.2). O exemplo é trivial porque os dois conjuntos de forças, α={ f 0}, β={ f 1, f 2}, fornecem as mesmas forças resultantes em cada corpo. Isso revela a diferença entre a abordagem de McKinsey et al. e os de Kirchhoff e Mach (seção VIII.2). Kirchhoff define a força a partir da massa e da aceleração. Assim, no exemplo da Fig. VIII.2, as duas situações correspondem à mesma força em cada partícula, que no caso é a  força resultante. Na abordagem descritivista de Kirchhoff, não faria sentido nesse exemplo distinguir os casos ( α) e (β), a não ser que houvesse alguma outra maneira empírica de distinguir essas situações. Já McKinsey et al.  partem do princípio que existem os dois conjuntos distintos de forças, e que cada uma das forças indicadas é real, mesmo que empiricamente os conjuntos de forças sejam indistinguíveis. Apesar de termos citado um parágrafo em que apresentam um discurso instrumentalista, neste momento eles adotam uma postura mais realista que a de Kirchhoff, com relação ao conceito de força. Com relação a Mach, consideram plausível que se pegue cada partícula, e que cada uma seja submetida (individualmente) ao procedimento operacional para se determinar sua massa, em relação a uma massa de referência. No entanto, tal procedimento envolve um cientista experimental, e McKinsey et al. não vêem como seria possível incorporar tal cientista em um sistema clássico de mecânica de partículas!

50

 FLF0472 Filosofia da Física (USP-2008)

Cap.VIII: Axiomatização da Mecânica Clássica

 Figura VIII.2: Exemplo de McKinsey et al. de dois conjuntos de forças (indicadas por flechas) que geram as mesmas acelerações.

6. O Debate entre Axiomatizações Empiristas e Dedutivistas

Vimos até aqui duas estratégias para se fundar a mecânica clássica de partículas. Na axiomatização informal de Newton, cada axioma pretende exprimir uma lei fundamental do Universo, ou seja, pretende ter um importante conteúdo físico, mesmo que haja redundâncias (a 1a lei é um caso particular da 2 a). A maioria das revisões formuladas no séc. XIX (que vimos na seção VIII.2) envolviam a questão de se os postulados de Newton exprimiam diretamente fatos observados na natureza, ou se eles envolviam conceitos teóricos (não diretamente observáveis), como “força”. A tentativa de axiomatizar uma teoria física com  base em postulados próximos à observação pode ser chamada de abordagem empirista ou operacional (ou mesmo “indutivista”) à axiomatização de teorias científicas. Já a abordagem de McKinsey, Sugar & Suppes encara o conceito de força de maneira realista (mesmo adotando um tom geral instrumentalista), aceitando que se possa definir esse conceito de modo independente das observações. Tal abordagem pode ser chamada de dedutivista ou realista. Outros autores propuseram axiomatizações mais empiristas do que as de McKinsey et  al. Herbert Simon, pensador multifacetado, expoente da inteligência artificial e ganhador do Prêmio Nobel de Economia, escreveu vários trabalhos formulando uma axiomatização de sabor mais empirista56. Ele contorna as dificuldades que o método de Mach enfrenta para definir operacionalmente massa, ao incluir a lei da atração gravitacional como um axioma. Dentre as conclusões que obteve, está a de que se se quiser  definir  força a partir da 2a lei de  Newton, então a lei da gravitação se torna uma lei empírica. Mas se, de maneira alternativa, se quiser definir força a partir do axioma correspondente à lei da gravitação, então  F =ma se 56

SIMON, H.A. (1946), “The Axioms of Newtonian Mechanics”, Philosophical Magazine (series 7) 38, 888-905. SIMON, H.A. (1954), “The Axiomatization of Classical Mechanics”, Philosophy of Science 21, 340-3. SIMON, H.A. (1970), “The Axiomatization of Physical Theories”, Philosophy of Science 37 , 16-26.

51

 FLF0472 Filosofia da Física (USP-2008)

Cap.VIII: Axiomatização da Mecânica Clássica

torna uma lei empírica da Física. Ou seja, a questão de qual é a convenção (definição) e qual é a lei empírica depende da perspectiva que se adota. Um interessante balanço geral deste debate é fornecido pelo filósofo da física inglês Jon Dorling57: Este resultado [de Suppes e colegas] é normalmente tomado como mostrando que, ao contrário das visões positivistas de Mach, massas e forças são termos teóricos que não  podem ser eliminados em favor de termos de observação. À primeira vista, essa conclusão parece também fornecer um forte apoio para o hipotético-dedutivismo, contra o indutivismo. Porém, é difícil aceitar os resultados facilmente provados de Suppes da maneira em que são vendidos filosoficamente. Por um lado (ao contrário do que a maioria dos filósofos  parece supor), os físicos matemáticos parecem, em geral, ter tido sucesso em eliminar  termos teóricos em favor de termos mais diretamente observáveis [...] (DORLING , 1977,  p. 55.)

Dorling cita as axiomatizações operacionais da Termodinâmica e da Mecânica Quântica feitas por Robin Giles, e se detém numa axiomatização da Mecânica Clássica feita  por G.W. Mackey (1963), que fornece uma generalização do método de Mach para se determinarem operacionalmente as massas. Conclui que o resultado de independência de McKinsey et al. é decorrente da “escolha idiossincrática” de primitivos feita por eles, e que seu resultado não é geral, não afetando a plausibilidade de axiomatizações operacionais ou  positivistas.

57

DORLING, J. (1977), “The Eliminability of Masses and Forces in Newtonian Particle Mechanics: Suppes Reconsidered”, British Journal for the Philosophy of Science 28, 55-7.

52

 Filosofia da Física Clássica

Cap. IX 

A Ontologia do Eletromagnetismo Questão: Quais conceitos do eletromagnetismo correspondem a entidades reais ? 1. Critérios para estabelecer o que é Real

A teoria do eletromagnetismo de Maxwell postulou a existência de diversos “campos” (definiremos este conceito na seção IX.4), como o elétrico  E , o de indução magnética  B, o  potencial φ  e o potencial vetor  A. Quais deles correspondem a entidades reais? Em nosso ensino de física,  E  e  B são considerados reais, e a luz é costumeiramente representada como ondas E e B. Já o potencial vetor é considerado irreal, apenas uma representação matemática. Qual o critério usado para se estabelecer que um termo teórico corresponde ou não a uma entidade real? Iniciaremos este capítulo examinando esta questão filosófica, e depois discutiremos visões alternativas, uma que defende que o campo magnético não é real, e outra que o potencial vetor também é real. O que é real? O protótipo de um objeto real é uma pedra. Ela é dura, colorida, tem até gosto, continua igual mesmo que eu a jogue, tem uma forma tridimensional que é consistente com todas as imagens formadas de diferentes perspectivas, é facilmente concebida e representada pela minha mente, posso lhe dar um nome, se alguém a atirar em mim eu sentirei dor, e se eu jogá-la contra uma vidraça terei o poder de causar a quebra desta. Podemos extrair desta caracterização quatro critérios para decidir se um objeto é real ou não. Tais critérios não são necessariamente exaustivos, e podem não ser independentes, mas servirão como um ponto de partida para discutir se determinado objeto, como um arcoíris, uma sombra, um quark ou uma partícula virtual, é real. Quando consideramos um objeto real, ele costuma ser: 53 1) Observável. Se observamos algo, temos boa confiança de que ele existe. Há porém ilusões, como lampejos de luz quando batemos a cabeça, e há objetos visíveis que interpretamos como sendo distintos do que são, como as aparições de discos voadores nos céus. O sentido do tato parece ter mais importância na determinação de que algo é real. Vemos um arco-íris mas não conseguimos pegá-lo: será que ele é real? Quando todo mundo observa o mesmo objeto, há mais razões para considerarmos que o objeto é real, mas mesmo observações privadas, como o lampejo ilusório ou uma dor no calcanhar, são indício de um evento real em nosso corpo. 2)  Invariante. Ao tratar de entidades inobserváveis, o critério de invariância adquire muita importância. Aquilo que permanece constante ante transformações de coordenadas ou de perspectivas costuma ser considerado real. Na teoria da relatividade restrita, comprimentos e durações temporais variam com o referencial, mas há um “intervalo espaço-temporal” que  permanece invariante, sugerindo que seja mais real do que o espaço e o tempo separados, apesar de estes serem observados. Na teoria quântica, a função de onda ψ (r ) é invariante ante mudanças no aparelho de medição, ou seja, ante mudanças no observável sendo medido. Isso faz alguns autores admitirem que a “onda de probabilidade” ψ (r ) seja real, mas os críticos desta opinião argumentam que ela não é diretamente observável e nem satisfaz o critério seguinte, não sendo por isso real. 3) Concebível. Outro critério importante para aceitarmos que um conceito corresponda a algo real é que ele possa ser representado de maneira não-problemática em uma teoria. A 53

Uma discussão semelhante, sobre o que é “fisicamente real”, é apresentada em NAGEL (1961), op. cit. (nota 28), pp. 146 ff .

53

 FLF0472 Filosofia da Física (USP-2008)

Cap.IX: A Ontologia do Eletromagnetismo

função de onda mencionada no parágrafo anterior estaria sujeita a “colapsos não-locais” (falaremos sobre a localidade na seção VIII.4), e para duas partículas correlacionadas ψ (r 1,r 2) seria definida em seis dimensões, o que é problemática teoricamente. A maioria dos cientistas não acredita em fantasmas porque (entre outras razões) estes não são explicáveis pela teoria física atual. Na física, podemos aceitar que a energia cinética de uma bala seja real porque esse termo teórico está presente em leis científicas bem confirmadas e aceitas. N AGEL salienta também que se um termo teórico aparecer em diferentes leis experimentais, aumenta nossa confiança em sua realidade. 4) Causalmente potente. Se um objeto apresenta “poderes causais”, isso aumenta nossa crença em sua realidade. Se uma bruxa consegue lançar um encantamento e quebrar  uma vidraça, passamos a levar seriamente que seu encantamento é real. Em discussões sobre a realidade do mental (como sendo distinto do corporal ou cerebral), às vezes utiliza-se o argumento de que seriam os estados mentais (e não prioritariamente os correspondentes estados cerebrais) que causariam nossas ações, de forma que tais estados seriam reais (e não meros “epifenômenos” do cerebral). Em filosofia da biologia, discute-se qual é o “nível de seleção” que tem realidade (o gene, o indivíduo ou o grupo) a partir de seu poder causal.  Na presente discussão, enfocamos objetos individuais, mas há também uma longa discussão sobre a realidade de entidades envolvendo mais de um indivíduo, como conjuntos de indivíduos (um conjunto existe ou é apenas uma representação), ou propriedades universais e entidades matemáticas, que examinamos na seção I.4. 2. Ampère e o Magnetismo como Epifenômeno

Em julho de 1820, o dinamarquês Hans Christian Ørsted descobriu que, ao colocar um fio de platina, condutor de corrente galvânica, próximo e paralelamente a uma bússola, esta tendia a girar para uma posição quase perpendicular ao fio (o efeito não era completo devido ao campo magnético da Terra). Com isso, enunciou sua lei fundamental do eletromagnetismo: “o efeito magnético da corrente elétrica tem um movimento circular em torno dela”. 54

 Figura IX.1: Forças entre imãs e entre espiras de corrente equivalentes. 54

MARTINS, R.A. (1986), “Ørsted e Ciência 10, pp. 89-114. Este artigo é

a Descoberta do Eletromagnetismo”, Cadernos de História e Filosofia da seguido pela tradução do texto original de Ørsted”.

54

 FLF0472 Filosofia da Física (USP-2008)

Cap.IX: A Ontologia do Eletromagnetismo

Em Paris, em setembro, André-Marie Ampère construiu o primeiro galvanômetro e mostrou que dois fios paralelos, carregando corrente no mesmo sentido, se atraem. Em outubro, François Arago construiu os primeiros solenóides e Jean Baptiste Biot & Félix Savart anunciaram a lei de força entre uma corrente e um imã. Em 1821, em Londres, Michael Faraday conseguiu produzir um movimento circular constante de um imã em torno de uma corrente (e vice-versa). A maioria dos cientistas dava igual importância aos efeitos elétricos, de um lado, e aos efeitos magnéticos, de outro. Podemos dizer que eletricidade e magnetismo tinham o mesmo “estatuto ontológico”, ou seja, considerava-se que ambos existiam na realidade. Ampère,  porém, impressionou-se com a equivalência da ação de um imã e de uma espira de corrente elétrica. A Fig. IX.1 apresenta as forças que surgem entre dois imãs, em diferentes disposições, e as análogas forças entre duas espiras de corrente. Ampère, então, lançou a hipótese de que a ação magnética nada mais é do que a ação de espiras elétricas de dimensões atômicas! Em outras palavras, os efeitos magnéticos seriam apenas “epifenômenos” dos elétricos, ou seja, no fundo nada mais seriam do que conseqüências de correntes elétricas fechadas. Como explicar, porém, o fato de que uma agulha de ferro pode não estar imantada, mas que ao entrar em contato com um imã, torna-se magnética? Ampère postulou que cada átomo de ferro, nas condições normais em que não está magnetizado, teria correntes dispostas de acordo com a superfície de uma maçã (Fig. IX.2a). O resultando desta disposição seria um campo magnético interno ao átomo (na forma de um círculo passando por dentro das espiras), mas um campo nulo no exterior do átomo. No entanto, se o ferro fosse aproximado de um imã e se magnetizasse, o que ocorreria, segundo Ampère, seria uma deformação como a da Fig. IX.2b, gerando um campo magnético fora do átomo, perpendicular ao plano do desenho. 55

 Figura IX.2: Modelo pictórico de um átomo de ferro, segundo Ampère. As linhas referem-se a correntes elétricas nos átomos. O caso (a) representa a situação  sem magnetização, e o caso (b) o átomo magnetizado. Neste último caso o campo magnético é perpendicular ao plano do desenho.

Hoje em dia, a tese de que o magnetismo dos materiais é devido a correntes atômicas  pode ser sustentada, mas a explicação é estatística. A circulação de elétrons em um átomo de ferro pode ser visto como gerando um campo magnético, mas se tais átomos estiverem orientados ao acaso, o efeito magnético global será nulo. Com a aproximação de um imã, o que ocorre é um alinhamento dos átomos, de tal forma que seus campos magnéticos apontam mais ou menos na mesma direção e sentido, gerando uma magnetização do material como um todo. Um problema para a tese de Ampère é o fenômeno do momento magnético intrínseco de elétrons, chamado de “spin”. É como se um elétron fosse um minúsculo imã. Para tentar  55

As Figs. IX.2 e IX.3 foram adaptadas de TRICKER , R.A.R. (1965), Early Electrodynamics, Pergamon, Oxford,  pp. 29-30 e 43.

55

 FLF0472 Filosofia da Física (USP-2008)

Cap.IX: A Ontologia do Eletromagnetismo

explicar esse magnetismo a partir do movimento de cargas elétricas, pensou-se no elétron como uma esfera elétrica em rotação, mas os cálculos mostraram que a velocidade de rotação necessária para gerar o spin do elétron violaria a teoria da relatividade restrita. É possível,  porém, elaborar outros modelos para o spin do elétron56, de maneira a salvar a tese de Ampère do primado ontológico da eletricidade. Recentemente, André Assis apresentou um argumento contra a realidade do campo magnético57, baseado no princípio de razão suficiente de Leibniz (ver seção V.4). Se considerarmos uma espira circular em um plano, qualquer força gerada por este sistema em alguma carga localizada no plano estará direcionada  paralela ao plano (nunca para fora do  plano). Que razão teríamos, então, para postular a existência de um vetor de indução magnética apontada para fora do plano? Que razão teríamos para estipular que este vetor está apontado “para cima” do plano e não “para baixo”? Não haveria razão para quebrar essa simetria. Logo, o campo magnético não existiria. 3. Forças Magnéticas violam o Princípio de Ação e Reação?

Ampère buscou construir uma teoria eletromagnética que satisfizesse os princípios da mecânica de Newton, concebendo que os elementos infinitesimais de corrente se atrairiam ou se repeliriam segundo uma força central, satisfazendo o princípio de ação e reação (3 a lei de  Newton). Para exprimir a ação entre uma espira elétrica e um imã (ou entre dois imãs), Ampère substituía o imã pela espira equivalente, aplicava sua lei de força para cada par de elementos de corrente, fazia a integração ao longo de cada circuito fechado, e obtinha a força resultante entre os dois sistemas. Este, porém, era um método diferente daquele introduzido por Biot & Savart, que em outubro de 1820 obtiveram uma lei de força entre um elemento de corrente e um imã. Para este tipo de interação, a lei de Biot-Savart, ou sua reformulação por Grassmann (1845), foi adotada pela maioria dos físicos, mas ela tinha a característica peculiar de nem sempre satisfazer o princípio de ação e reação. A Fig. IX.3 ilustra esta violação para dois elementos de corrente.r Usando a regra da mão direita, vemos que o elemento 1 gera um campo r magnético  B21 no elemento 2, o que resulta na força  F 21 indicada, que não é central. Por outro lado, o campo magnético exercido por  2 em 1 é nulo, de forma que não haveria força resultante em 2. Temos assim uma clara violação do princípio de ação e reação!

 Figura IX.3: Forças entre elementos de corrente segundo Biot & Savart. 56

Ver referências em PESSOA JR ., O. (2003), Conceitos de Física Quântica, vol. 1, Livraria da Física, São Paulo,  pp. 145-6. 57

ASSIS, A.K.T. (1999), “Arguments in favour of Action at a Distance”, in Chubykalo, A.E.; Pope, V. & Smirnov-Rueda, R. (orgs.), Instantaneous Action at a Distance in Modern Physics – “Pro” and “Contra”, Nova Science, Commack (Nova Iorque), pp. 45-56; ver p. 54.

56

 FLF0472 Filosofia da Física (USP-2008)

Cap.IX: A Ontologia do Eletromagnetismo

O curioso é que os dois métodos, o de Ampère e o de Biot-Savart, quando aplicados  para circuitos inteiros fechados (o que envolve a integração da contribuição de todos os elementos), resultam sempre no mesmo resultado! Após a descoberta da indução eletromagnética por Faraday e Joseph Henry, em 1831, tornou-se necessário formular uma teoria mais abrangente para o eletromagnetismo. Isso foi feito por Franz Neumann, em 1845, por Wilhelm Weber, a partir de 1846, e por James Maxwell, a partir de 1856. Nesse período, a oposição entre as estratégias de Biot-Savart e Ampère se manteve. Biot-Savart e Grassmann influenciaram a abordagem de Lorentz, de 1892, que é apresentada na maioria dos textos didáticos, juntamente com a teoria de Maxwell. Já a abordagem de Ampère foi retomada por Weber, que manteve a 3 a lei de Newton, e acabou formulando uma teoria empiricamente equivalente à de Maxwell. Uma comparação da lei de força de Lorentz, segundo a expansão aproximativa de Liénard-Schwarzschild, e a de Weber, é apresentada por André Assis (que mencionamos na seção anterior), um seguidor  contemporâneo da tradição de Ampère e Weber. Ambas as leis de força fornecem os mesmos resultados, quando integradas ao longo de circuitos, a menos de um termo proporcional ao quadrado da velocidade. Tentativas para testar esta diferença não têm levado a resultados conclusivos.58 4. Campos e a Ação por Contato, ou Localidade

Quando falamos em um “campo” na física, como o campo elétrico ou o campo gravitacional, pensamos em uma função matemática geralmente definida em todos os pontos do espaço e do tempo, como  E (r ,t). Atribuímos realidade para esse campo porque se no instante t colocarmos uma carga q de massa m no ponto r , concebemos que este campo causa uma aceleração a, cujo valor medido será tal que F = ma = q E (r ,t). Notamos que a descrição do movimento da carga depende só de uma entidade postulada (o campo) presente localmente em torno do ponto r , no instante t . É verdade que tal campo é gerado por cargas presentes em outras regiões, mas a “causa próxima” do movimento da carga seria o campo, e não as entidades localizadas à distância. Para testar esta última afirmação, pode-se imaginar o que aconteceria se um “demônio” (ver seção VI.2) arrancasse o Sol de sua posição com a maior aceleração possível. Segundo a teoria da relatividade geral, demoraria 8 minutos (mais 19 ± 8 s) para que a Terra sentisse o baque. A ação ocorrida no Sol não afeta instantaneamente a Terra, mas se propaga a uma velocidade finita igual à da luz. Vemos assim que a noção de campo está intimamente ligada à noção de ação por contato (ou por contigüidade): os efeitos causais não se propagam instantaneamente à distância, mas se propagam de vizinho em vizinho, a uma velocidade finita. Se o arranque do Sol afetasse a Terra instantaneamente, poderíamos dizer que a causa  próxima do baque na Terra seria o afastamento do Sol. Neste caso, poderíamos trabalhar com uma função potencial gravitacional definida em todo espaço, U( r ,t ), como fez Poisson em 1813, mas isso não seria um “campo”, no sentido estrito, pois envolve ação à distância. Um campo (no sentido estrito) teria então três características: (i) Seria definida em todos (ou quase todos) os pontos do espaço e do tempo de uma determinada região, correspondendo assim a uma entidade “espalhada”, podendo ser  associada a uma energia. (ii) Em geral, tem um caráter meio abstrato ou fantasmagórico, pois não é diretamente observável (sua existência é inferida dos efeitos que causa), podendo ser caracterizado como

58

ASSIS, A.K.T. (1995), Eletrodinâmica de Weber , Unicamp, Campinas.

57

 FLF0472 Filosofia da Física (USP-2008)

Cap.IX: A Ontologia do Eletromagnetismo

uma “potencialidade” no sentido aristotélico (seção II.3), o que justifica o uso do termo “potencial” na física matemática. (iii) Os efeitos se propagam a uma velocidade finita, numa ação por contato. Isso é também expresso pelo termo localidade . Esta última noção de ação por contato ou localidade estava presente na filosofia mecânica de Descartes e Huygens (seção III.4), e retornou à física a partir dos trabalhos de Faraday no eletromagnetismo. A teoria da relatividade geral de Einstein é uma teoria da gravitação com ação por contato. Assim, podemos dizer que em 1922 toda a física hegemônica era local. Isso é razoável: como é que algo que acontece no Sol poderia chegar  até nós instantaneamente?  No entanto, com a teoria quântica, especialmente a partir do teorema de Bell (1964), a não-localidade voltou a figurar nas discussões de física. É costume dizer que “Einstein estava errado” (no seu trabalho com Podolsky e Rosen, de 1935) e que a não-localidade se manifesta em pares de partículas “emaranhadas”. No entanto, a situação é mais sutil do que parece. A questão envolve uma escolha entre uma postura instrumentalista (positivista) e uma realista (seção IV.4). O teorema de Bell diz que se alguém adotar uma postura realista com relação à teoria quântica, ele é obrigado a aceitar a não-localidade (ação à distância). Por exemplo, se alguém atribui realidade à função de onda ψ (r ) (que mencionamos na seção IX.1), então terá que aceitar a existência de colapsos não-locais. Porém, numa visão instrumentalista (para a qual ψ (r ) é apenas um objeto matemático), o mundo se comporta de maneira local. Isso se reflete na impossibilidade de transmitir “informação” (algo macroscópico e observável) a uma velocidade maior do que a luz. 5. O Potencial Vetor é um Campo Real?

Em seu estudo das propriedades eletromagnéticas de um meio, Faraday concluiu que os efeitos eletromagnéticos se propagam por contato a partir de deformações do “estado eletrotônico” do meio. Maxwell matematizou esta noção (ver cap. X), levando ao conceito de  potencial vetor  A. Este campo possui as seguintes propriedades: (i) O rotacional de  A é o campo magnético: × A = B. (ii) Ele é um potencial para o campo elétrico, juntamente com o potencial escalar  φ :  E = – ∂ A/∂t –  φ . (iii) A seguinte transformação de calibre altera  A e φ , mas mantém os valores de  E  e  B, para qualquer função escalar  ψ  :  A →  A + ψ  ; φ  → φ  – (1/c)∂ψ /∂t  . Assim, tais transformações não alteram as medições experimentais. (iv) Fixando-se · A = 0, pode-se calcular o valor de  A a partir da densidade de 2 2  ·A = –   j /(ε0 c ), de forma que A seja paralelo a  j . corrente j : (v)  A pode ser interpretado como um “momento reduzido”. Assim, em analogia com a a 2 lei de Newton, F = ma = ∂ p/∂t , onde  p é o momento linear, tem-se para a força elétrica: F = q E = ∂(– q A)/∂t , de forma que – q A age como um momento. (vi) Do potencial vetor pode-se derivar a energia do campo: U = ∫ j  ·A dV . (vii) Em alguns problemas complicados, as integrais envolvendo  A são mais fáceis de trabalhar do que aquelas envolvendo  B. (viii) Por fim, o potencial vetor reaparece da mecânica quântica, na teoria da relatividade e no princípio de mínima ação.

58

 FLF0472 Filosofia da Física (USP-2008)

Cap.IX: A Ontologia do Eletromagnetismo

Richard Feynman 59 escreveu uma instrutiva apresentação ao conceito de campo, em que discute a questão de se o potencial vetor  A do eletromagnetismo é um campo real ou não.  Na verdade, seu conceito de “real” é um tanto instrumentalista. Ele escreve: “devemos dizer que a frase ‘um campo real’ não tem muito significado”, mas ele diz isso basicamente  por causa do critério de observação (da seção IX.1): “você não pode pôr sua mão e sentir o campo magnético”. Para Feynman, “um campo ‘real’ é portanto um conjunto de números que especificamos de tal maneira que o que acontece num ponto depende apenas dos números naquele ponto.” A discussão do físico norte-americano é pertinente mesmo que adotemos uma concepção mais realista de “real”. O principal argumento utilizado contra a realidade do potencial vetor  A é que seu valor  não é único (item iii acima), mas se levarmos em conta a teoria da relatividade (seção seguinte), o mesmo se aplicaria para os campos elétricos e magnéticos usuais. Outro argumento contra a realidade é que  A não aparece explicitamente em expressões de força, como F  = q( E  + v ×  B); se tivermos uma região em que  B = 0, não haverá força magnética mesmo se A ≠ 0.  No entanto, com a física quântica, descobriu-se um efeito que só pode ser explicado, em termos locais, a partir do campo  A! Este é o chamado efeito Aharonov-Bohm, formulado explicitamente por esses dois autores em 1959, mas já previsto em trabalho anterior de Ehrenberg & Siday (1949). Um feixe de elétrons passa em torno de um solenóide  praticamente infinito (em outro arranjo possível, o solenóide tem forma toroidal), tendo-se o cuidado de blindar o solenóide para impedir a penetração de elétrons (Fig. IX.4). A física quântica prevê que neste experimento os elétrons se comportam como ondas, formando-se um  padrão de interferência na tela, mesmo quando o solenóide está desligado. Neste arranjo, o campo magnético externo ao solenóide é nulo, e classicamente não se esperaria nenhum efeito sobre os elétrons propagando à volta do solenóide. Mas ao se ligar o solenóide, o que se observa é um deslocamento uniforme da franja de interferência, explicado por uma variação na fase relativa das amplitudes de onda que passam por um lado e por outro do solenóide. Como se dá esta alteração na fase relativa?

 Figura IX.4: Arranjo do experimento de Aharonov-Bohm. Quando o solenóide é ligado, as franjas sofrem um deslocamento.

59

FEYNMAN, LEIGHTON & SANDS (1963), op. cit. (nota 40), vol. II, p. 15-7. Sobre o potencial vetor, ver também  p. 14-10.

59

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF