Mostrando postagens com marcador Eduardo Lütz. Mostrar todas as postagens
Mostrando postagens com marcador Eduardo Lütz. Mostrar todas as postagens

sábado, maio 13, 2023

Big Bang: resposta à réplica de João Paulo (parte 2)

Esta é a segunda parte da resposta ao artigo de João Paulo Reis Braga sobre uma citação que considerei infeliz. Essa citação foi feita por Marcos Eberlin para tentar estabelecer um dos pontos de um argumento. O trecho foi extraído de um artigo de João Paulo que continha vários erros conceituais. Infelizmente, o próprio artigo-réplica de João Paulo aumentou em muito a quantidade de erros conceituais para corrigirmos, de maneira que não foi possível tratar de todos os problemas mais graves em uma única resposta.

A quantidade e o nível dos erros contidos nessa réplica são tais que requerem esclarecimentos sobre temas básicos, explicados em livros didáticos em nível de graduação em Física. Apesar de esses assuntos serem de domínio público, as distorções que alguns têm feito na tentativa de defender ideias mirabolantes requer uma resposta personalizada.

Na parte 1, chegamos até o conceito termodinâmico de entropia e mostramos que ele não faz referência alguma a desordem.

Comentamos também que, para encontrarmos uma relação entre entropia e desordem, precisamos apelar à Mecânica Estatística, que é mais abrangente e detalhada do que a Termodinâmica. Nesse contexto, sim, há situações em que é válido usarmos entropia para medir desordem, embora nunca se deva definir entropia como desordem porque o conceito de entropia é muito mais geral.

Também é feita a afirmação falsa de que todas as teorias quânticas violam a segunda lei da Termodinâmica. Trataremos dessas coisas na sequência.

Outros pontos também merecem resposta, mas precisarão ser tratados em outro artigo da série.

Microestado e macroestado

Antes de corrigir os erros conceituais de João Paulo nesta área, é importante esclarecer primeiro os conceitos de microestado e macroestado. Imagine um gás composto por moléculas confinadas em um recipiente. Imagine que esse gás esteja em equilíbrio.

O estado do gás como um todo pode ser descrito pelos valores de algumas variáveis: volume (V), pressão (p), temperatura (T), energia interna (U), entropia (S), número de moléculas (N). Esse estado do gás como um todo, que pode ser especificado por variáveis globais apenas, chama-se macroestado.

No nível microscópico, cada molécula está em um estado diferente, com certa quantidade de energia e momentum, por exemplo. Se pensarmos em moléculas como se fossem partículas sem propriedades quânticas, poderíamos imaginar cada uma com certa velocidade e em certa posição em cada instante. A combinação dos estados de cada molécula do gás em dado instante é o que chamamos de microestado do gás.

A entropia na Mecânica Estatística

No âmbito da Mecânica Estatística, uma forma de calcular a entropia do gás que está no macroestado A é usando um conceito (de Boltzmann) segundo o qual ela é proporcional ao logaritmo do número de microestados cujo efeito macroscópico (global) é o macroestado A.

S(A) = k log[M(A)].

João Paulo diz que todas as teorias quânticas invertem a segunda lei da Termodinâmica. Na verdade, o que ocorre é exatamente o contrário: a Mecânica Estatística não consegue lidar corretamente com a entropia sem a Mecânica Quântica. Todas as teorias derivadas da Mecânica Quântica (aplicações mais específicas) herdam as mesmas leis quânticas que fazem com que a Mecânica Estatística forneça os resultados corretos (condizentes com o que se observa), especialmente no que se refere à entropia e à segunda lei da Termodinâmica.

Mais especificamente, quando não levamos em conta a Mecânica Quântica na Mecânica Estatística, obtemos uma fórmula errada para a entropia. Mais precisamente, calculamos de maneira errada o número de microestados correspondentes a um macroestado. Esse fenômeno ficou conhecido como paradoxo de Gibbs.

Imagine-se um recipiente contendo um gás. Imagine que introduzimos uma divisória finíssima que separa o gás em duas partes, em um processo reversível. A energia total do gás permanece a mesma, assim como as demais propriedades. Porém, ao contarmos o número de microestados de maneira ingênua, concluímos que a entropia aumenta no processo (como João Paulo afirma em seu artigo). Se essa contagem fosse válida, ao removermos a divisória em um processo reversível, todas as propriedades do gás permaneceriam as mesmas, mas a entropia diminuiria, violando a segunda lei da Termodinâmica.

Gibbs descobriu que precisaria dividir o número de microestados pelo fatorial do número de partículas (N!) para poder chegar à expressão correta da função M(A) que coloquei na fórmula acima. Com isso, passa-se a respeitar a segunda lei da Termodinâmica e mantém-se o caráter de variável extensiva que a entropia precisa ter (a entropia do todo é igual à soma das entropias das partes).

Isso não fazia sentido na Física Clássica, em que apenas trabalhamos com fenômenos macroscópicos. A origem da necessidade desse fator ficou clara quando se descobriu a Mecânica Quântica e ela foi usada como legítimo suporte para a Mecânica Estatística. Com isso, as expressões que definem a entropia nesse contexto geram os resultados corretos naturalmente, sem a necessidade de hipóteses ad hoc.

E, de fato, a entropia não muda quando introduzimos uma (ou mais) divisória(s) no gás nas condições que mencionei. (E foi dito no artigo de João Paulo que sei muito bem que a entropia muda nesse experimento e que eu estaria deliberadamente mentindo para o leitor. É desinformação combinada com ataque pessoal baseado em uma suposta capacidade de ler mentes e intenções.)

É necessário levar em conta um fato crucial revelado pela Mecânica Quântica: a indistinguibilidade das partículas de um mesmo tipo. Classicamente, pensamos na partícula 1 no estado A e na partícula 2 no estado B. Isso pressupõe que é possível de alguma forma marcar as partículas para poder especificar qual é a 1 e qual é a 2.

A Mecânica Quântica nos ensina que essa abordagem não funciona para partículas mais simples de um mesmo tipo: a natureza não permite que essas partículas tenham identidade. Isso significa que estamos proibidos de dizer que a partícula 1 está no estado A e a partícula 2 está no estado B. Ao invés disso, precisamos dizer que há uma partícula no estado A e uma no estado B. Pode parecer pouco, mas isso é vital para a existência da Química e, consequentemente, nossa existência.

Vejamos isso um pouquinho mais de perto. Na situação que descrevi no parágrafo anterior, temos os estados A e B ocupados. Classicamente, podemos ter a partícula 1 no estado A e a partícula 2 no estado B, mas também podemos ter a 2 em A e a partícula 1 em B. São duas possibilidades. Quanticamente, só temos uma possibilidade: estados A e B, cada um com uma partícula. Isso afeta a contagem de microestados e, consequentemente, a entropia.

Se, ao invés de 2 partículas, tivéssemos N partículas, cada uma em um estado, a contagem clássica geraria N! (fatorial de N) vezes mais microestados do que os que existem de fato, e é daí que vem a necessidade de dividir o número de estados previstos pela contagem clássica por N!, identificada por Gibbs.

Mas esse episódio ainda tem mais desdobramentos. As partículas podem ter spin do tipo n (inteiro) ou do tipo n+½ (que tem sido chamado de “semi-inteiro”). No primeiro caso, elas são classificadas como bósons; no segundo, são classificadas como férmions.

No âmbito da Mecânica Quântica, verifica-se que bósons apresentam certa preferência por ocuparem estados já ocupados por bósons do mesmo tipo, ao passo que dois férmions não ocupam o mesmo estado ao mesmo tempo (a função de onda se anula, nesse caso). Esse fato é o que gera o famoso “princípio” da exclusão de Pauli, que é essencial para que a Química exista. Note: sem indistinguibilidade, não existe “princípio” da exclusão e sem ele não existem moléculas estáveis ou reações químicas relevantes.

Isso significa que, para calcular a entropia via métodos da Mecânica Estatística, é fundamental levar em conta pelo menos duas regras do mundo quântico: a indistinguibilidade das partículas mais simples e sua classificação como bósons ou férmions.

Então, ao invés de contrariar a segunda lei da Termodinâmica, a teoria quântica é essencial para calcular corretamente a entropia e aplicar corretamente a segunda lei.

Onde entra a desordem nesse contexto?

Existem várias situações nas quais o conceito de desordem faz sentido. Imagine, por exemplo, um cristal. Nele, existe um arranjo periódico de itens (moléculas, átomos, fórmulas, etc.). Quando um cristal é aquecido além de certa temperatura (aumentando a entropia durante todo o processo), chega um momento em que a estrutura cristalina se desfaz e o material adquire uma estrutura amorfa. Para a percepção humana, essa estrutura amorfa é menos organizada do que a estrutura cristalina. Ela também possui uma entropia maior. Faz sentido então tentarmos usar a entropia para medir a desordem? Nesse caso e em vários outros, faz, dependendo dos cuidados que tivermos para amarrar os conceitos.

Nesse exemplo do cristal, existem menos arranjos microscópicos possíveis que resultem no estado cristalino do que existem arranjos que resultem em um estado amorfo. Isso significa que a entropia do material amorfo é maior do que a entropia do mesmo material na forma cristalina. Como consideramos a forma cristalina como mais organizada do que o material amorfo, então, neste caso, realmente, maior entropia corresponde a maior desordem. Neste caso, para fins didáticos, podemos usar as palavras “entropia” e “desordem” de maneira intercambiável. Lembrem-se de que esse é um recurso para ajudar a intuição, não uma nova definição de entropia.

Na próxima seção, apresentarei um exemplo no qual a confusão entre desordem e entropia leva ao engano. O importante aqui é que

  • mesmo quando o conceito de ordem/desordem está definido, raciocinar apenas nesse nível para tirar conclusões sobre a entropia não é seguro, e efetivamente leva a conclusões erradas em alguns casos (como veremos a seguir);
  • o conceito de ordem ou desordem não se aplica a todas as situações com que nos deparamos ao estudar Física e nas quais podemos usar o conceito de entropia; isso implica em que entropia e desordem não são sinônimos, apesar de se poder estabelecer uma correlação positiva entre ambos em vários casos. Correlação não é definição.

O falso problema da inversão da segunda lei

Note a seguinte declaração de João Paulo: “Cada nova descoberta científica torna ainda mais difícil a resposta sobre como um sistema tão complexo, quanto é um único átomo, pode ter surgido pela mera interação aleatória de partículas elementares submetidas às quatro forças fundamentais: a força gravitacional, a força eletromagnética, as forças nucleares forte e fraca. Percebam que em nenhum momento Lütz esclarece isso.”

Caramba! Combinação de prótons com elétrons para formar átomos de hidrogênio é um fenômeno comum, que acontece o tempo todo simplesmente porque prótons atraem elétrons. Não é preciso apelar para absurdos assim para defender design inteligente ou criacionismo. Existem argumentos reais que podem ser usados.

A afirmação sobre “cada nova descoberta científica” é falsa. Quanto à última frase, podemos resolver o problema agora mesmo. Você quer saber sobre a formação de um único átomo, não é? Então tratarei disso da forma mais didática que consigo imaginar no momento, evitando tanto quanto possível os detalhes matemáticos, que são o que realmente nos permite entender o assunto e obter resultados que batem perfeitamente com o que se observa e mede. Mas é importante perder o medo dos detalhes matemáticos que compõem as leis físicas até para poder consultar o material técnico e identificar os muitos absurdos qualitativos que circulam por aí propagando desinformação sobre Física, vários dos quais vimos nessas réplicas ao meu artigo original sobre fake news.

Como os físicos fazem para saber o que acontece em cada situação? Montam um sistema com as equações diferenciais das leis físicas relevantes ao problema e resolvem o sistema. O modelo do Big Bang é um exemplo disso, assim como os modelos que tentam explicar como a matéria se comportou nos primeiros instantes do Universo (e que não fazem parte do modelo do Big Bang). As leis da Termodinâmica sempre fazem parte dos modelos, incluindo o do Big Bang.

A aparência de inversão de leis da Termodinâmica baseia-se não em um erro elementar dos físicos, mas no fato de que a razão humana desarmada não consegue lidar corretamente com essas coisas na maioria das situações, especialmente quando se tem pouca experiência em lidar com as equações diferenciais desses modelos e também com os fenômenos quânticos envolvidos e como eles contribuem para a entropia.

Os resultados gerados por esses modelos são consequências das leis da Termodinâmica combinadas com outras, não violações delas, muito menos inversões.

Apesar de existirem processos que parecem violar a segunda lei da Termodinâmica, o conhecimento técnico das leis físicas nos permite mostrar que não há violação alguma. 

Explicarei qualitativamente (por uma questão de acessibilidade) um exemplo de formação espontânea de átomos que poderia ser vista como uma violação da segunda lei para quem só conhece a área superficialmente. E este exemplo pode ser reproduzido experimentalmente.

Então, a partir das afirmações feitas na réplica, João Paulo entende que a formação de átomos de hidrogênio a partir de um plasma desorganizado de elétrons e prótons violaria a segunda lei da Termodinâmica até por reduzir o número de partículas livres, certo? Mas essa ideia é incorreta.

Imagine uma caixa isolada de volume V e com paredes internas com reflexão total. Inicialmente temos um plasma com N elétrons e N prótons nessa caixa a uma temperatura T. Imagine que essa temperatura corresponda ao mínimo necessário para que o plasma não passe pela recombinação que geraria hidrogênio monoatômico (embora esse fenômeno comum seja considerado impossível por João Paulo, mas vamos adiante).

Imagine que essa caixa seja expandida adiabaticamente até que seu volume fique mil vezes maior (1000V). A expansão (adiabática) causa um abaixamento na temperatura: há trabalho de expansão, mas não há troca de calor com o exterior, o que reduz a energia média por partícula.

Quando a temperatura cai, não há mais densidade de energia térmica suficiente para impedir que elétrons atraídos por prótons permaneçam ligados. Pelo argumento apresentado por João Paulo, esse processo não acontece porque viola a lei segunda lei da Termodinâmica, pois um gás de hidrogênio monoatômico é mais organizado do que um plasma de prótons e elétrons. Houve redução de entropia nesse processo, pois agora temos menos partículas (de 2N passou para N, o que reduz o número de microestados), ou seja, menos desordem do que no início, certo? Errado. O que falta nesse quadro? Quando elétrons se recombinam com prótons para formar átomos de hidrogênio, fótons são criados e emitidos, o que aumenta o número de partículas.

Note ainda mais um detalhe: elétrons e prótons possuem spin ½, isto é, são férmions, o que os obriga a respeitar o “princípio” da exclusão, de Pauli. Isso significa que apenas um férmion (elétron ou próton) pode ocupar um estado quântico por vez. Isso limita o número de estados acessíveis a essas partículas (limita o número de microestados), o que limita o valor da entropia. Já os fótons têm spin 1, são bósons, que não possuem essa restrição e podem ocupar os mesmos estados já ocupados por outros fótons. Isso lhes proporciona um número de estados acessíveis muito maior, o que implica em entropia maior.

Mesmo por um raciocínio qualitativo como este, você já percebe que a entropia total do estado inicial (2N partículas com fortes restrições sobre seus estados acessíveis) é muito menor do que a entropia do estado final (2N partículas, sendo que N delas são compostas e as outras N podem ocupar todos os estados das anteriores e mais uma multidão de outros), além do fato de que o aumento de volume aumenta em muito o número de microestados correspondentes ao macroestado.

O mesmo acontece com as demais reações, incluindo as nucleares mencionadas, conforme já expliquei em outra ocasião. Se você entender direito, verá que cada um dos modelos que descrevem esses processos está em estrita harmonia com a segunda lei da Termodinâmica, mas nem sempre em harmonia com concepções equivocadas envolvendo ordem-desordem e outros itens não confiáveis.

Por curiosidade, o que acontece se você deixar hidrogênio monoatômico em um recipiente por algum tempo? A tendência é que os átomos de hidrogênio reajam entre si para formar pares ligados por uma ligação molecular, convertendo-se em gás hidrogênio. Isso reduz a entropia do sistema? Não, pois essa combinação também libera fótons, que aumentam grandemente a entropia total do sistema, mais do que a redução causada pela combinação dos átomos de hidrogênio para formar moléculas.

De novo, isso foi só para dar um exemplo qualitativo mais acessível, mas o mesmo se aplica a outras reações de formação de partículas compostas, inclusive as nucleares. Faz sentido agora?

O demônio de Maxwell

Fui acusado de tentar enganar ao apresentar o exemplo de um gás em um recipiente isolado no qual se introduzem divisórias sem alterar a entropia.

O artigo confunde introduzir paredes no recipiente com separar manualmente moléculas e usa essa distorção para afirmar que descrevi um experimento impossível que consumiria grande quantidade de energia e reduziria em muito a entropia do sistema. E ainda convidaram o demônio de Maxwell a entrar de penetra na festa.

Em primeiro lugar, note-se que não me referi a subdividir um gás com vários tipos de moléculas e então dividir as moléculas colocando cada tipo em uma divisória. Nada disso! O comentário feito no artigo de João Paulo fala como se fosse esse o caso.

Referi-me a um gás somente, não a uma mistura de gases. O gás está em um recipiente que recebe (ou perde) divisórias sem que a entropia seja alterada.

Além disso, divisórias suficientemente finas, com baixíssima massa e sem atrito com seu trilho praticamente não consumiriam energia ao serem colocadas no recipiente.

Quanto à suposta redução de entropia, o assunto aqui é justamente o paradoxo de Gibbs, que já expliquei. Lembrem-se de que esse paradoxo é resolvido pela indistinguibilidade das partículas. Resolvido esse suposto paradoxo pelo uso correto das propriedades quânticas das partículas que compõem o gás, o resultado é que a entropia é a mesma antes e depois da adição ou remoção das divisórias no recipiente.

Para complementar, note que a entropia pode parecer maior no caso do recipiente sem paredes internas por causa de uma ideia equivocada. Essa ideia consiste em imaginar-se que poderíamos intercambiar as posições de duas partículas em cantos opostos de um recipiente e isso implicaria na existência de 2 microestados correspondentes ao mesmo macroestado. Se introduzíssemos divisórias, esse intercâmbio seria impedido e isso reduziria a entropia. Esse raciocínio é falso por causa da indistinguibilidade das partículas, conforme a seção anterior.

E se tivermos uma mistura de gases? Se essa mistura de gases for homogênea, podemos ainda assim introduzir as divisórias no recipiente sem alterar a entropia.

Se alguém pensar em tentar contestar a indistinguibilidade das partículas do mesmo tipo, lembremos mais uma vez: sem indistinguibilidade de partículas, não existe o “princípio” da exclusão de Pauli e, sem este, não existe Química — todos os elétrons ocupariam o subnível 1s de todos os átomos exceto por breves momentos logo após serem excitados. Não haveria moléculas estáveis ou reações químicas relevantes. A vida seria impossível.

E por que abordamos este assunto mesmo? Porque comentei, na resposta a Eberlin, que a formação de hádrons a partir de um plasma de quarks submetido a expansão volumétrica não implica em redução de entropia, antes pelo contrário. A divisão do plasma em si em partes menores não afeta a entropia, ao passo que a expansão implica em um enorme aumento de entropia.

Fez sentido agora? Se João Paulo ainda acha que tento enganar alguém com essas explicações, procure informar-se pelo estudo de livros didáticos de Mecânica Estatística e confira o que eu disse.

Problemas basilares de teorias quânticas?

João Paulo afirma que “todas as teorias quânticas apresentam os mesmos problemas basilares:

  • “nenhuma delas leva em consideração a Força Gravitacional em seus modelos matemáticos;
  • “nenhuma delas explica realmente como a Segunda Lei da Termodinâmica foi invertida para que fosse possível ocorrer a auto-organização dos sistemas complexos no universo.”

Vou resistir à tentação de comentar sobre o conceito de gravidade como uma força. Vamos ao que interessa.

Primeiro, note-se a referência a “todas as teorias quânticas”. Quando se faz esse tipo de afirmação, basta um contraexemplo para provar a falsidade da alegação.

A M-Theory é um exemplo de teoria quântica que leva em conta a gravitação de maneira coerente com os demais efeitos quânticos. Isso prova que o primeiro item é falso. Eu poderia seguir adiante e mostrar como essa alegação é falsa para modelos matemáticos que tratam do mundo quântico em geral, inclusive os que publiquei em revistas especializadas de Física, mas um exemplo já é suficiente.

Quanto ao segundo item, já expliquei que se trata de um erro conceitual básico que pode ser resolvido com um pouco de estudo na área de Mecânica Estatística. Note que é possível deduzir todas as leis da Termodinâmica a partir da Mecânica Quântica e da Teoria Quântica de Campos, como fazemos no domínio da Mecânica Estatística. Esta teoria, reproduz a partir de leis do mundo microscópico (leis quânticas) tudo o que a Termodinâmica diz, mas não para por aí e dá resultados que transcendem ao que a Termodinâmica é capaz de dizer sobre o mundo físico. Em diversas questões para as quais a Termodinâmica fica sem respostas, a Mecânica Estatística brilha, mas no domínio em que ambas se interceptam, elas concordam.

Além disso, depois de tudo o que expliquei, já deve ter ficado evidente que o segundo item é falso. Se não ficou, procure livros didáticos de Mecânica Estatística e estude para conferir o que eu disse. Esse é um assunto bem básico e de domínio público.

Para completar, os modelos usados na Física para estudar possibilidades sobre o que teria ocorrido com a energia e a matéria logo após a criação incluem as leis da Termodinâmica em seu sistema de equações. A alegação de violação é falsa e só convence quem não tem conhecimentos técnicos na área e não tirou tempo para estudar os detalhes matemáticos do assunto.

Processos não dirigidos?

É importante frisar que existem regras que regem a realidade física, leis físicas. Então não se pode falar em processos não-dirigidos. Leis físicas dirigem. Além disso, segundo a Bíblia, as leis físicas vêm de Deus, ou seja, correspondem às regras usadas por Deus para manter a realidade existindo e funcionando. É importante eliminar essa falsa dicotomia (mais uma falácia): processo guiado por Deus intencionalmente ou processo que decorre das leis físicas? O segundo é um caso particular do primeiro.

Não temos só a palavra da Bíblia: temos a confirmação de que os ensinamentos bíblicos sobre Deus como Criador e Mantenedor da realidade física implicam no princípio da ação mínima do qual deduzimos as leis físicas e vemos que os resultados que obtemos são tão exatos quanto as aproximações que fazemos durante os cálculos.

É importante destacar que os modelos com que realmente trabalhamos não tratam da criação espontânea do universo. Por outro lado, existem, sim, processos espontâneos, como os exemplos que mencionei e que podem parecer violar a segunda lei da Termodinâmica para quem só conhece conceitos qualitativos vagos.

Por outro lado, há modelos que tratam de formação de núcleons (prótons e nêutrons) a partir de plasma de quarks. Esses modelos são meras aplicações de leis físicas, inclusive as da Termodinâmica. Quem quiser apontar erros em algum deles, fique à vontade, mas faça isso em um nível técnico, mostrando exatamente onde estão os erros de cálculo, não meramente com base em “acho que isso viola a segunda lei da Termodinâmica porque o estado final parece mais organizado do que o inicial”. Isso não é argumento válido. Se quiser contestar, vá aos detalhes técnicos.

Combatendo espantalhos

Um dos inúmeros problemas causados por erros conceituais é o de formular argumentos para combater ideias que não existem (argumento do espantalho), como os que temos visto nesse debate. Eu costumava imaginar que essas distorções provavelmente originavam-se em simples ignorância, mas depois do que vi neste debate em termos de distorções grotescas do que escrevi e com afirmações categóricas de que tenho más intenções, já questiono se esses erros são mesmo cometidos em boa fé ou se são estratégias de pessoas manipuladoras e sem compromisso com a verdade para conseguir adeptos e cancelar toda a resistência.

As teorias quânticas e relativistas, bem como os modelos bem fundamentados nelas (sem hipóteses mirabolantes), não dizem que a realidade surgiu espontaneamente, apesar de existir uma discussão filosófica paralela a respeito disso. O Big Bang, por exemplo, não dá pista alguma sobre como teria sido a criação do universo, muito menos é capaz de dar qualquer pista sobre a causa desse fenômeno. Não faz sentido algum tentar argumentar contra essas coisas para estabelecer teses criacionistas.

Infelizmente, ainda temos muitos erros conceituais para cobrir.

Colapso gravitacional

Usei a expressão “colapso gravitacional” com referência a modelos de formação das primeiras estrelas. Esses modelos, que não considero realistas, tratam de colapso espontâneo de partes mais densas de nuvens de hidrogênio e hélio na fase escura do universo. Isso não corresponde ao que acredito ter causado a criação das primeiras estrelas. Já comentei sobre isso mais de uma vez, mas insistem em repetir essas distorções.

Mas uma vez, o texto da réplica tenta colocar palavras em minha boca, dando um falso testemunho a meu respeito, como se já não bastassem as demais falácias.

Por outro lado, são conhecidas várias situações em que o colapso gravitacional acontece (não me refiro aqui ao que gera buracos negros). Se uma nuvem de gás ultrapassar certa densidade crítica (tipicamente por causa de um fator externo), a gravidade vence. Isso não é tão difícil de prever pelas leis físicas (as de verdade, não essas fantasias qualitativas que alguns têm usado) e pode ser visto na prática em inúmeros exemplos.

É interessante lembrar mais uma vez os sistemas planetários se formando até mesmo nas nossas vizinhanças galácticas. Há muitos exemplos, cada um em um estágio diferente do processo, exatamente como vemos nas simulações (que são resoluções de sistemas de equações de leis físicas dadas condições iniciais).

De novo, isso não é ir contra o criacionismo, apenas a constatação de que existe muita coisa ao nosso redor que é o produto da ação contínua das leis físicas (ou seja, ação contínua de Deus). Não precisamos crer que cada pedrinha que encontramos à borda de um riacho foi esculpida de maneira especial pela mão de Deus na semana da criação. A erosão produz essas coisas.

Por outro lado, todas as estimativas que fazemos sobre probabilidades de surgimento espontâneo (ou via leis físicas apenas) resultam em probabilidades inimaginavelmente pequenas, muito além do limite do que aceitamos como impossível. Mas esse não é o caso de objetos astronômicos, antes pelo contrário.

Se restar alguma dúvida, podemos tratar disso um pouquinho mais de perto como fiz no caso da formação de átomos e moléculas de hidrogênio a partir de plasma.

O problema da antimatéria que falta

Esse tem sido um dos argumentos ingênuos mais usados contra o Big Bang. Ingênuo porque não tem a ver com o modelo em si e porque o apresentam como se causasse algum embaraço.

Vou repetir até que parem de errar nesse ponto: o modelo do Big Bang não diz coisa alguma sobre a criação da matéria, nem sobre sua estrutura ou suas transformações. Ele só diz que o espaço se expande com o tempo desde a criação do espaço-tempo (universo), concordando com Hebreus 1:2 e 11:3 que diz que Deus criou o tempo. Ele implica em que o universo foi criado, mas não dá pistas de como teria sido o processo, muito menos oferece qualquer sugestão sobre a causa da criação.

Mas o problema da antimatéria existe e é estudado por profissionais da área. Porém, a forma como ele tem sido mencionado por defensores do universo jovem induz ideias incorretas. Tempos atrás, assisti uma breve entrevista concedida por um ativista do universo jovem que tem por hábito falar sobre temas fora de sua especialidade (com as consequências que seriam de se esperar) e mencionando uma versão espantalho (muito distorcida mesmo) de uma explicação minha sobre esse problema. Então vale a pena esclarecer esse ponto.

O princípio da ação mínima, deduzido a partir de ensinamentos bíblicos, nos permite deduzir as leis físicas por diferentes caminhos. Um deles é o método de Euler-Lagrange. Outro é o de Hamilton. Porém, no contexto da antimatéria “sumida”, o método mais relevante é o de Nöther.

Na segunda década do século XX, Emmy Nöther provou um teorema importantíssimo: o princípio da ação mínima implica em que cada simetria da natureza gera uma lei de conservação. Mais precisamente, a cada simetria diferenciável correspondente a ações locais, corresponde uma corrente conservada. Em trabalhos subsequentes, esse teorema foi provado para situações ainda mais gerais do que o escopo usado por Nöther inicialmente. Eu mesmo já trabalhei nessa área.

Um exemplo de simetria da natureza é a translação no tempo: as leis físicas não mudam com a passagem do tempo. É por isso que existe a primeira lei da Termodinâmica, a da conservação da energia.

Outro exemplo é o da translação no espaço: as leis físicas são as mesmas em toda parte, o que gera a lei da conservação do momentum.

Na verdade, conservação de energia e momentum são aspectos de uma mesma lei (conservação de energia-momentum-tensões), pois essas coisas são componentes de um tensor em 4 dimensões. Por causa da proporcionalidade entre massa inercial e energia, a lei da conservação de energia implica na lei da conservação de massa inercial.

As leis físicas também não dependem da orientação no espaço, o que gera a conservação de momentum angular.

A conservação de carga emerge do que pode ser representado como simetria em relação à fase da função de onda (𝜓, função que representa o estado quântico de um sistema).

A lista prossegue, mas o fato é que várias simetrias existem e geram essas leis.

Agora vamos ao outro lado da moeda. Essas simetrias passaram a existir em algum momento após a criação. A simetria de translação no tempo, por exemplo, obviamente não é válida no início do universo, pois o tempo acabara de nascer e não existe um “antes” disso, o que quebra a simetria. Em outras palavras, a lei da conservação da energia não era válida ainda quando o tempo (universo) nasceu.

Isso significa que encontramos uma explicação naturalista para a origem da energia no universo? Não, apenas que a criação de energia no início do universo é compatível com a base das leis físicas, sem violação alguma.

Há também outra relação entre energia e tempo (uma dualidade que posso mostrar quando for útil) que induz criação de energia diante da criação do tempo.

No âmbito criacionista, acreditamos que Deus criou e mantém o espaço-tempo com suas leis básicas e essa criação induziu a criação de energia, da qual inúmeros processos decorrem em função das leis físicas (as de verdade, não os espantalhos qualitativos que circulam por aí e induzem argumentos falsos).

Mas como esse assunto se relaciona com a antimatéria “sumida”? Primeiro, temos que entender de onde vem a ideia de sumiço.

Em um ambiente com energia suficiente, partículas são constantemente criadas e destruídas, mas esses processos precisam obedecer às leis de conservação. Quando não é possível respeitar todas as leis de conservação em algum processo, ele não acontece.

Se um fóton gama com a energia certa passa suficientemente próximo do núcleo de algum átomo pesado, o suficiente para transferir parte de seu momentum, ele pode ser aniquilado e, em seu lugar, surge um par elétron-antielétron. Não pode ser um elétron apenas porque essa reação não conservaria a carga, nem o número leptônico e nem o spin. Para que todas as leis sejam respeitadas, a criação desse elétron vem acompanhada da criação de um antielétron.

Pode-se pensar no processo com a excitação do vácuo pelo fóton, e que o vácuo então produz um par elétron-antielétron. Intuitivamente, isso pode parecer estranho, mas isso que vemos nas regras matemáticas que regem esses fenômenos.

Isso é verdade não apenas para a criação de elétrons mas também para outras partículas. 

Vejamos agora um exemplo diferente: um nêutron isolado eventualmente converte-se em um próton mais um elétron (para conservação de carga) e mais um antineutrino do elétron (para conservação do número leptônico e do spin). Nesse caso, a criação de um elétron não exigiu a criação de um antielétron. Estou omitindo detalhes intermediários da reação aqui, mas o que mencionei está certo em termos de reagentes e produtos finais. Neste caso, não temos criação de elétrons e antielétrons, ou de prótons e antiprótons.

Mas vamos supor que todas as reações a partir das partículas iniciais fossem tais que obrigassem a produção de pares partícula-antipartícula. Nesse cenário, seria de se esperar que houvesse uma quantidade igual de matéria e antimatéria no universo. O problema é que temos muito mais matéria do que antimatéria. Para onde teriam ido todas as antipartículas?

Por mais absurdo que possa parecer, essa questão tem sido colocada por ativistas do universo jovem como uma evidência contra a expansão do espaço ao longo do tempo (Big Bang)! Para conseguir essa proeza, usam uma versão espantalho (fake) do Big Bang, como se fosse uma “teoria” que tenta explicar a origem da matéria no universo e falhasse na questão da antimatéria “sumida”.

Ok, isso pode não ser um problema para o Big Bang, mas é um problema a ser resolvido. O que sabemos sobre isso?

Esta é uma área ativa da pesquisa em Física de Partículas e o problema não está resolvido oficialmente. Porém, lembremos que a esperada simetria entre matéria e antimatéria se baseia, entre outras coisas, na hipótese de que todas as simetrias atuais já estavam presentes no universo quando as partículas atuais foram criadas.

Conforme já expliquei, não faz sentido esperar-se que a simetria de translação no tempo já existisse quando o tempo nasceu, e temos bons motivos para crer que outras simetrias também não existiam, o que significa que as correspondentes leis de conservação ainda não estavam em vigor.

Sem as leis de conservação que forçam que matéria e antimatéria sejam criadas em quantidades iguais, elas podem ser criadas em quantidades diferentes. Se tivéssemos, por exemplo, 1000 unidades de matéria e 999 unidades de antimatéria, 999 unidades de uma seriam aniquiladas juntamente com 999 da outra e sobraria apenas 1 unidade de matéria.

O fato é que temos mais matéria do que antimatéria na região visível do universo e isso intriga os físicos da área, que estão estudando o assunto.

Tudo indica que o problema está em utilizar-se alguma hipótese equivocada sobre as condições iniciais do universo, principalmente a validade de todas as simetrias atuais.

E sempre há pessoas que imaginam que essas coisas (aparecimento de energia, desaparecimento de antimatéria) sejam indícios de que o universo sempre existiu, nunca foi criado. Outros tomam esses argumentos do universo eterno e os usam como se apoiassem o universo jovem, por mais contraditório que isso seja.

Cada um tem liberdade de acreditar na desinformação ou informação que quiser.

No próximo artigo da série, vamos tratar de mais alguns problemas conceituais do artigo de João Paulo.

(Eduardo Lütz é bacharel em Física e mestre em Astrofísica Nuclear pela Universidade Federal do Rio Grande do Sul)

quinta-feira, janeiro 12, 2023

Resposta ao texto do Dr. Eberlin sobre Big Bang

Escrevi recentemente um artigo sobre uma corrente de fake news que afirma que o James Webb Space Telescope (JWST) invalidou o modelo do Big Bang. Esse artigo recebeu uma réplica do Dr. Marcos Eberlin (veja aqui). O objetivo aqui é responder aos pontos mais importantes dessa réplica. Itens que precisam de aprofundamento adicional são tratados em outros artigos, para que este não fique ainda mais longo. Infelizmente, a quantidade de problemas conceituais da réplica é grande e requer esclarecimentos.

Atenuante

Antes de falar diretamente dos numerosos erros presentes na réplica, convém mencionar um dos fatores atenuantes que nos ajudam a entender como pessoas tão inteligentes e competentes em suas especialidades, como Marcos Eberlin, Adauto Lourenço e outros, podem, ao mesmo tempo, manter ideias equivocadas sobre uma série de assuntos.

Trata-se de um excesso de confiança na intuição e no que se fundamenta nela, como a razão humana desarmada e a organização sistemática do entendimento coletivo, também conhecida como Filosofia.

A razão humana baseada na intuição não funciona corretamente em certos domínios. Ela “dá pro gasto” em assuntos restritos à prática cotidiana, mas tende a falhar miseravelmente em tudo o mais. É por isso que precisamos dos métodos matemáticos para lidar corretamente com diversos domínios da realidade. Em particular, fenômenos relativísticos e quânticos estão entre os mais contraintuitivos. É justamente onde a razão humana mais falha que os métodos matemáticos da Ciência mais brilham, são mais necessários e dão resultados mais surpreendentes. Aliás, foi justamente por isso que pioneiros como Roger Bacon e Galileu Galilei propuseram que a Ciência Matemática (expressão de Roger Bacon) substituísse a Filosofia (organização do entendimento coletivo, das ideias que parecem razoáveis) nos estudos mais profundos em todos os domínios.

O Big Bang está nesses domínios. É por isso que até mesmo muitos físicos tendem a manter erros conceituais quanto a esse modelo, pois as pessoas fluentes em Relatividade Geral (que depende de Cálculo Tensorial aplicado a espaços semi-riemannianos) são relativamente poucas. Mesmo entre os que possuem os pré-requisitos técnicos para lidar com o assunto, é comum ocorrer de a pessoa inadvertidamente usar a intuição onde ela falha e esquecer de conferir matematicamente alguma ideia equivocada, o que pode induzir até mesmo um profissional a fazer alguma afirmação equivocada. Um exemplo é a ideia popular de uma singularidade no início do Universo.

Se profissionais podem cair em armadilhas quando não conferem cada detalhe matematicamente, imagine o que acontece com quem não é da área e resolve emitir opiniões sobre o assunto.

Mais uma vez, esses pontos ajudam a entender por que pessoas inteligentes e competentes em suas respectivas áreas, como Marcos Eberlin, Adauto Lourenço e outros, conseguem exibir tantos erros conceituais por parágrafo, quando falam em Cosmologia. Não é a área deles e constantemente demonstram não dominar os pré-requisitos necessários para lidar adequadamente com esses assuntos. Essa situação gera grande quantidade de premissas falsas, que alimentam diversas outras falácias. O desconhecimento nessa área não é vergonha, mas demonstra publicamente que as opiniões deles sobre esses assuntos não têm respaldo técnico. Esse é mais um motivo para que cada um fale apenas daquilo que domina tecnicamente.

Desqualificações

Esse assunto tem tudo a ver com a seção anterior. Há muitos que, além de não ter os pré-requisitos para lidar com assuntos sobre os quais divulgam opiniões fortes, ainda se baseiam na razão humana desarmada em domínios nos quais sabemos que ela falha miseravelmente. Divulgação assim é um desserviço não apenas ao criacionismo, mas à divulgação de conhecimento em geral. Infelizmente, é o que mais encontramos online por todos os lados.

Esclarecimentos que tenho fornecido a diversos formadores de opinião sobre tópicos que são minha especialidade e não a deles têm tido efeito em reduzir o problema. Houve época em que todas as palestras criacionistas a que assisti terminavam com argumentos do espantalho sobre Big Bang. Todos, biólogos, químicos, teólogos, filósofos, historiadores, educadores, paleontólogos, geólogos... todos pareciam considerar-se especialistas em Cosmologia e Astrofísica. Felizmente, a maioria dos divulgadores com quem conversei sobre o problema percebeu a situação e passou a se concentrar em sua especialidade.

Infelizmente, alguns preferiram as opiniões de pessoas de sua rede de confiança, o que faz sentido, que parecem especialistas, mas dão inúmeras demonstrações de também não possuir todos os pré-requisitos necessários para entender o assunto de que falam.

Meu propósito é defender a verdade, doa a quem doer. Todos temos falhas, todos temos lacunas de entendimento, lacunas de conhecimento e pontos comportamentais a melhorar. Entretanto, isso não nos dá liberdade de divulgar erros conceituais sobre temas que não dominamos. Quando erros conceituais importantes forem divulgados e eu tiver oportunidade de alertar o público sobre o problema, assim o farei, mesmo que isso seja entendido como desqualificação de alguém.

Associações com ateus

Não, o que achei irônico não foi o uso de argumentos de ateus. Para quem não quiser se dar ao trabalho de ler essa seção do meu artigo novamente, resumo aqui a ironia: criacionistas do universo jovem usaram argumentos falsos de Eric Lerner em favor do universo eterno.

Eles querem defender o universo eterno? Claro que não. Então por que usam esses argumentos? Porque têm dificuldades técnicas para avaliar suas consequências. Intuitivamente, lhes parece correto e coerente. Não é a área deles.

Sempre tenho defendido o diálogo entre todos os que estão abertos a isso e defendo que se julguem os argumentos por seu mérito, independentemente da origem. Acho ótimo quando cristãos dialogam com ateus, desde que todos o façam racional e respeitosamente.

Também defendo que tudo possa ser discutido e questionado, seja para correção de ideias equivocadas, seja para aprofundamento. Mas não tenho misericórdia de argumentos falsos. O respeito por ideias alheias não deve opor-se à verdade. Se isso ofende alguém, paciência. Meu compromisso é com a verdade.

Lista dos principais erros

Tenho muito a dizer sobre cada uma das seções da réplica do Dr. Eberlin; explicar por que os conceitos utilizados são incorretos, quais as falácias empregadas, o que sabemos de fato sobre cada um daqueles itens, e assim por diante. Infelizmente, um texto assim ficaria tão longo que não caberia neste blog. Seria material para um livro. Isso exige estratégias para encurtar o texto.

Com esse objetivo, apresento a lista dos principais erros conceituais que observei na réplica, comento resumidamente alguns pontos e reservo outros detalhes para artigos específicos sobre cada tópico em que houver tal necessidade.

Falácias

Várias falácias foram amplamente utilizadas na réplica. Cito algumas:

Falsa premissa (parte-se de uma ideia falsa como se fosse verdadeira para defender algo). Esta é uma das mais usadas na réplica. Exemplos: elétrons feitos de quarks; redução de entropia do Universo em função da formação de hádrons; Big Bang como modelo da origem do universo (“Big Bang Primordial”, sendo que o modelo do Big Bang apenas implica na criação, mas não trata dela); galáxias gigantes e supermassivas no início do Universo; argumentar sobre o modelo do Big Bang como se tratasse de expansão de matéria em um espaço euclidiano, ao invés da expansão de uma hipersuperfície em um espaço quadridimensional hiperbólico (isso leva a inúmeros argumentos do espantalho, vários dos quais estão presentes na réplica).

Equívoco (usar palavras com mais de um sentido, partir de uma premissa em um sentido para justificar uma conclusão em outro sentido). Exemplo: chamar o “Big Bang Expandido” de modelo, quando é um imenso quebra-cabeças no qual são colocadas muitas peças excelentes juntamente com peças que não se encaixam, o que serve de base para vários argumentos por equívoco.

Composição (tomar a parte pelo todo). Exemplo: ataque a uma peça que não se encaixa no “Big Bang Expandido” na tentativa de derrubar todas as outras.

Non sequitur (a conclusão não é consequência da premissa). Exemplo: citar nuvem de Oort e outros fenômenos do Sistema Solar para defender a ideia de universo jovem.

Espantalho (distorcer modelos, ideias e argumentos alheios para que fique mais fácil combatê-los). Exemplos: nuvem de gás expandindo-se contra o nada (algo que não existe no modelo do Big Bang ou assemelhados); pânico entre astrofísicos, modelos e simulações como se fossem apenas imaginação (versus conjuntos de leis físicas aplicadas a dado contexto), etc.

Deus das lacunas (Deus Se esconde nas lacunas de conhecimento; o que Ele faz é inexplicável, não tem método e não segue regras; o que é explicável não é feito por Deus). Exemplo: rejeitar modelos que mostram como leis físicas geram estrelas e galáxias, pois a Bíblia diz que o Universo foi criado por Deus, e se Ele criou, então não pode haver um processo ou explicação via leis físicas.

Falsa dicotomia (tratar de possibilidades como se fossem mutuamente exclusivas, quando não são). Exemplo: as galáxias se formaram como consequência de leis físicas ou foi Deus quem as criou? (Ignorar que as principais ações de Deus no Universo, que sustentam todas as demais, são justamente as manifestações de leis físicas.)

Argumento da projeção mental (imaginar que a realidade coincide com nossa intuição sobre ela). Tipicamente, essa falácia consiste em ignorar o que mencionamos sobre as limitações da razão humana e, por isso, deixar de usar a Matemática em domínios nos quais só ela funciona.

Medidas de distâncias e intervalos de tempo

Eberlin falou como se a fórmula simples que apresentei não funcionasse em função de fenômenos relativísticos. Porém, as correções relativísticas no contexto em que a apliquei são muito menores do que as margens de erro nas medidas de distância. Moral da história: a fórmula funciona. Explico melhor em outro artigo.

Galáxias minúsculas como se fossem gigantes

GL-z13 e DLA0817g são apresentadas como exemplos de galáxias gigantes, supermassivas e maduras.

DLA0817g: é vista em uma época em que o Universo tinha cerca de 1,5 bilhão de anos de idade, segundo estimativas atuais. Sua massa era de 72 bilhões de massas solares. Isso pode parecer muito, mas a Via Láctea tem uma massa de mais de 1 trilhão de massas solares. A DLA0817g não é uma galáxia grande para os padrões atuais, apenas se a compararmos com galáxias anãs. Seu diâmetro é de cerca de 13 mil anos-luz, o que é minúsculo comparado com a Via Láctea, que tem mais de 100 mil.

GL-z13 ou GLASS-z13: possui massa entre 0,05% e 0,08% da massa da Via Láctea. Isso corresponde a cerca de 15% da massa da galáxia anã conhecida como Pequena Nuvem de Magalhães. Seu tamanho é da ordem de 5% do da Via Láctea (cerca de 3 mil anos-luz; a Via Láctea tem mais de 100 mil anos-luz de diâmetro). O brilho intrínseco dela está de acordo com esses parâmetros (ou seja, é fraco). Os dados também indicam uma metalicidade da ordem de 2% da solar, o que faz sentido para uma galáxia em seus primeiros estágios de formação. Em que esse pessoal se baseia para afirmar que se trata de galáxias gigantescas, superbrilhantes e com metalicidade solar?

Nuvem expandindo-se contra o nada

Esse é um dos pontos em que a falta de familiaridade com o assunto cobra seu alto preço. Não existe algo sequer parecido com isso no modelo do Big Bang, até porque as equações do modelo não poderiam prever algo que vai contra elas próprias. O resultado dessa ideia absurda seria um colapso gravitacional sem direito a apelo a um processo de inflação para impedir a formação de um buraco negro de proporções cósmicas.

Essa ideia é fisicamente absurda por essa e por outras razões, e suas variantes têm sido usadas em argumentos do espantalho contra a ideia de que o espaço-tempo foi criado, mas com a distorção de que o que teria sido criado seria matéria em um ponto do espaço inicialmente vazio. Quem usa esses argumentos ignora tudo o que é essencial ao modelo do Big Bang.

Explicamos isso em outro artigo. É importante entender a ideia de Lemaître sobre o Universo como a hipersuperfície de uma hiperesfera cuja direção radial é uma dimensão de tempo, superfície essa que está toda preenchida de matéria e energia desde o início.

Falha em entender a dimensionalidade do modelo do Big Bang

A tal nuvem que se expande contra o nada é apenas uma das consequências de se ignorarem as características reais do modelo e de usar como fonte de informação apenas material divulgado por quem não tem conhecimentos técnicos na área.

Trata-se de um espaço hiperbólico quadridimensional cuja parte espacial se expande com o tempo, havendo ou não matéria (que entra via parâmetros do modelo). Se há matéria, ela é “arrastada” pela expansão do espaço.

De qualquer forma, mesmo entender um pouco disso não basta para equipar alguém a entender exatamente como funciona o modelo, muito menos a gerar argumentos sobre o assunto, que acabam recaindo na categoria do espantalho por se tratar de algo fora dos limites normais da razão humana. Não há o que fazer quanto a isso, exceto usar explicitamente métodos matemáticos adequados.

“Big Bang Primordial”

Pode-se usar essa expressão como referência à criação do universo? Claro. Pode-se usar essa expressão para referir-se ao modelo de Lemaître ou sua generalização (eliminação da hipótese de curvatura positiva)? Aí não faz sentido, pois esse modelo não fala diretamente da criação. O assunto dele é a evolução da geometria do espaço-tempo ao longo do tempo como consequência das leis da Relatividade Geral e da Termodinâmica. A criação do Universo está fora dos limites de validade do modelo.

Porém, como o domínio do modelo no tempo se inicia com o tempo macroscópico (a sequência de acontecimentos que vivenciamos), podemos inferir a criação do Universo a partir desse modelo. Percebe a diferença?

“Big Bang Expandido” como se fosse um modelo

Trata-se de um enorme quebra-cabeças com muitas peças que se encaixam de maneira excelente, outras que não se encaixam bem e outras que faltam.

Matéria sem antimatéria

Este assunto é interessante, mas se encaixa na falácia do argumento non sequitur (não se sabe como surgiu a matéria do Universo e, portanto, o Big Bang está errado). Trata-se de um problema que preocupa muitos físicos, mas, além de estar fora do escopo do modelo do Big Bang, ainda se trata de um falso problema que pretendo explicar em outro artigo.

Temperatura de 2,7 K

Eberlin fala como se isso fosse alguma hipótese absurda sobre as condições iniciais do Universo (espero que tenha sido apenas uma forma acidental de expressar suas ideias e não um erro conceitual de fato). Na verdade, para simplificar os cálculos, Lemaître (autor do modelo do Big Bang) imaginou o Universo aproximadamente homogêneo em larga escala (isso não é realmente necessário, mas simplifica o problema para resolvermos as equações manualmente). Ele ainda imaginou a parte espacial do Universo como sendo a hipersuperfície tridimensional de uma esfera quadridimensional, sendo que a direção radial da esfera seria o tempo. Essa esfera nasce toda preenchida, com raio muito pequeno, altíssima densidade e, portanto, temperatura elevadíssima. Se essas condições iniciais ocorreram, então hoje em dia deveríamos observar uma radiação cósmica de fundo também aproximadamente homogênea, aproximadamente com a mesma temperatura de corpo negro em todas as direções (exceto pelo efeito Doppler do nosso deslocamento em relação ao referencial sincrônico). Isso é exatamente o que se observa, inclusive com a temperatura de 2.72548±0.00057 K. Não se trata de especulação, mas de medidas obtidas. Mais uma evidência em favor do modelo do Big Bang.

Falso pânico

Não há pânico entre os astrofísicos, como Eberlin sugere. Trata-se do efeito troll: algumas pessoas leram apressadamente o título bem-humorado de um artigo e um tuíte e espalharam conclusões mirabolantes.

Química como se fosse oposta à Física em certos casos

Na verdade, o assunto da Física é tudo o que ocorre em qualquer universo físico. Como isso é abrangente demais, físicos concentram-se nas leis físicas e as utilizam para prever e entender fenômenos; também estudam como descobri-las e quais são suas relações entre si e com todos os fenômenos possíveis; nesses estudos, fica bem óbvia a insuficiência da razão humana e a eficácia e eficiência de métodos matemáticos. A Química trata de uma parte dos fenômenos regidos pela Eletrodinâmica Quântica, que é parte da Física. Essas coisas são levadas em conta nos modelos de Astrofísica.

Desprezo por simulações

Na réplica vemos algo que já vinha ocorrendo há anos: tratar simulações como se fossem faz-de-conta, pura imaginação. Na verdade, para fazer uma simulação, partimos de leis físicas relevantes para um determinado sistema físico e expressamos essas leis na forma de algoritmos para serem executados por computadores poderosos. O que os algoritmos fazem é calcular o que acontece ao longo do tempo como consequência das leis físicas e das condições iniciais. Essas condições iniciais podem ser observadas ou imaginadas. No caso de alguns modelos de formação de galáxias iniciais, as condições iniciais imaginadas estavam erradas. Mas esses mesmos modelos funcionam bem para condições observadas.

Desprezo por teorias científicas

Em Física, simplificadamente, podemos dizer que teorias são essencialmente conjuntos de leis físicas relevantes para determinado domínio. Essas leis são quase sempre expressas por equações diferenciais. Exemplos: teoria da Mecânica de Newton (três leis de movimento); teoria eletromagnética de Maxwell (quatro leis); Relatividade Especial (três leis de Newton, mais a equivalência entre sistemas inerciais; mais a existência de uma velocidade igual em todos os referenciais); Relatividade Geral (cinco leis da Relatividade Especial e mais uma que relaciona distribuição de energia com curvatura do espaço-tempo). O ápice do conhecimento científico sobre algum domínio da realidade é a correspondente teoria científica. Até mesmo as interpretações feitas pelos pesquisadores da área são tremendamente mais limitadas e menos confiáveis do que essas teorias matemáticas em si.

Desprezo por modelos

Existem os modelos conceituais que todos criamos espontaneamente desde o berço. Há quem tente rebaixar os modelos científicos a esse nível. Em Física, modelos são aplicações de teorias (conjuntos de leis) a casos particulares. Comparar um modelo conceitual com um modelo científico é como comparar uma bicicleta a um avião, ou seja, a diferença é abissal! Por exemplo, o modelo do Big Bang é uma aplicação da Relatividade Geral e da Termodinâmica ao caso particular que é o espaço-tempo como um todo. A quantidade de previsões acuradas geradas por esse modelo é enorme, apesar de se saber que se trata de um modelo incompleto. Outros exemplos de modelos: projetos de circuitos dos mais variados tipos, o que permite toda a tecnologia eletro-eletrônica moderna (aplicações da teoria eletromagnética de Maxwell); modelos de dinâmica do Sistema Solar, que permitem prever acuradamente, entre outras coisas, a posição de planetas e outros objetos no futuro, no presente ou no passado.

Desprezo por exegese bíblica

É preocupante o desdém demonstrado na réplica em relação a se fazerem estudos cuidadosos de textos bíblicos, levando-se em conta a língua original, as expressões idiomáticas, as definições apresentadas pelo próprio texto, o estilo e a estrutura literária; tudo isso é tratado implicitamente com desdém na réplica, como se bastasse uma leitura apressada do texto e não fosse necessário tipo algum de filtro para descartar interpretações incorretas.

Desprezo por hermenêutica bíblica

Também é preocupante o descuido com que interpretações que não se encaixam nem nas definições locais nem no contexto bíblico geral são aceitas e tratadas como se fossem a infalível Palavra de Deus. Essa atitude coloca um selo de infalibilidade na imaginação humana estimulada por uma leitura superficial e descontextualizada de textos bíblicos.

É um desprezo semelhante ao demonstrado na réplica por métodos da Ciência.

Interpretação anacrônica de Gênesis 1

Eberlin usa argumentos forjados por pessoas que também advogam que qualquer um entenderá corretamente textos bíblicos porque Deus o ajudará, independentemente de demonstrar reverência pelo uso de técnicas para evitar interpretações equivocadas. Como resultado dessa atitude, usam apenas a própria intuição (que sabidamente falha em qualquer domínio fora dos limites da prática cotidiana) para interpretar textos bíblicos. O resultado tem sido muitos erros básicos de exegese, a começar por anacronismo.

Um exemplo de anacronismo é atribuir um significado moderno a uma expressão antiga. Exemplo: shamayim como se significasse necessariamente “Universo”, e erets como se necessariamente significasse “planeta Terra”, apesar de o próprio texto explicitamente dizer que essas palavras significam outras coisas localmente (respectivamente, atmosfera e terra firme).

Por que existem tantas interpretações de textos bíblicos incompatíveis entre si? Justamente por causa do desrespeito por princípios de exegese e hermenêutica. A quantidade de doutrinas divergentes em denominações cristãs é grande em função disso, e as interpretações que lhes deram origem não podem estar todas certas.

Pensamento mágico

Em Opus Majus, Roger Bacon fala da luta do misticismo pagão contra a racionalidade cristã. Os pagãos tentavam “explicar” tudo por magia; até mesmo os milagres cristãos eram vistos como atos mágicos de Deus, sem qualquer regra ou explicação possível. Já o cristianismo falava de um culto racional, de leis da natureza estabelecidas por Deus, de ordem e coerência. Após a revolução científica, que Roger Bacon ajudou grandemente a fundamentar, ficou claro que as dicas bíblicas sobre as leis da natureza eram acuradas e aplicam-se até mesmo aos milagres, que são intervenções divinas sempre em harmonia com o caráter divino e, por consequência, com Suas leis.

Obviamente, é preciso conhecer de perto essas leis para perceber isso. Temos um artigo que explica esse assunto. O essencial aqui é que o pensamento mágico de que o que Deus faz não segue lógica e é necessariamente inexplicável é uma ideia de origem pagã que se infiltrou no cristianismo. Foi o contrário dessa ideia que permitiu a revolução científica e é o que está por trás do tremendo sucesso da Ciência Matemática (expressão de Roger Bacon) em todas as áreas em que ela tem sido aplicada (todas as áreas do conhecimento humano, atualmente).

O pensamento mágico induz outras falácias, como a da falsa dicotomia: será que foi Deus quem criou ou foram as leis naturais? Lembremo-nos de que, no criacionismo bíblico, leis naturais são o resultado das ações mais fundamentais de Deus, das quais todas as demais dependem, inclusive os milagres. O que as leis naturais criam (como sistemas planetários que vemos em plena formação em vários estágios) são criações divinas. Essa suposta separação gera ainda a falácia do deus das lacunas.

Uso de Jó 9:8

Essa passagem se encontra em uma seção do livro de Jó que apenas cita as falas dele e de seus amigos, falas essas desabonadas por Deus no capítulo 38. Esse trecho intermediário do livro de Jó serve apenas para entendermos o pensamento deles, nunca para obter qualquer informação sobre a realidade física. Porém, existem passagens legítimas que mencionam Deus estendendo o firmamento (atmosfera, que mantém nas alturas as águas da chuva) sobre a terra (solo, porção seca), como quem estende um cobertor sobre alguém que dorme, ou como quem estende uma tenda para servir de abrigo. Passagens assim não devem ser usadas para chegarmos a qualquer conclusão sobre o Universo como um todo.

Buracos negros primordiais

A réplica os trata como se fossem tentativas ad hoc de explicação. Um dos assuntos discutidos em livros didáticos de Relatividade Geral refere-se aos tipos de buracos negros. Em particular, as leis envolvidas preveem a existência tanto de buracos negros formados por colapso gravitacional quanto buracos negros primordiais, bolas de espaço-tempo formadas com a criação do Universo. A influência desses últimos nos primeiros tempos do Universo deve ter sido colossal. Apesar de sabermos disso há muitas décadas, ainda não vi um modelo astrofísico levando em conta buracos negros primordiais na fase escura do Universo. Mas essa falha é fácil de explicar: a maioria dos astrofísicos só lembra dos buracos negros criados por colapso gravitacional e poucos possuem uma formação mais profunda no âmbito da Relatividade Geral. De qualquer maneira, é um erro não levar em conta buracos negros primordiais e a importância deles tem uma probabilidade altíssima. Porém, para sabermos em detalhes qual é sua influência, é preciso modelar e simular, já que nossa intuição é insuficiente para lidar com essas coisas.

Supostos impeditivos para contração gravitacional

Há algumas décadas, alguém propôs um modelo supostamente criacionista que tentava mostrar que estrelas não podem se formar pelo efeito da própria gravidade do gás inicial. O modelo era simplista, incompleto.

Atualmente, observamos diversas instâncias de sistemas planetários e estrelas em formação em várias partes de nossa vizinhança cósmica. Contra fatos não há argumentos.

A questão é: Quais condições iniciais formam cada tipo de objeto que vemos? Muitas condições têm sido encontradas que levam aos mesmos resultados que observamos na prática. Em alguns casos, ainda não foram encontradas as condições iniciais corretas.

Inflação para impedir o Big Crunch?

Mais uma ideia absurda originada em desinformação. Inflação é um mecanismo de expansão muito mais rápida do que a do Big Bang proposto (de maneira ad hoc) por Allan Guth, no “1980 Texas Symposium”. Seu objetivo não estava relacionado ao que é sugerido na réplica.

A ideia de que todo o material do Universo esteve um dia concentrado em um único ponto do espaço que veio a explodir ou expandir-se rapidamente é fisicamente absurda por vários motivos, como mencionamos. Essa concentração implicaria em que esse material estaria em um buraco negro de proporções cósmicas e nenhuma inflação faria diferença quanto a isso.

O que Guth queria fazer era conseguir explicar de alguma forma como é possível que a hipótese de Lamaître sobre a homogeneidade aproximada do Universo seja tão exata.

A ideia de inflação foi também generalizada para tentar imaginar o nascimento do Universo como um entre uma infinidade de fenômenos que constantemente gera universos ao longo da eternidade. Porém, o próprio Guth conseguiu provar que o tempo necessariamente teve um início mesmo em seu modelo.

Citação infeliz

Eberlin faz uma citação interessante: “Se a ação da 2° Lei da Termodinâmica submete todo o Universo a um aumento contínuo e irreversível da desordem, então, como partículas elementares de quark puderam espontaneamente se unir e gerar três estruturas diferentes e, ao mesmo tempo, compatíveis entre si (prótons, elétrons e nêutrons)? E como essas partículas subatômicas puderam continuar violando a 2° Lei se organizando para que surgissem os fótons, os gases, a matéria de toda a Tabela Periódica (e só matéria, sem antimatéria) e dos demais sistemas ordenados existentes no Cosmos?”

Vejamos os principais erros a começar pelo menos grave, mas que demonstra falta de familiaridade com Termodinâmica:

1. Termodinâmica e desordem: não, a Termodinâmica não fala em aumento da desordem do Universo, mas essa confusão é comum. Até poderíamos fazer vista grossa, em outro contexto. O que temos na Segunda Lei é o aumento de entropia (que não é sinônimo de desordem) com o tempo em sistemas isolados. O Universo é um sistema isolado? Não para os criacionistas. Ainda assim, é válido dizer que a entropia do Universo aumenta com o tempo. O problema são algumas conclusões erradas que alguns que não são da área tiram disso.

2. Quarks como geradores de “prótons, elétrons e nêutrons”?! Desde quando elétrons são feitos de quarks?! Essas partículas violariam a Segunda Lei da Termodinâmica para formar fótons (também seriam feitos de quarks?!), os gases e toda a Tabela Periódica e os demais sistemas existentes no Cosmos.

O pior é que, como esses assuntos estão longe do cotidiano do público em geral, enganos assim podem soar como bons argumentos. Então vamos tentar desfazer um pouco dessa confusão sem entrar em detalhes técnicos inacessíveis aos não iniciados.

Entropia: pode ser definida de várias maneiras mais ou menos equivalentes, mas nunca como desordem. Podemos, sim, associar entropia com desordem em certas circunstâncias especiais, dependendo de como definimos desordem. Como é comum utilizarmos a desordem como recurso didático para explicar entropia, quem não conhece o assunto em primeira mão tende a pensar que entropia e desordem são sinônimos.

Entropia tem relação com várias coisas, como indisponibilidade de energia para gerar trabalho, quantidade de informação em um sistema, e até mesmo desordem em alguns casos específicos do cotidiano humano.

Felizmente, não precisamos de analogias didáticas para lidar tecnicamente com esse assunto. Grandezas e leis físicas são definidas por suas características matemáticas, frequentemente expressas como equações diferenciais (ou inequações diferenciais, como é o caso da Segunda Lei da Termodinâmica).

Enunciados verbais de leis e significados de grandezas apenas fornecem uma ideia pálida e distorcida do assunto e não devem ser tomados como base para conclusões importantes.

Mas, enfim, é verdade que a entropia do Universo aumenta (e muito) com o tempo. O leitor deve se lembrar de que um sistema pode baixar sua entropia às custas do aumento da entropia de outro. Isso ocorre muito em todo o Universo, e a expansão do espaço tem um papel importante especialmente nos primeiros instantes. Mas esse é um assunto longo e complexo que merece uma discussão à parte. Adiantamos que o próprio espaço tem entropia e sua expansão por si só causa um aumento de entropia no Universo, mesmo que a matéria não existisse. O aumento de entropia associado à expansão do espaço em si causa a redução de entropia de subsistemas, como se observa no caso do abaixamento da temperatura média do Universo.

Quarks: quanto à questão dos quarks que supostamente geram elétrons, vou me abster de comentar mais sobre o aspecto cômico da declaração e esclarecer logo o assunto.

Quando estudamos as propriedades das partículas subatômicas, encontramos padrões interessantes que nos ajudam tanto a classificar as partículas observadas quanto a prever algumas novas, confirmadas mais tarde. Além disso, as próprias leis físicas já preveem muitos fenômenos e propriedades de partículas, muitas das quais não fazem sentido para a intuição humana.

Entre as propriedades de partículas, temos massa de repouso, carga elétrica, carga de cor, número leptônico, spin, e assim por diante.

Partículas com spin inteiro classificam-se como bósons e não obedecem ao “princípio” da exclusão de Pauli. Partículas com spin inteiro mais meio são classificadas como férmions e obedecem ao “princípio” da exclusão de Pauli.

Entre os férmions fundamentais, encontramos os léptons (elétron, táuon, múon e seus respectivos neutrinos) e os quarks (up, down, top, bottom, charm, strange).

Entre os bósons fundamentais, encontramos partículas como fóton, Z, W, glúon…

Quarks não formam léptons, mas formam hádrons. Por exemplo, prótons e nêutrons (ao contrário dos elétrons) são sistemas complexos formados por quarks que interagem entre si por meio de glúons.

A altíssima densidade que se imagina haver por todo o espaço pouco depois que o Universo foi criado faria com que toda a atual massa do Universo estivesse condensada na forma de plasma de quarks (com glúons), contendo também léptons, diversos tipos de bósons e, possivelmente, mais alguns tipos de partículas que ainda não conhecemos. Imagina-se que, antes do plasma de quarks, teria havido uma situação em que as forças básicas estivessem unificadas e as partículas ainda não tivessem sofrido diferenciação por um processo chamado de quebra espontânea de simetria. Mas esse é outro detalhe.

Será que a formação de prótons e nêutrons a partir do plasma de quarks violaria a Segunda Lei da Termodinâmica?

Uma das características das interações entre quarks é a liberdade assintótica: significa que, quando estão próximos entre si, comportam-se como se estivessem livres. Quando se afastam demais uns dos outros, são puxados de volta violentamente. Se fornecermos suficiente energia para romper essa barreira, o resultado será a criação de pares quark-antiquark para manter sistemas de quarks confinados.

No caso do plasma primordial de quarks, a expansão do volume do espaço (com seu aumento de entropia) induziria os quarks a se afastarem uns dos outros. Em algum momento, isso causaria a separação entre cada parte desse plasma em relação às demais. Cada parte dessas é um hádron, isto é, um próton, nêutron, píon, etc.

Ok, mas isso não reduz a entropia do Universo? Não, pelas seguintes razões: primeiro, a expansão do espaço em si já representa um aumento na entropia; segundo, hádrons possuem entropia interna, de maneira que formação de hádrons a partir do plasma de glúons parece ter pouca influência sobre a entropia total do sistema (este é um estudo em andamento).

Vejamos um exemplo para ilustrar: imagine um gás contido em um recipiente em forma de paralelepípedo. Ele tem uma dada entropia. Imagine que introduzimos uma série de paredes nesse recipiente isolando umas partes do gás em relação às demais. Essencialmente, partimos de uma caixa de gás e passamos a ter várias caixas de gás. Se levarmos cada uma dessas caixas para um lugar diferente, continuaremos a ter a mesma entropia.

Se o plasma inicial de quarks for subdividido em regiões (chamadas hádrons), a soma das entropias internas dos hádrons seria aproximadamente a mesma da entropia do plasma original.

Quanto à formação de elementos mais pesados do que hidrogênio e hélio, as leis físicas implicam em que, nas condições adequadas, ocorrem reações nucleares que realmente os produzem. Essas condições existem no núcleo das estrelas. E esses núcleos se formam por colapso gravitacional, como vemos tanto na prática quanto pelas leis físicas em si, o que inclui a Segunda Lei da Termodinâmica. Aliás, essa lei é importante para que as reações nucleares aconteçam.

Afirmar que esses fenômenos espontâneos violam a Segunda Lei da Termodinâmica, especialmente sem fazer as contas para conferir, não tem cabimento.

Cálculos de Adauto Lourenço

Adauto e eu participamos juntos de alguns congressos em que ambos palestramos. Em certa ocasião, ele apresentou seus cálculos sobre a taxa de afastamento da Lua. Achei muito interessante a forma como ele conseguiu trabalhar com simplificações de um sistema terrivelmente complexo e calcular extrapolações.

O problema é que não se sabe até onde aquelas simplificações são válidas para fazer extrapolações de centenas de milhões de anos, a fim de poder afirmar que a Lua estaria praticamente tocando no solo da Terra na época que evolucionistas estimam que dinossauros habitavam a Terra.

Mas esse nem é o ponto. O importante aqui é a falácia do argumento non sequitur, como se uma suposta prova de que o Sistema Solar é jovem implicaria em que o Universo também é jovem. Não faz sentido algum.

100% dos modelos falharam?

Mencionei no artigo que 100% dos modelos de universo jovem propostos até o momento falharam de mais de uma maneira. Citei o de Humphreys como exemplo.

Na réplica, Eberlin tenta explicar por que os modelos científicos todos falham. Na verdade, eles têm-se mostrado bastante acurados em geral, e os que têm falhado consistentemente são apenas os que partem da premissa de que o Universo é jovem. Em alguns casos apenas, houve erro ao se imaginarem as condições iniciais usadas como parâmetros de entrada nos modelos. Temos aqui mais um exemplo da falácia da falsa premissa.

Mágica para resolver o problema da luz estelar distante

Eberlin tenta varrer para baixo do tapete esse problema reconhecido por militantes do universo jovem. Como ele faz isso? Apela para o pensamento mágico: de alguma forma, Deus faz com que a luz chegue instantaneamente a todos os lugares do Universo com imagens em tempo real e isso não se explica porque é Deus quem faz.

Basicamente, a luz teria velocidade infinita nessa concepção e nenhuma tentativa deve ser feita para harmonizar essa ideia com os experimentos que confirmam que a velocidade da luz é de 299.792.458 m/s. No pensamento mágico, nada se explica e nada tem sentido, de fato.

Mesmo assim, vamos tratar dessa e de outras ideias dos militantes do universo jovem em outro artigo, levando em conta suas consequências observáveis e parte de seu impacto teológico e nas leis físicas. Tratar de todos os problemas gerados por ideias mirabolantes como essas é inviável pela extensão do domínio do problema, mas podemos apresentar uma amostragem que dê ao leitor uma ideia do que elas representam na vida real.

Conclusão

Nenhum dos argumentos apresentados na réplica procede no sentido de justificar a posição apresentada. Trata-se apenas de um castelo de falácias construídas sobre premissas falsas.

Lembremo-nos de que o pensamento mágico opõe-se aos ensinamentos bíblicos. Enquanto o pensamento mágico diz “não tente entender porque é inexplicável”, Deus diz “vinde e arrazoemos” (Isaías 1:18); enquanto o pensamento mágico faz coro com a pseudociência e diz que o evangelho é loucura, a Bíblia diz que “a mensagem da cruz é loucura para os que estão perecendo, mas para nós, que estamos sendo salvos, é o poder de Deus” (1 Coríntios 1:18). Não permitamos que o pensamento mágico seja usado para acobertar conclusões falsas sob o rótulo de “questões de fé”. A verdadeira fé não se opõe às evidências nem à Lógica, embora nem sempre concorde com a intuição humana, que muitos chamam de “razão”.

Na medida do possível, prepararemos artigos que forneçam maiores detalhes aos interessados.

(Eduardo Lütz é bacharel em Física e mestre em Astrofísica Nuclear pela Universidade Federal do Rio Grande do Sul)