Atualizando a descrição do blog: Tive a intenção de criar este blog para divulgar conceitos, fatos históricos, curiosidades e outros temas sobre a grande ciência física. Existem muitos outros blogs sobre o assunto, mas a minha intenção principal é tentar escrever sobre assuntos de física vistos na graduação ou de pesquisa física para o público geral. Minhas ideias sobre temas para as colunas surgem de textos e artigos que vou lendo ao longo do meu trabalho acadêmico. Discussões são sempre bem vindas!
Abraço a todos!

sábado, 15 de julho de 2017

Um Pouco sobre a Evolução e Revolução da Termodinâmica (Clássica e Quântica)

Neste texto iremos discutir um pouco sobre a história termodinâmica e sua transição para a ciência termodinâmica que está sendo desenvolvida hoje nas universidades e com muitas aplicações práticas. Em breve um vídeo sobre o assunto. As referências estão no fim do texto.

A termodinâmica clássica foi desenvolvida basicamente na segunda metade do século 19 por pessoas interessadas no benefício em se converter uma quantidade de calor em trabalho útil para diversos propósitos na sociedade. Um dos principais e mais fundamentais exemplos de aplicação desta então nova teoria é a máquina a vapor, que usa uma fonte quente (queima do carvão) uma fonte fria (o ar), e um fluido (o valor de água), para converter calor em trabalho e assim movimentar, por exemplo, uma locomotiva.

Experimentalmente verificou-se que nem todo calor poderia ser convertido em trabalho, o que foi acompanhado de três leis descrevendo princípios fundamentais da termodinâmica clássica, como a conservação da energia e a impossibilidade de converter todo calor em trabalho durante um ciclo termodinâmico, além de outras características da teoria.

Um dos resultados mais importantes neste sentido foi obtido por Carnot, responsável por mostrar que para um ciclo termodinâmico realizado de forma consideravelmente lenta, a eficiência de uma máquina térmica depende apenas das temperaturas das fontes quente e fria envolvidas no mecanismo. O resultado de Carnot é geral, ou seja, não depende do fluido usado na máquina e representa e representa a máxima eficiência que qualquer máquina pode atingir operando entre as mesmas temperaturas Tquente e Tfrio, ou seja

Rendimento  = Trabalho Realizado / Calor Fornecido = 1 - Tquente/Tfrio

Além deste importante fato sobre o limite das máquinas térmicas, o estudo da termodinâmica pôde caracterizar uma infinidade de sistemas termodinâmicos, como gases e líquidos, por meio de várias grandezas físicas definidas com este propósitos. Entre elas, temos: Energia Interna de um sistema, Energia Livre de Gibbs, Energia Livre Helmoltz, Entalpia, Capacidade Térmica a Volume Constante ou a Pressão Constante, entre outras grandezas.

Estas quantidades são muito úteis para caracterizar substâncias macroscópicas, ou seja, tratando um sistema físico de forma estatística e calculando a média desses valores, e não olhando molécula por molécula em um gás, por exemplo, algo que seria impossível dado a quantidade de moléculas ou átomos existente em um gás.

Além do desenvolvimento da termodinâmica clássica que vinha decorrendo ao longo dos anos desde sua fundamentação, no começo do século passado descobriu-se que a física existente a nível atômico é radicalmente diferente da física clássica como a conhecemos, dando início então à teoria quântica. Isso resultou na criação de uma outra área de pesquisa, chamada física de partículas, cujo objetivo é entender o por que a matéria é como é de um ponto vista fundamental e não apenas fenomenológico. Com isso, levantou-se um questionamento sobre a termodinâmica clássica ser uma teoria subjetiva e dependente do nosso grau de conhecimento sobre o sistema físico de estudo, e não uma teoria fundamental. Isso é parcialmente devido ao fato de a termodinâmica ter surgido baseando-se fortemente em experimentos. A favor deste argumento estava o famoso físico Maxwell.

Já em anos recentes, com formulações teóricas envolvendo a teoria quântica no contexto da termodinâmica, uma nova área de pesquisa surgiu, denominada Termodinâmica Quântica onde sistemas termodinâmicos passaram a ser criados com 5, 4, ou mesmo um único átomo. Os resultados neste novo setor da física mostram que muitos fatos resultantes da termodinâmica clássica não são válidos quando se cria, por exemplo, uma máquina térmica com apenas um átomo. Por exemplo, o conceito de Calor e Trabalho precisam ser completamente redefinidos.

Um dos resultados mais impactantes neste contexto foi que uma máquina térmica operando exclusivamente no regime quântico pode superar o rendimento de Carnot. Este fato deixou alguns físicos atônitos na época, mas a maior parte da  comunidade científica hoje em dia já entendeu o que de fato ocorre no regime quântico. O fato é que para isso, é necessário considerar não apenas o fluido da máquina térmica como sendo quântico, mas também os reservatórios quente e frios envolvidos. Este último fato não era previsto pelo Carnot na época e por isso o limite clássico não pode ser aplicado a uma situação quântica. 

Após muitos e muitos anos de avanço, a termodinâmica tem-se mostrado uma ciência muito importante e um palco onde muitas implicações da física podem ser testadas e entrelaçadas. Muito recentemente foi mostrado que há uma relação entre teoria de informação e termodinâmica. Embora a ideia original não seja nova, só recentemente está sendo possível realizar experimentos neste nível escala, o que, certamente nos próximos anos, relevará ser de fundamental importância para compreendermos ainda melhor a natureza e seu comportamento desde escalas macroscópicas até escalas atômicas.

Referências:

1. https://www.quantamagazine.org/the-quantum-thermodynamics-revolution-20170502/

2. https://phys.org/news/2015-10-quantum-thermodynamics.html

terça-feira, 25 de abril de 2017

Livro - A Ordenação da Realidade

Neste texto vamos comentar um pouco sobre o livro A Ordenação da Realidade, escrito pelo físico Werner Heisenberg durante os anos da segunda guerra mundial e publicado somente em 1984.


O livro, publicado no Brasil pela editora Forense Universitária, apresenta um conjunto amplo de discussões e reflexões filosóficas de um Heisenberg muito mais maduro tanto como cientista quanto como cidadão alemão em um contexto muito complexo, uma vez que Heisenberg foi um dos únicos físicos de ponta da época que decidiu permanecer na Alemanha durante a segunda guerra mundial.

Antes do inicio do manuscrito propriamente dito, o livro traz uma apresentação bem detalhada sobre o conteúdo do livro, o qual possui uma escrita complexa. Esta introdução é feita por Fábio Antônio da Costa e Antônio Augusto Passos Videira, ambos da Universidade Estadual do Rio de Janeiro

O Livro

A primeira parte do livro é voltada a explicar o que Heisenberg entende por realidade e o que ele define por diversas regiões da realidade. Aqui e durante o tempo todo Heisenberg deixa claro o fato da realidade ser função direta da observação, no sentido amplo da palavra.

A segunda parte é dedicada a explorar as diversas regiões da realidade, bem como as conexões entre elas. Nesta parte Heisenberg adentra os mais diferentes campos da ciência, como a Física, a vida orgânica e a consciência.

Em todo o texto, em todos os campos, Heisenberg tenta organizar as mais diferentes teorias como formas de realidades inferiores ou superiores, apresentando suas conexões.

É um livro muito interessante, mas que deve ser lido com calma e atenção. Além disso, é um livro mais de filosofia da ciência do que propriamente sobre física, indicado a qualquer pessoa de qualquer curso, pois abrange uma discussão sobre muitos setores da ciência.

Se alguém leu o livro, poste aqui seu comentário!

Abraços!

quinta-feira, 13 de abril de 2017

O Efeito Compton

 Neste texto falaremos sobre mais um efeito que deixa evidente a característica quântica em sistemas físicos, ou melhor, que mostra explicitamente a chamada dualidade onda-partícula. Comentaremos a respeito do efeito Compton.

Antes de introduzirmos o efeito de um ponto de vista histórico, vale a pena ressaltarmos dois outros efeitos em que a dualidade onda-partícula começa a ficar evidente. Primeiro, a radiação de corpo negro (a ser comentada ainda neste blog) mostra que a radiação emitida por corpos é quantizada, emitida em quantidades discretas e não contínua, como se acreditava. E, em segundo, o efeito fotoelétrico deixa claro que uma explicação satisfatória para o experimento é apenas obtida se a energia transferida à matéria também é quantizada. Em termos históricos, a explicação do efeito fotoelétrico foi a primeira a sugerir que a energia era quantizada e, naquela época, muitos físicos importantes achavam que tal explicação era apenas provisória e que em um futuro não distante uma explicação segundo os preceitos tradicionais da física seria dada. Dentre tais físicos, destaca-se o próprio Compton.

Em 1923, Arthur Holly Compton, físico americano, investigou sistematicamente o espalhamento de raio-x monocromático por vários materiais. O que ele observou foi que em geral a frequência do raio-x espalhado era menor do que a frequência do raio-x original. Este resultado não era explicado pela teoria eletromagnética clássica, que afirma que a frequência depende apenas das características da onda incidente e, portanto, as frequências da onda incidente e espalhada deveriam ser as mesmas.

O experimento realizado por Compton está ilustrado na figura abaixo.



O que Comptou mediu no experimento foi o comprimento de onda do raio-x espalhado em função do ângulo θ ou, em outras palavras, a frequência da luz espalhada em função do ângulo de espalhamento.

Para resolver a discrepância entre os resultados experimentais e a teoria, Compton optou por considerar os raios-x como partículas, fótons, de frequência e energia bem definidas. Além disso, no experimento o raio-x incidia sobre um alvo de grafite. Sendo que a energia associada aos fótons é muito maior do que a energia cinética e de ligação dos elétrons na superfície do grafite, Compton considerou os elétrons como estando livres e em repouso, uma suposição muito razoável dadas as comparações das energias.

O esquema abaixo ilustra o raio-x incidente, o elétron e o raio-x espalhado.


Compton considerou os fótons como possuindo uma energia e um momento dados por

E = h ν0 , e p = h ν0/c, onde ν0 é a frequência associada aos fótons incidentes e c é a velocidade da luz no vácuo. Além disso, ele assumiu que tais fótons colidiam com um elétron  de massa de repouso m0 em uma colisão perfeitamente elástica.

Então, levando-se em conta a conservação de energia e do momento linear, e considerando as correções relativísticas para as equações, Compton chegou  na seguinte equação,

λs - λ0 = h/(m0 c) (1 - cos (θ))

Esta equação mostra que a diferença entre os comprimentos de onda espalhado e incidente depende do ângulo de espalhamento. O valor h/(m0 c), onde h é a constante de Planck, é conhecido como comprimento de onda de Compton, ou seja, existe de fato uma diferença entre os comprimentos de onda, ou frequência do raixo-x incidente e do raio-x espalhado, como observado experimentalmente. Esta diferença só é nula no caso particular em que o ângulo de espalhamento é 0, ou seja, a direção de espalhamento é exatamente a mesma do feixe incidente. 

Com esta explicação totalmente satisfatória do experimento, encerra-se de uma vez por todas o questionamento sobre a natureza dual da matéria, ou seja, constata-se de fato a dualidade onda-partícula como uma característica intrínseca da matéria.

Abaixo apresentamos alguns links interessantes sobre o efeito Compton, inclusive de sua realização experimental nos dias recentes.



quarta-feira, 21 de dezembro de 2016

O Efeito Fotoelétrico

Neste texto continuaremos descrevendo efeitos físicos que evidenciaram o caráter quântico da natureza. Falaremos aqui sobre o chamado efeito fotoelétrico, que conferiu a Einstein o prêmio Nobel de Física em 1921.

Em 1887, Heinrich Hertz, realizando experimentos sobre a natureza eletromagnética da luz por meio de descargas elétricas em duas superfícies metálicas, observou que quando uma faísca de luz em uma superfície era emitida outra faísca era gerada na outra superfície metálica. Após uma série de outros experimentos e análises, Hertz concluiu que a luz poderia gerar faíscas em uma superfície metálica. Além disso, ele concluiu que tal emissão deveria ser devido à luz ultravioleta.

Heinrich Hertz.

Posteriormente, em 1888, Wilhelm Hallwachs mostrou que corpos irradiados com luz ultravioleta adquiriam carga elétrica positiva. Para tentar explicar este fato, Lenard e Wolf publicaram no mesmo ano um artigo sugerindo que a luz ultravioleta liberava partículas do metal. Em 1889, outro cientista, Thomson, postulou e mostrou que as partículas emitidas no já chamado efeito fotoelétrico eram elétrons. Ele realizou isso calculando a razão entre a carga e a massa das partículas emitidas.

Uma configuração possível para o experimento é o mostrada abaixo.

Ilustração experimental do efeito fotoelétrico.

Conforme luz era incidida sobre a superfície de um metal, elétrons eram liberados e percorriam um tubo de vácuo até uma placa coletora. Então, tais elétrons geram uma corrente elétrica que poderia ser medida por meio de um amperímetro instalado, como pode ser visto. O experimento foi demasiadamente estudado por Lenard e Schweidler, utilizando diferentes metais e frequências para a luz incidente. Eles concluíram os seguintes fatos:

1. A emissão de elétrons não dependia da intensidade da luz incidente.

2. Se ocorre a emissão de elétrons, então a corrente elétrica é proporcional à intensidade da luz incidente.

3. A ocorrência ou não da emissão de elétrons dependia da frequência da luz incidente.

4. Para cada metal irradiado, existia um limiar de frequência tal que abaixo dele não havia emissão de elétrons.

5. A energia cinética dos elétrons emitidos crescia com a frequência da luz incidente.

A primeira tentativa de explicar o fenômeno foi a mais natural e se baseou no fato de que a luz era uma onda eletromagnética. Esta tentativa logo falhou, principalmente porque a teoria da luz como uma onda previa que a energia era proporcional à intensidade da luz, o que de fato não concordava com as observações experimentais.

Foi então que Albert Einstein entrou na jogada e, utilizando uma explicação relativamente simples, propôs que a energia da luz incidente era transferida para os elétrons da superfície do metal na forma de pacotes, ou melhor, de forma quantizada. Einstein tinha em mente que o elétron precisava receber uma certa quantidade de energia para vencer a ligação entre ele e o metal, ou seja, as ligações elétricas e químicas com o metal. Além disso, era também conhecido que para cada tipo diferente de metal a quantidade de energia era diferente, pois as ligações entre o metal e o elétron eram distintas. Assim, Einstein sugeriu a seguinte equação para explicar o fenômeno:



Vamos tentar entender a equação acima. Nela, a letra grega nu é a frequência da luz incidente sobre o metal. A letra h é uma constante a ser determinada experimentalmente e o produto h nu é a energia que um quânta de luz (ou fóton) transporta e transfere integralmente ao elétron do metal. A letra grega phi é a energia necessária para romper as ligações do elétron com o metal e, portanto, liberar o elétron. Deste modo, a energia cinética do elétron, E, é a energia total transportada por um fóton menos a energia necessária para desprendê-lo do metal.

A equação proposta por Einstein, embora simples, foi capaz de explicar todos as observações feitas por Lenard sobre o efeito fotoelétrico. Nela, a energia cinética dos elétrons não depende da intensidade da luz. Além disso, para um elétron ser liberado e, portanto, haver corrente elétrica, a quantidade de energia h nu deve ser no mínimo igual à energia phi, ou seja, a existência de corrente depende da frequência da luz para um mesmo tipo de metal. Por outro lado, para diferentes tipos de metal, sempre existirá um mínimo valor de frequência para o qual não há mais corrente elétrica. Por fim, havendo emissão de elétrons, o aumento da intensidade da luz apenas aumenta a corrente elétrica medida, o que indica que mais elétrons são liberados do metal, mas com a mesma quantidade de energia cinética.

A teoria corpuscular de Einstein para descrever o efeito fotoelétrico foi muito testada posteriormente. No entanto, foram poucos os cientistas que lhe conferiram crédito. Um exemplo disso foi Compton, um cientista que, apesar de ter testado com sucesso a equação de Einstein por 10 anos, tendo sido ele, inclusive, o primeiro a determinar experimentalmente o valor da constante h. afirmava que a teoria corpuscular da luz era totalmente insustentável. Por ironia, foi o próprio Compton que validou a teoria corpuscular da luz, em 1922, ao afirmar, estudando outro experimento, que o comportamento da luz não poderia ser explicado por meio da teoria ondulatória. Einstein recebeu o prêmio Nobel de física pela explicação do efeito fotoelétrico em 1921.

Vocês podem assistir ao vídeo sobre o efeito fotoelétrico em nosso canal, com mais detalhes a respeito.





Referências e indicações:

Site da UFRGS:

http://www.if.ufrgs.br/tex/fis142/fismod/mod03/

segunda-feira, 26 de setembro de 2016

Dualidade Onda-Partícula e o Efeito Kapitza-Dirac

Neste texto pretendemos fazer uma revisão histórica sobre o conceito de dualidade onda-partícula e apresentar uma evidência experimental adicional que confirma tal ideia. O experimento confirmou o chamado efeito kapitza-Dirac, em homenagem aos dois físicos que propuseram a hipótese que iremos comentar mais a frente.

Toda discussão sobre a natureza ondulatória ou corpuscular da matéria começou por volta do século XVII, com Newton e Huygens. Newton, talvez por ser muito mais voltado à mecânica, afirmava que a luz possuía uma natureza corpuscular, ou seja, era composta por várias e diminutas partículas. Por outro lado, a hipótese de Huygens dizia que a natureza da luz era de caráter ondulatório. As duas teorias conseguiam explicar satisfatoriamente alguns experimentos com a luz, mas não todos. Enquanto a teoria corpuscular explicava o fenômeno da reflexão da luz, a teoria ondulatória conseguia explicar bem os fenômenos de difração e interferência. Algumas poucas e não muito precisas evidências experimentais, como a interferência (1665) e a polarização (1678), indicavam uma tendência ao caráter ondulatório, muito embora a teoria corpuscular fosse muito forte, em grande parte devido à influência de Newton nos altos escalões da sociedade inglesa.

A balança começou a pender para a teoria ondulatória quando Young realizou experimentos satisfatórios sobre interferência da luz, no começo do século XIX.  No conhecido experimento da fenda dupla, Young foi capaz de mostrar que a interferência da luz gerava um padrão de intensidade típico dos padrões visualizados nas ondas na água, reforçando a hipótese ondulatória, Fig.1.

Fig.1: Ilustração do experimento da dupla fenda.


Já no fim do século XIX, Maxwell reuniu as equações relevantes que descreviam os fenômenos elétricos e magnéticos em um conjunto de equações que ficou conhecido como equações de Maxwell. Por meio destas equações e um termo adicional introduzido por ele, foi possível mostrar que a luz é composta por campos elétricos e magnéticos oscilantes em fase, Fig 2. O conjunto de evidências era tão satisfatório que a teoria ondulatória da luz finalmente foi estabelecida como a teoria correta pelos físicos da época.
Fig.2: Ilustração de uma onda eletromagnética.

Ainda no fim do século e começo de 1900, alguns outros experimentos com a luz apontavam que a descrição ondulatória não era satisfatória para explicá-los. Dentre os quais, podem ser mencionados o experimento de emissão do corpo negro e o efeito fotoelétrico. Para explicar satisfatoriamente o efeito fotoelétrico, por exemplo, Einstein precisou recorrer em 1905 à natureza corpuscular da luz e postular que ela era composta por diminutas partículas denominadas fótons. Só assim foi possível explicar a transferência de energia da luz para os elétrons em uma folha fina de metal.

Deste então, ficou estabelecido na comunidade científica que a luz era na realidade ora partícula, ora onda, e que sua natureza era evidenciada dependendo de como observássemos a luz, ou seja, dependendo de como realizamos nosso experimento. A isso foi dado o nome de dualidade onda-partícula para a luz, um dos pontos chaves da estrutura da teoria quântica.

Em 1924, um físico chamado Louis de Broglie, originalmente formado em história, propôs em sua tese de doutorado que não apenas a luz, mas sim todo tipo de matéria possuía a propriedade da dualidade onda-partícula. Ele relacionou uma propriedade de partículas, o momento, com uma propriedade das ondas, o comprimento de onda (lambda), através de sua famosa relação: p = h/lambda, onde h é uma constante conhecida como constante de Planck. A partir desta hipótese, os físicos começaram a buscar meios de verificá-la experimentalmente. Então, no ano de 1927, nos laboratórios Bell, os cientistas Clinton Davisson e Lester Germer incidiram um feixe de elétrons sobre um cristal de níquel. Eles constataram que os elétrons espalhados pela rede cristalina apresentavam o mesmo padrão de interferência verificado para a luz. Este experimento serviu para comprovar a hipótese de de Broglie, pois até então era tido como certo que os elétrons se comportavam como partículas.


Fig.3: Os cientistas Clinton Davisson e Lester Germer.

Após algum tempo, em 1933, dois outros físicos, Paul Dirac e Pyotr Kapitza, propuseram que os elétrons seriam difratados não apenas por uma rede cristalina, mas também por uma luz estacionária. Por questões técnicas, o experimento para comprovar esta hipótese só pôde ser construído após a criação do laser e foi realizado em 2001, sendo ilustrado na Fig. 5. Um feixe de elétrons cruzou um feixe de luz laser. Então, os elétrons espalhados pelo laser foram detectados em um anteparo e o padrão de incidência medido foi exatamente aquele referente ao padrão de interferência da luz. Mais uma vez, porém agora ao contrário, ou seja, por meio de uma partícula (elétrons) difratando em uma onda (não mais átomos fixos em um cristal), a dualidade onda-partícula para qualquer tipo de matéria foi verificada.

Fig.4: Paul Dirac e Pyotr Kapitza.



Fig.5: Aparato experimental para verificar o efeito Kapitza-Dirac. Fonte: Nature- Vol 413 - 13 September 2001.

Hoje, a dualidade onda-partícula é um dos fundamentos da mecânica quântica e pode se construir muitos experimentos com o objetivo de evidenciar suas características. Abaixo segue uma lista de links e textos interessantes, incluído um artigo detalhando o experimento para verificar o efeito Kapitza-Dirac.



Lista de links interessantes:

Observação experimental do Efeito Kapitza-Dirac:

Descrevendo o elétron como uma onda:

Efeito Kapitza-Dirac

sexta-feira, 29 de abril de 2016

O que é tempo?

O que é o tempo?



Desde os primeiros pensadores, talvez os gregos ou mesmo antes deles, o conceito de tempo já era motivo de grande debate. Talvez Parmenides (530 - 460 a.C.) tenha sido um dos primeiros a estabelecer um conceito de tempo, ao menos que temos registro. Este texto tem o objetivo de explicitar as diferenças existentes entre o conceito de tempo na mecânica quântica e nas teorias da relatividade especial e geral. Primeiramente, como o tempo é visto na mecânica Newtoniana?

Apesar de ter levado muito tempo até que o conceito de tempo obtivesse algum consenso, o tempo na mecânica Newtoniana (clássica) é visto basicamente como um parâmetro independente do sistema. Assim, o tempo não tem nenhuma relação com as características do sistema, nem tão pouco com a localidade do sistema no espaço-tempo. Ele é basicamente um cronômetro, usado para ordenar os eventos que ocorrem em um dado sistema.

Quando vamos para os mundo quântico, ou seja, quando vamos para fenômenos atômicos e sub-atômicos, quando tentamos descrever os pilares fundamentais da matéria, então devemos usar a mecânica quântica. Por algum motivo, a mecânica quântica trata o tempo exatamente como na mecânica clássica, mesmo sendo a teoria em si totalmente diferente da mecânica Newtoniana. O tempo ainda continua funcionando como um parâmetro independente do sistema, mesmo que a estrutura matemática de como evoluir temporalmente um sistema quântico seja diferente. O conceito é o mesmo.

A coisa muda drasticamente quando vamos para os fenômenos em que as teorias da relatividade especial e geral devem ser utilizadas para descrever a natureza. Neste cenário, duas coisas marcam a diferença entre o tempo da mecânica clássica e quântica e o tempo na teoria da relatividade: O tempo, ou seja, o tempo medido por um observador de um dado sistema, passa a depender da velocidade relativa entre o observador e o sistema observado, e também passa a depender da intensidade do campo gravitacional onde o sistema está localizado. 

Se por um lado a teoria da relatividade especial afirma que quanto maior a velocidade relativa entre sistema e observador, menor o intervalo de tempo medido pelo observador;

Por outro a teoria da relatividade geral afirma que quanto maior a intensidade do campo gravitacional na região em que o sistema está localizado, menor o intervalo de tempo medido pelo observador. 

Estas implicações mostram que o tempo na relatividade não é mais um parâmentro independente mas depende das características do sistema e da região do espaço- tempo em que ele está localizado. Uma das implicações disso é o paradoxo dos gêmeos.  Por outro lado, está diferença de tempo já foi medida em muitos experimentos e parece de fato ser uma características inerente da natureza.

O que devemos fazer?

Nós observamos a natureza e tentamos descrever os fenômenos existentes. Não tentamos, nem conseguiremos, mudar o modo de agir da natureza. Nos resta compreender estas diferenças conceituais e a colocarmos em nossas teorias, para realizarmos uma melhor descrição dos eventos.

Abaixo há uma boa referência sobre a discussão do tempo ao longo da humanidade.


Abraços.

sexta-feira, 12 de fevereiro de 2016

Das ondas gravitacionais aos grávitons, passando pela detecção feita pelo LIGO

Este é um momento muito importante para a Física. A equipe do LIGO (Laser Interferometer Gravitational-Waves Observatory) anunciou ter detectado diretamente pela primeira vez ondas gravitacionais. Mas afinal o que são ondas gravitacionais, qual sua relevância na Física, como foi realizado o experimento de detecção e, por último, o que o gráviton tem a ver com isso tudo? Ao longo do texto abordaremos estas questões.

1   1 -     O que são ondas gravitacionais?

Ondas gravitacionais foram previstas pela teoria da relatividade geral (TRG) de Einstein em 1915. Como qualquer teoria cientifica, a TRG explicou de maneira mais fundamental alguns vários fenômenos da Física da época e fez predições de fenômenos a serem verificados. Entre estes está a predição de que sob a influência do campo gravitacional a luz sofre alteração do seu percurso, já verificada em 1919. Outra predição são as ondas gravitacionais.
Para entendermos o que são estas ondas, podemos fazer uma analogia direta com as ondas eletromagnéticas. A teoria eletromagnética diz que qualquer corpo carregado eletricamente, ao ser acelerado, irá emitir ondas eletromagnéticas, ou radiação. Da mesma forma, a TRG prevê que qualquer corpo que tenha massa, ao ser acelerado, irá emitir ondas gravitacionais. Ambas, ondas eletromagnéticas e gravitacionais, são caracterizadas pela frequência e o comprimento de onda. As equações de Maxwell da teoria eletromagnética descrevem as ondas eletromagnéticas. Analogamente, as equações de Einstein da TRG descrevem as ondas gravitacionais. Ao contrário destas últimas, sabemos que as ondas eletromagnéticas são detectáveis há muito tempo. Por que motivo não havia sido detectado ainda ondas gravitacionais?
A razão para isso é que, comparado com a intensidade da interação eletromagnética, a intensidade da interação gravitacional é extremamente fraca! Isso leva ao fato de que um aparelho destinado a detectar ondas gravitacionais deva ser muito sensível, de modo a poder captar os menores sinais destas ondas. Os melhores candidatos a emitirem ondas gravitacionais detectáveis com os instrumentos atuais são buracos negros, estrelas de nêutrons, supernovas, etc. Além destes, o evento conhecido como Big Bang também é um candidato a ter emitido ondas gravitacionais, por se tratar de uma concentração muito grande de massa que se acelerou (explodiu) a uma taxa muito alta. Outra dificuldade é que eventos que produzem ondas gravitacionais mensuráveis ocorrem com uma frequência muito baixa.

2    2-     Qual a importância das ondas gravitacionais?

A primeira importância de se detectar ondas gravitacionais é obviamente que ela comprova a solidez da teoria da relatividade geral no que ela se propõe a explicar e seus conceitos básicos. No entanto, sua detecção tem um significado muito mais relevante para a Física. Voltemos novamente à analogia com ondas eletromagnéticas. O desenvolvimento tecnológico de instrumentos emissores e detectores que utilizam ondas eletromagnéticas possibilitou a construção de grandes telescópios, o que teve como consequência a observação de um Universo até então desconhecido, além de possibilitar descobertas astronômicas de forma indireta, como vários planetas que são descobertos fora do sistema solar. No entanto, existe uma limitação física para a observação do Universo em tempos remotos utilizando ondas eletromagnéticas. Durante os primeiros 300 mil anos após o Big Bang estas ondas, ou fótons, ficaram presas a outras partículas, pois a temperatura do Universo era muito alta, impedindo que os fótons se desacoplassem do resto da matéria recém formada. Deste modo, é impossível visualizar como era o universo durante este período, acarretando mais especulação do que certezas durante os primeiros 300 mil anos do Universo. Porém, prevê-se que ondas gravitacionais existam desde os primeiros segundos de vida do universo, e sua detecção poderia ser muito útil para entender este período. Mas não devemos confundir as ondas gravitacionais que foram detectadas com aquelas do início do Universo. Como são fontes diferentes, as ondas geradas também são diferentes, o que nenhum pouco diminui a importância da detecção verificada pela equipe do LIGO. Com a detecção de ondas gravitacionais, uma ampla janela se abre no que diz respeito a pesquisas observacionais do espaço.

3    3 -     A detecção de ondas gravitacionais pelo LIGO

O objetivo da equipe do LIGO era detectar ondas gravitacionais através de um interferômetro. Este equipamento, utilizado em muitas outras áreas da Física, permite que um feixe de luz possa ser separado e, ao se recombinar, efeitos possam ser verificados. Por exemplo: suponha que emitimos um feixe de luz e através de um espelho semitransparente, metade da luz continua seu percurso e a outra metade seja refletida em 90 graus, como ilustra a figura abaixo.



Se, por algum motivo, o espelho 1 ficar a uma distância maior do espelho transparente do que o espelho 2, poderá haver uma defasagem entre as duas componentes do feixe original. Ao se recombinarem e serem detectadas no anteparo, esta defasagem será observada através do que se chama franja de interferência.
A suposição de que ondas gravitacionais distorcem o espaço-tempo (onde todas as coisas do universo estão), levou os pesquisadores a terem a ideia de que, se em algum ponto do universo ocorresse um evento que gerasse uma onda gravitacional, esta distorção iria acarretar em uma leve diferença entre os caminhos percorridos pela luz laser ao atingirem o espelho semitransparente e seria observada como uma defasagem quando a luz se recombinasse. Obviamente que a distorção seria extremamente pequena, e para isso os instrumentos deveriam ser altamente sensíveis. Visando isso, os cientistas construíram um gigantesco interferômetro, mostrado na figura abaixo.



O interferômetro para observar ondas gravitacionais, localizado nos Estados Unidos, é composto por dois detectores distantes 3000 quilômetros um do outro, que são capazes de detectar uma variação (distorções no espaço-tempo) 10000 vezes menor do que o núcleo atômico. Além disso, cada braço do interferômetro mede 4 quilômetros.

O evento que deu origem à onda gravitacional detectada pelo LIGO foi a colisão entre dois buracos negros. A teoria da relatividade geral prevê que um par de buracos negros orbitando um ao outro perde energia emitindo ondas gravitacionais. Embora previsto pela teoria, tal evento nunca havia sido observado. A importância da detecção pode ser representada nas palavras de Kip Thorne, um físico teórico especialista da área:

“Com esta descoberta, nós humanos estamos embarcamos em uma maravilhosa nova busca: a busca por explorar o lado deformado do Universo – objetos e fenômenos que são produzidos devido à deformação do espaço. Buracos negros colidindo entre si e ondas gravitacionais são os primeiros belos exemplos” 
(Tradução do autor)

4    4-     O que o gráviton tem a ver com isso?

 O gráviton é um elemento chave em qualquer teoria física que tenha como objetivo unificar a gravidade com outras interações da natureza, a saber, o eletromagnetismo, a interação forte e fraca. Novamente, vamos fazer uma analogia. Como já dito, as ondas eletromagnéticas são detectadas e usadas há muito tempo. Com o advento da mecânica quântica, no começo do século passado, verificou-se que a energia não era transferida de forma continua, mas sim de forma discreta, ou seja, em forma de pequenos pacotes, conhecido como fótons. Fótons são, portanto, pequenas quantidades de energia. A conclusão que se chegou é que as ondas eletromagnéticas, que transportam energia, são então constituídas por fótons. Dizemos então que os fótons são a quantização das ondas eletromagnéticas. Isto faz com que a teoria eletromagnética e a mecânica quântica se conciliem.
Entretanto, a interação gravitacional ainda não passou por este estágio, ou seja, a teoria da relatividade geral, que explica interação gravitacional, é uma teoria clássica, não quântica. Uma teoria que quantize a gravidade deve necessariamente quantizar as ondas gravitacionais. Deste modo, os “pacotinhos” da interação gravitacional deveriam existir. Embora ele não tenha sido detectado, seu nome é gráviton.
Se formos pensar na ordem cronológica do eletromagnetismo, devemos estar no caminho certo. Primeiro detectamos as ondas eletromagnéticas e depois verificamos a existência dos fótons.  Assim, a detecção das ondas gravitacionais pode ser um passo essencial na busca por uma teoria que unifique todas as interações conhecidas da natureza.

Fonte: