14.139 – O que é a Teoria Quântica?


teoria-quantica
As verdadeiras revoluções científicas são aquelas que além de ampliar os conhecimentos existentes, se fazem também acompanhar de uma mudança nas idéias básicas sobre a realidade. Um exemplo célebre foi a revolução do polonês Nicolau Copérnico, no século XVI, que derrubou o conceito segundo o qual a Terra estava imóvel no centro do Universo, afirmando em vez disso que nosso planeta gira em torno do Sol. Depois, o inglês Isaac Newton suplantou o conceito de espaço absoluto e dois séculos mais tarde o alemão Albert Einstein aposentou também a ideia do tempo absoluto. Embora importantes, nenhuma dessas grandes revoluções na ciência pode rivalizar com o impacto da revolução quântica. A partir dela, os físicos foram forçados a abandonar não apenas os conceitos do homem sobre a realidade – mas a própria realidade. Não admira que a Física Quântica tenha adquirido a reputação de algo bizarro ou místico. Tanto que o dinamarquês Niels Bohr, um dos criadores da nova ciência, chegou a afirmar certa vez que só não se escandalizou com a Física Quântica quem não a entendeu.
O ponto de partida para chegar às idéias quânticas é o átomo, já conhecido dos filósofos gregos, na Antigüidade. Eles acreditavam que toda matéria era constituída por minúsculos fragmentos indestrutíveis. Ora, o domínio da Física Quântica é formado justamente pelos fragmentos desses fragmentos. Desde 1909, de fato, o inglês Ernest Rutherford estabeleceu que os átomos, aparentemente indivisíveis, são compostos por um núcleo ao redor do qual giram outras partículas, os elétrons. Segundo esse modelo, o núcleo podia ser comparado ao Sol, enquanto os elétrons seriam os planetas orbitando a sua volta. E importante salientar a ideia de que os elétrons seguiam trajetórias bem definidas, de tal modo que a qualquer momento seria possível determinar a sua posição e a sua velocidade.
O problema é que, ao contrário dos planetas, os elétrons não seguem um trajeto claro e inequívoco quando se movem. Seus caminhos caprichosos só seriam revelados anos depois do modelo atômico proposto por Rutherford. O primeiro sinal de que a visão “planetária”não funcionava surgiu em 1911, quando Bohr escreveu uma nova fórmula sobre a emissão de energia pelos átomos. Para surpresa geral, a fórmula mostrava que havia lugares proibidos para o átomo – regiões inteiras, em torno do núcleo atômico, onde os elétrons não podiam girar. Podiam saltar de uma órbita mais distante a outra mais próxima, mas não podiam ocupar diversas órbitas intermediárias. E, nesse caso, emitiam um pacote inteiro de energia – nunca menos de certa quantidade bem definida, desde então chamada quantum de energia.
Era estranho, já que os planetas podiam girar a qualquer distância do Sol e mudar de órbita alterando o seu nível energético em qualquer quantidade, sem limite. Apesar disso, a fórmula de Bohr explicava com precisão os fatos conhecidos sobre a emissão de luz pelos átomos, de modo que a nova Física do quantum acabou se impondo com firmeza. Dez anos mais tarde, o enigma das órbitas proibidas foi resolvido de uma maneira que afastou ainda mais do átomo a ideia de um sistema solar em miniatura. Desde a década de 20, com efeito, as órbitas dos elétrons passaram a ser vistas como algo semelhante às ondas sonoras que compõem as notas de um instrumento musical: portanto. uma imagem muito distante dos corpos sólidos girando em torno do Sol.
O primeiro passo na direção das ondas eletrônicas surgiu em experiências nas quais um feixe de elétrons atravessava um cristal e se espalhava mais ou menos como a luz ao formar um arco-íris. O físico francês Louis de Broglie mostrou que o comprimento dessas inesperadas ondas podia ser relacionado com a velocidade dos elétrons. Segundo De Broglie, elétrons em alta velocidade se comportam como ondas curtas e elétrons em baixa velocidade, como ondas longas. Assim, tornou-se possível transformar uma característica dos movimentos mecânicos – a velocidade – em um traço típico dos fenômenos ondulatórios, o comprimento de onda.
Essa foi a deixa que o alemão Erwin Schrodinger aproveitou para criar a imagem musical do átomo mostrando que ela desvelava o enigma das órbitas proibidas. Basta ver que, ao vibrar, uma corda de violão produz uma nota fundamental, como o mi por exemplo, e diversas outras notas geralmente inaudíveis, que enriquecem o som mais forte.
São os chamados harmônicos, cujas vibrações são sempre múltiplos inteiros da vibração principal: pelo menos duas vezes mais rápidas do que esta, mas nunca 2,5 vezes, ou 3.5 vezes. O mesmo ocorre no átomo, imaginou Schrodinger: nesse caso, o elétron só gira onde o tamanho da órbita lhe permite formar ondas inteiras, excluindo as órbitas que, para serem completadas, exigiriam uma fração de onda.
O resultado confirmava a fórmula intuitiva de Bohr. dando início a uma nova teoria física, daí para a frente chamada Mecânica Quântica. Sua grande marca foi a introdução do conceito de onda de maneira tão fundamental quanto a noção de partícula. Coube ao alemão Max Born, outro dos grandes pioneiros do século, explicar como um elétron podia ser ao mesmo tempo onda e partícula. Para ele, a onda não era nenhum tipo de substância material, mas um meio de avaliar certas medidas, como a velocidade ou a posição de uma partícula, “Onda eletrônica”, na verdade, seria uma expressão com o mesmo sentido que se atribui à expressão “onda de criminalidade”. Assim, quando há uma onda de crimes numa cidade, há grande probabilidade de um crime ocorrer nessa cidade, a qualquer momento.
A onda descreve um padrão estatístico, dizendo em que período de tempo, ou em que locais, os crimes são mais prováveis. Da mesma maneira, a onda associada a um elétron descreve a distribuição estatística dessa partícula, determinando onde é mais provável que ela esteja. A ondulação nada tem a ver com a substância do elétron, mas em cada ponto do espaço diz qual a probabilidade de que ele se encontre ali. Essa interpretação de Max Born poderia parecer frustrante para quem esperasse ver as ondas ligadas a algum segredo sobre a natureza da matéria, mas é uma dramática mudança na própria ciência. Até então, havia grande convicção de que o Universo fosse estritamente determinístico e de que, portanto, sempre se poderia conhecer com precisão a posição de um corpo. Para a Mecânica Quântica, porém, o Universo é inerentemente não-determinístico, uma idéia que Albert Einstein nunca aceitou. “Deus não joga dados com o Universo”, respondia ele aos que argumentavam em favor da probabilidade quântica. Mas existe um método poderoso para tentar adivinhar os lances dos dados divinos: trata-se do célebre Princípio da Incerteza, enunciado pelo físico Wemer Heisenberg, em 1927.
Sua base é uma fórmula para medir pares de valores, como por exemplo velocidade e posição. O princípio diz que, se a posição for medida com grande precisão, é possível ter uma certa ideia do valor da velocidade. Se, em vez disso, se medir a velocidade com precisão, a posição pode ser avaliada dentro de certos limites. A regra vale para outros pares de valores, como tempo e energia. Muitas vezes, o princípio tem sido explicado como uma interferência do medidor sobre o objeto medido: para saber a posição de um elétron é preciso agir sobre ele, por meio de um raio de luz, por exemplo. O raio incide sobre o alvo e, dependendo do desvio que sofra permite avaliar a posição do alvo.
É o mesmo procedimento que se usa para ver um objeto grande, como um carro, e determinar onde está. É claro que o levíssimo impacto de um ponto de luz não tem nenhum efeito mensurável sobre o movimento do carro, enquanto no caso do elétron o choque é devastador, perturbando a medição. Em conseqüência, haveria uma incerteza inerente a toda medição em escala microscópica. Na realidade, segundo a concepção moderna, não há sentido dizer que um elétron tem ao mesmo tempo posição e velocidade bem definidas. A incerteza seria inseparável da própria natureza dos corpos quânticos.
É mais fácil imaginar que um elétron tem duas caras – como um ator desempenhando dois papéis em um filme. Ao medir sua posição, se estará observando O “elétron-em-posição”, um dos papéis do ator. O “elétron-em-velocidade ” entra em cena quando se faz uma medida de velocidade. No primeiro caso, o elétron se assemelha mais a uma partícula, já que a imagem que temos é a de um corpo bem localizado no espaço. Quando a medida mais precisa é a da velocidade e o corpo não tem uma posição definida – há diversos lugares com igual probabilidade -, então surge com mais força a sua característica de onda.
A experiência que melhor ressalta a dupla face dos elétrons é a das fendas de interferência, inicialmente realizada com luz pelo inglês Thomas Young, no início do século XIX. A comparação com a luz é importante. Um raio luminoso é dirigido para uma tela com uma estreita fenda de modo a projetar uma imagem difusa em uma segunda tela colocada atrás da primeira. Se a primeira tela tiver duas fendas em vez de uma, surgirão duas imagens difusas, mais ou menos circulares, que se sobreporão parcialmente. Mas as imagens sobrepostas não se tornam uma simples soma de luzes: em vez disso, aparecem diversas faixas intercaladas de luz e sombra. São as chamadas franjas de interferência.
O mesmo efeito é obtido se, em lugar de luz, se usar um feixe de elétrons. A franja eletrônica, desenhada em uma tela de TV, é uma demonstração da natureza ondulatória do elétron. As faixas “claras”, nesse caso, representam as posições onde é mais provável encontrar os elétrons. É impossível explicar a interferência de elétrons por meio da noção tradicional de partícula mecânica. E claro que um elétron não pode passar pelas duas fendas ao mesmo tempo, pelo menos enquanto se mantiver apenas como uma partícula, à maneira antiga. Mas a interferência é uma combinação daquilo que acontece nas duas fendas ao mesmo tempo. Então, se o elétron passa por uma única fenda, como será que a existência da outra fenda, por si só, pode criar as franjas claras e escuras?
A resposta é que a partícula está se comportando como uma onda. Mesmo quando só um elétron é atirado contra as fendas, o padrão de interferência surge na tela, interferindo, por assim dizer, consigo mesmo. Segundo o princípio da incerteza é possível fazer uma medida precisa da posição do elétron e decidir em qual das duas fendas ele está, mas o preço a pagar é uma perda de precisão sobre o rumo que ele tomará em seguida. De modo que se terá apenas uma vaga idéia de seu movimento entre uma placa e outra: a maior probabilidade é de que na segunda placa se formará uma imagem difusa e aproximadamente circular.
Não é possível avaliar a precisa distribuição de claros e escuros das franjas de interferência. Caso se queira medir diretamente esse padrão, será preciso abandonar qualquer pretensão de saber por qual fenda o elétron passou: é igualmente provável que tenha passado por qualquer uma delas, o que significa uma incerteza sobre sua posição. Um meio de entender tudo isso é imaginar que existam dois mundos, de tal forma que em um deles o elétron passe pela primeira fenda e no outro, pela segunda. Os dois mundos coexistem, misturando suas realidades, até o momento em que se faça uma medida direta da posição do elétron. Nesse caso, as franjas de interferência – formarão uma realidade bem definida apenas enquanto não se medir a posição do elétron em uma ou outra fenda.
O fato é que os pesquisadores podem escolher o que querem ver – uma outra face do elétron – e por isso se costuma dizer que a natureza do elétron depende do homem. Nem todos os físicos levam a sério a ideia de duas realidades existindo uma ao lado da outra, mas é possível puxar pela imaginação e penetrar ainda mais profundamente nos seus paradoxos. No caso do experimento com as franjas de interferência, o que aconteceria se o feixe de elétrons dirigido para as fendas alcançasse a segunda tela, sem que ninguém observasse o resultado? A tela poderia ser fotografada e a foto, arquivada, para que não fosse vista. Assim, algo teria acontecido, mas, como não foi observado, não poderia existir como realidade concreta – até que alguém finalmente se decidisse a lançar um olhar criador para o fantasma perpetuado no filme.
Trata-se de um célebre quebra-cabeça criado por Erwin Schrodinger e desde então apelidado “paradoxo do gato”.
Esse experimento mental, como dizia o físico, funciona da seguinte forma: um gato é aprisionado numa caixa junto com uma garrafa selada contendo gás venenoso. Sobre a garrafa pende um martelo pronto para quebrá-la. O gatilho dessa armadilha é uma substância radioativa que emite partículas a alta velocidade. Em 1 minuto, há uma chance de 50% de que a substância emita radiação e solte o martelo. fazendo quebrar a garrafa e liberar o gás venenoso. Assim, ao cabo de 1 minuto, coexistem dois mundos possíveis. Num deles, o gatilho foi acionado e o gato está morto; no outro, não houve emissão de radiação e o gato está vivo. Enquanto não se abrir a caixa, nenhuma das duas possibilidades poderá ser considerada real e o gato não será muito diferente dos mortos-vivos das histórias de terror. Ele permanece numa fantasmagórica superposição de realidades, entre a vida e a morte.
O físico inglês Anthony Leggett imagina que os enigmas quânticos não valem para os gatos – eles são complexos demais, do ponto de vista físico, para ficarem suspensos entre dois mundos-fantasmas. A mecânica probabilística está definitivamente confinada ao universo das partículas fundamentais, as formas mais simples da matéria. Leggett. dessa maneira, propõe que existem duas Físicas diferentes regendo o mundo, uma delas com leis para as partículas, individualmente, outra com leis para os vastos conjuntos de átomos que compõem os seres vivos e os objetos macroscópicos.
O físico americano Eugene Wigner, por sua vez, criou uma especulação radical segundo a qual é a mente do físico que cria toda a realidade. Seria a consciência do homem que filtra a confusão quântica do Universo e gera uma realidade bem definida. Roger Penrose é outro cientista a imaginar um entrelaçamento entre a mente e a realidade. Ele pensa que os mecanismos mentais do raciocínio estão submetidos às flutuações quânticas, dando origem, por exemplo, às inexplicáveis explosões criativas dos músicos ou dos matemáticos. Muitos pensadores, como Fritjof Capra, supõem além disso um paralelo entre a realidade quântica e as concepções místicas das religiões orientais.
Todas essas especulações indicam como são profundos os paradoxos que, há quase 1 século, entraram para os livros de Física por meio da Mecânica Quântica. O fato de continuarem sendo debatidos por tanto tempo pode não impressionar aqueles cientistas para os quais as teorias servem apenas como instrumento de trabalho. Mas poucos adotariam a opinião radicalmente cética de Einstein que, nas suas próprias palavras, enterrou a cabeça na areia “de medo do temível quantum”.
O sim, o não e o talvez

O uso da probabilidade nos cálculo da Física deu excelente resultado, levando a uma formidável ampliação dos horizontes do conhecimento e a inventos como a TV e o raio laser. Mas a probabilidade também tem as suas limitações e, quando aplicada a uma teoria fundamental, como é o caso da Mecânica Quântica, provoca certa inquietação. Uma coisa, por exemplo, é alguém olhar um carro e dizer: “A velocidade daquele carro é de 100 quilômetros por hora”. Outra, bem diferente, é dizer: “Aquele carro não tem velocidade definida; é provável que seja 100 quilômetros por hora, mas também pode ser 80 ou 120”.

Nas duas situações, existem informações básicas sobre o carro – calcular a velocidade é um dado absolutamente fundamental para qualquer teoria física. Mas, na primeira, a informação é inequívoca: um único número. Em lugar disso, a resposta probabilística fornece um conjunto de números, como se o carro pudesse desenvolver diversas velocidades ao mesmo tempo. Do ponto de vista científico, as respostas múltiplas da Mecânica Quântica significam apenas isso: a teoria, em certos casos, oferece um conjunto de resultados mais ou menos prováveis para determinado cálculo. Qualquer interpretação além disso é simples exercício de imaginação. Um problema é que, no caso de um corpo como o carro, a Física sempre dá uma resposta única e taxativa – a probabilidade só afeta os corpos microscópicos.

Esse fato força uma divisão do mundo físico em duas partes, numa das quais valem leis probabilísticas e deterministas, e no outro, apenas leis probabilísticas. Atualmente, a grande maioria dos cientistas aceita, sem preconceito e sem versões mirabolantes, as equações probabilísticas. O que nem todos aceitam é o casamento da nova Física com a religião. “Na minha opinião, não tem cabimento associar o misticismo à Mecânica Quântica”, pondera o professor Henrique Fleming, físico teórico da Universidade de São Paulo. Isso causa uma certa confusão entre o que é ciência e o que está mais próximo da religião ou da Filosofia, acabando por não esclarecer nem uma coisa nem outra.

14.138 -Mega Cientistas – Max Planck


max-planck
Max Karl Ernst Ludwig Planck, cientista alemão nascido em Kiel no dia 23 de abril de 1858, abriu caminho para o que hoje conhecemos como teoria quântica.
Pertencendo a uma família de grande tradição acadêmica, Planck estudou nas Universidades de Munique e Berlim, onde teve aulas com Helmholtz e Kirchhoff, e recebeu seu doutorado, em 1879. Até o contato com esses dois grandes cientistas, ainda tinha dúvidas entre seguir a carreira musical ou a científica.
Ele foi Professor em Munique de 1880 a 1885, em seguida, Professor Associado de Física Teórica, em Kiel, até 1889. Com a morte de Kirchkoff, assumiu a Cátedra de Física Teórica da Universidade de Berlim (1887), onde foi posteriormente reitor. Permaneceu trabalhando nesta Universidade até sua aposentadoria em 1926. Mais tarde ele se tornou presidente da Sociedade para a Promoção da Ciência Kaiser Wilhelm (hoje Sociedade Max Planck), um posto que ocupou até 1937. A Academia Prussiana de Ciências o nomeou membro em 1894 e Secretário Permanente, em 1912.
Os primeiros trabalhos de Planck foram sobre termodinâmica. Também publicou trabalhos sobre a entropia, termoeletricidade e na teoria das soluções diluídas.
Ao mesmo tempo, também os problemas da radiação envolveram sua atenção. A partir desses estudos, foi levado para o problema da distribuição de energia no espectro de radiação total. Levando em conta as teorias clássicas, a Energia emitida por um corpo que não reflete luz (objeto teórico conhecido como Corpo Negro) deveria variar na mesma proporção da temperatura. Na prática, não era isso que acontecia. Planck foi capaz de deduzir a relação entre a energia e a frequência da radiação. Em um artigo publicado em 1900, ele anunciou essa relação:
E=h.f
Onde E é energia, f é frequência e h é uma constante universal, hoje conhecida como Constante de Planck. Esta constante foi baseada na ideia revolucionária de que a energia emitida por um corpo negro só poderia assumir valores discretos conhecidos como quanta (palavra vinda do latim). Um quantum seria um pacote de energia emitido e quanta é plural de quantum.
Essa descoberta foi determinante para a física atômica, pois fundamentou o modelo atômico de Niels Bohr (1913) e abriu caminho para a teoria de Einstein que explica o efeito fotoelétrico. A introdução do conceito de descontinuidade contrariou o princípio do filósofo alemão Wilhelm Leibniz, “Natura non facit saltus” (a natureza não dá saltos), que dominava todos os ramos da ciência na época, tornando-se a teoria quântica, na grande revolução que levou à Física Moderna do século XX. Foi o ponto de partida de uma nova lógica nas várias pesquisas sobre a estrutura do átomo, radiatividade e ondulatória e rendeu a Max Planck o Prêmio Nobel de Física de 1918.
Planck enfrentou um período conturbado e trágico de sua vida durante o governo nazista na Alemanha, quando sentiu que era seu dever permanecer em seu país, mas era abertamente contrário a algumas das políticas do Governo, principalmente quanto à perseguição dos judeus. Nas últimas semanas da guerra sofreu grandes dificuldades após a sua casa ter sido destruída por um bombardeio.
Era venerado pelos seus colegas, não só pela importância de suas descobertas, mas também por suas qualidades pessoais. Foi um pianista talentoso, daí ter cogitado seguir carreira como músico durante a juventude.
Planck foi casado duas vezes. Após a sua nomeação, em 1885, para Professor Associado em sua cidade natal Kiel casou-se com uma amiga de infância, Marie Merck.

14.120 – História da Eletrônica – O Tubo de Raios Catódicos


tubo
Um tubo de raios catódicos ou cinescópio (também conhecido pelo acrónimo CRT, derivado da expressão inglesa cathode ray tube) é um tipo de válvula termiônica contendo um ou mais canhões de elétrons e um ecrã fluorescente utilizado para ver imagens. Seu uso se dá principalmente em monitores de computadores e televisores (cinescópios de deflexão eletromagnética) e osciloscópios (cinescópios de deflexão eletrostática). Foi inventado por Karl Ferdinand Braun em 1897.
Foi em um tubo de raios catódicos que, em 1897, o físico J. J. Thomson verificou a existência do elétron.
As primeiras experiências com raios catódicos são creditadas a J. J. Thomson, físico inglês que, em seus três famosos experimentos, conseguiu observar a deflexão eletrostática, uma das funções fundamentais dos tubos de raios catódicos modernos. A primeira versão do tubo de raios catódicos foi inventada pelo físico alemão Ferdinand Braun em 1897, tendo ficado conhecida como tubo de Braun.
EM 1907, o cientista russo Boris Rosing usou um tubo de raios catódicos na extremidade receptora de um sinal experimental de vídeo para formar uma imagem. Ele conduziu o experimento para mostrar formas geométricas simples na tela. Foi a primeira vez em que a tecnologia de tubo de raios catódicos foi usada para o que agora conhecemos como televisão.
O primeiro tubo de raios catódicos a usar cátodos quentes foi desenvolvido por John B. Johnson e Harry Weiner Weinhart, da Western Electric, tendo se tornado um produto comercial em 1922.[citation needed]
O primeiro televisor comercializado com tubo de raios catódicos foi fabricado pela Telefunken, na Alemanha, em 1934.
A máscara de sombra, formada por uma chapa de aço com cerca de 150 micros de espessura e com cerca de 350 mil furos é conformada em uma fôrma convexa em prensas, lavada e passa por um processo de enegrecimento. Esta chapa é fixada em um anel metálico para dar rigidez e que é fixado à tela por molas.
A camada fotossensível (camada de fósforo) é aplicada na parte interna da tela usando um processo fotoquímico. O primeiro passo é um pré-tratamento da superfície seguido do recobrimento com uma suspensão de fósforo verde. Depois de seca, a máscara é inserida na tela e o conjunto é exposto a uma luz UV que reage na parte exposta pelos furos da máscara. Os raios de luz são emitidos de tal forma que as linhas de fósforo estejam no mesmo ponto que o feixe de elétrons colidirá. Então a máscara é removida da tela e a área não exposta à luz é lavada. Nas áreas que foi exposta, o fósforo adere à tela como resultado de uma reação fotossensível. Na sequência as outras duas cores (azul e vermelho) seguem no mesmo processo.
Para os tubos que utilizam a tecnologia de matriz, linhas de grafite são colocadas entre as linhas de fósforos antes do processo Flowcoating em um processo similar chamado de processo Matrix.
Toda a região da tela é coberta posteriormente com uma camada de alumínio, este alumínio conduz os elétrons e também reflete a luz emitida para trás (efeito espelho).
Em paralelo ao Processamento de Telas, a parte interna do cone de vidro foi recoberta com uma camada de material condutivo. Uma pasta de esmalte é aplicada à borda do cone que após o forno se funde com a tela. A partir do forno o cone e a combinação tela/máscara, incluindo o cone metálico que serve de blindagem magnética, são fundidos no esmalte em alta temperatura.
O canhão eletrônico é inserido e selado no pescoço do cone, o vácuo é formado no interior do bulbo, o qual em seguida é fechado. Neste momento o bulbo se torna um tubo. Um “getter” (elemento químico com alta capacidade de combinação com gases não inertes), montado em uma fase anterior do processo, é evaporado por meio de aquecimento com alta frequência, para que se combine com possíveis átomos residuais de gases, através de reações químicas.
A parte externa do cone do cinescópio é recoberta por uma camada condutiva e uma cinta metálica é colocada na borda do painel através de um processo que envolve o aquecimento da cinta, a sua aplicação à borda do painel, seu resfriamento e consequente contração, para proteger o tubo contra possíveis riscos de implosão.
Alguns cinescópios, dependendo do modelo e fabricante podem possuir metais nobres e até valiosos, tal como paládio, platina e eventualmente ouro, além de terras raras, algumas delas inclusive com pequeno potencial radioativo. Miligramas ou mesmo gramas desses metais e terras raras podem ser encontrados nos catodos e nas grades de difusão ou máscaras.
Dependendo de estudos de viabilidade, a extração desses metais pode compensar o custo de tratamento do descarte e da reciclagem, como já ocorre com os chips recobertos por filmes de ouro e entre outros, determinados conectores e soquetes utilizados em placas de circuito impresso, contatos de relés e etc.
Existem ainda alguns tubos de altíssima luminosidade que podem, apesar de não ser absolutamente certo isso – por estar entre os segredos de fabricação (vide referências) – conter diminutas quantidades de material radioativo pesado, tal como o tório, utilizado no endurecimento e aumento de resistência ao calor dos componentes do canhão eletrônico, tornando o negócio de reciclagem no mínimo desaconselhável para leigos e no pior caso exigindo inclusive disposição especial em áreas especialmente preparadas para recebê-los, para evitar graves contaminações, possivelmente cumulativas, no meio ambiente.
Lembrando que, ainda hoje no Brasil e em outros países, dispositivos mais simples tecnologicamente, mas submetidos a grande calor durante a operação, tal como “camisas de lampião”, são banhadas em material radioativo para permitir às cerdas das mesmas atingirem altas temperaturas sem romperem-se facilmente – o mesmo principio de tratamento por tório, costumava ser utilizado nos cátodos de alguns cinescópios.
Já os televisores mais antigos, aqueles com válvulas termiônicas, contêm algumas delas com cátodos compostos com terras raras, porém em diminutas quantidades. Apesar de encontrarem-se diversas dessas válvulas eletrônicas com informações relativas ao uso de terras raras radioativas nos cátodos, não se sabe exatamente se possuem ou não radioatividade inerente suficiente para causar danos, porém nos recicladores o contato constante com esses materiais poderá ser mais um fator para que não sejam reciclados em ambientes não controlados.
O que torna o assunto da reciclagem de componentes eletrônicos e válvulas termiônicas algo um tanto delicado e que exigiria sempre a presença de um técnico especializado para avaliar o impacto ao meio ambiente e para realizar o descarte seguro desses componentes.
Aparelhos antigos podem conter maior quantidade desses componentes.
Seria irresponsável dizer às pessoas que simplesmente os atirem ao lixo, mas também é irresponsável dizer que leigos poderiam cuidar desse assunto – mesmo descartando-os em Ecopontos como os muitos mantidos pela prefeitura em grandes cidades de São Paulo.

14.103 – Como se formam os raios?


raios
Para que surjam raios, é necessário que, além das gotas de chuva, as nuvens de tempestade tenham em seu interior três ingredientes: cristais de gelo, água quase congelada e granizo. Tais elementos se formam na faixa entre 2 e 10 quilômetros de altitude, onde a temperatura fica entre 0 ºC e -50 ºC. Com o ar revolto no interior da nuvem, esses elementos são lançados pra lá e pra cá, chocando-se uns contra os outros. Com isso, acabam trocando carga elétrica entre si: alguns vão ficando cada vez mais positivos, e outros, mais negativos. Os mais pesados, como o granizo e as gotas de chuva, tendem a ficar negativos.

Por causa da gravidade, o granizo e as gotas de chuva se acumulam na parte de baixo, que vai concentrando carga negativa. Mais leves, os cristais de gelo e a água quase congelada são levados por correntes de ar para cima, deixando o topo mais positivo. Começa a se formar um campo elétrico, como se a nuvem fosse uma grande pilha.
Essa dupla polaridade da nuvem é reforçada ainda por dois fenômenos físicos externos a ela. Acima, na região da ionosfera, os raios solares interagem com moléculas de ar, formando mais íons negativos. No solo, por outro lado, diversos fatores contribuem para que a superfície fique eletricamente positiva. Essa polarização da nuvem cria um campo elétrico descomunal: se as redes de alta tensão têm cerca de 10 mil W (watts) de potência, no céu nublado a coisa chega a 1000 GW (gigawatts)! Tamanha tensão começa a ionizar o ar em volta da nuvem – ou seja, ele passa de gás para plasma, o chamado quarto estado da matéria.

Começa então a se formar um caminho de plasma em direção ao solo. Por ter elétrons livres, o plasma é um bom condutor de eletricidade. Com isso, acaba fazendo a ponte até a superfície para que a tensão da nuvem possa ser descarregada. Enquanto o tronco principal desce rumo ao solo, surgem novos ramos tentando abrir passagem.
Quando um tronco principal está próximo do solo, começa a surgir uma massa de plasma na superfície. Essa massa vai subir até se conectar com o veio que desce e, então, fechar o circuito. É por isso que, se alguém estiver perto de onde o fenômeno está rolando, vai perceber os pelos do corpo se eriçando. Quando o caminho se fecha, rola uma troca de cargas entre a superfície e a nuvem e – zap! – temos o relâmpago. A espetacular faísca é fruto do aquecimento do ar, enquanto o ribombar do trovão vem da rápida expansão da camada de ar. Do surgimento do tronco de plasma até rolar o corisco, se passa apenas cerca de 0,1 segundo.
É verdade que um raio não cai duas vezes no mesmo lugar?

Não, isso é mito. Quando o tronco principal de um raio alcança o solo, todas as suas ramificações tentam usar esse caminho aberto e, às vezes, caem no local exato do primeiro relâmpago. Já foram observadas até 32 descargas no mesmo lugar!

Pessoas com metais no corpo têm mais chances de serem atingidas?
Outra lorota. Os metais que porventura trazemos no corpo – como próteses, pinos e aparelho dentário – são muito pequenos para que o raio os considere como um atalho para o solo. Agora, árvores, sim, são bons atalhos. Ou seja, não fique perto de uma durante um toró!

É perigoso nadar durante uma tempestade?
Sim, pois a água conduz bem a eletricidade. Se você estiver no mar e um raio cair a menos de 50 metros, você tem grande risco de receber toda a força da descarga. Em piscinas é ainda pior, pois o choque também pode chegar pelas tubulações metálicas

O que acontece quando é alguém é atingido?
Se o raio cair exatamente em cima do sujeito, é quase certo que ele seja reduzido a um toquinho carbonizado: o corisco gera um aquecimento de quase 30 mil graus Celsius! Caso ele caia a até 50 metros de distância, é grande o risco de rolar parada cardíaca e queimaduras.

É perigoso falar ao telefone durante um temporal?
Se for um telefone com fio, é. Assim como um raio pode atingir um poste e se propagar pela fiação elétrica da casa, queimando eletrodomésticos, ele pode viajar pela linha telefônica até fritar a orelha da pessoa. Telefones sem fio e celulares não correm esse risco.

14.093 – Audiotecnologia – Como Funciona um Alto Falante


alto falantes 1
Graças aos nossos ouvidos conseguimos ouvir sons produzidos por diversos dispositivos como buzinas, campainhas, bumbos, alto-falantes, etc. Os alto-falantes hoje estão em diversos aparelhos eletrônicos, sendo muito utilizados para incrementar carros de sons, como mostra a figura acima.
Podemos simplificar a definição de alto-falantes como sendo componentes que transformam sinais elétricos de uma corrente elétrica em oscilações de pressão no ar, em forma de onda sonora. Caso observemos bem de perto um alto-falante, poderemos verificar que seus componentes básicos são um ímã permanente, preso na armação do alto-falante, e uma bobina móvel, que está fixa no cone de papel.
Quando aplicamos uma corrente elétrica variável na bobina, esta é repelida ou atraída pelo campo magnético do ímã permanente. Desta forma, o conjunto bobina-cone é movido para frente e para trás, empurrando o ar em sua volta, criando uma onda de compressão e rarefação no ar, ou seja, uma onda sonora.
Por exemplo, aplicando uma corrente oscilante de 440 Hz na bobina, o cone do alto-falante vai se mover para frente e para trás com esta mesma frequência, produzindo uma onda sonora de 440 Hz.
A bobina, presa ao cone, é movida para frente e para trás por meio da força magnética, quando ela é percorrida por uma corrente elétrica.

14.056 – A Antigravidade


detector alfa
Um dos fatos mais surpreendentes sobre a ciência é como são aplicáveis universalmente as leis da natureza. Cada partícula obedece as mesmas regras, experimenta as mesmas forças e vê as mesmas constantes fundamentais, não importando onde ou quando elas existam. Gravitacionalmente, todas as entidades do universo experimentam, dependendo de como você as vê, ou a mesma aceleração gravitacional ou a mesma curvatura do espaço-tempo, não importando as propriedades que possui.
Pelo menos, é como as coisas são na teoria. Para o astrofísico Ethan Siegel, fundador e escritor de Starts With A Bang, na prática, algumas coisas são notoriamente difíceis de medir. Fótons e partículas normais e estáveis caem como esperado em um campo gravitacional, com a Terra fazendo com que qualquer partícula massiva acelere em direção ao seu centro a 9,8 m / s 2 . Apesar de nossos melhores esforços, nunca medimos a aceleração gravitacional da antimatéria. Deveria acelerar exatamente da mesma maneira, mas até medirmos isso, não podemos saber.
Um experimento está tentando decidir o assunto, de uma vez por todas. Dependendo do que encontrar, pode ser a chave para uma revolução científica e tecnológica. Se quisermos saber como a antimatéria se comporta gravitacionalmente, não podemos simplesmente sair do que teoricamente esperamos ; temos que medir isso. Felizmente, há um experimento em execução agora que foi projetado para fazer exatamente isso: o experimento ALPHA no CERN .
A colaboração ALPHA foi a mais próxima de qualquer experimento a medir o comportamento da antimatéria neutra em um campo gravitacional. Com o próximo detector ALPHA-g, poderemos finalmente saber a resposta. Crédito: Maximiniel Brice/CERN)
Um dos grandes avanços que foram dados recentemente é a criação não apenas de partículas de antimatéria, mas estados neutros e estáveis do mesmo. Antiprótons e pósitrons (antielétrons) podem ser criados, desacelerados e forçados a interagir uns com os outros, onde formam um anti-hidrogênio neutro. Usando uma combinação de campos elétricos e magnéticos, podemos confinar esses antiátomos e mantê-los estáveis, longe do assunto que os faria aniquilar.
O novo detector ALPHA-g, construído na instalação Triunf do Canadá e enviado ao CERN no início deste ano, deve melhorar os limites da aceleração gravitacional da antimatéria até o limiar crítico. Do ponto de vista teórico e de aplicação, qualquer resultado que não os esperados +9,8 m/s2 seria absolutamente revolucionário. A contraparte da antimatéria de todas as partículas de matéria deve ter: a mesma massa, a mesma aceleração em um campo gravitacional, a carga elétrica oposta, a rotação oposta, as mesmas propriedades magnéticas, deve se unir da mesma forma em átomos, moléculas e estruturas maiores e deve ter o mesmo espectro de transições de positrons nessas variadas configurações.
Alguns destes foram medidos por um longo tempo: massa inercial da antimatéria, carga elétrica, spin e propriedades magnéticas são bem conhecidos. Suas propriedades de ligação e transição foram medidas por outros detectores no experimento ALPHA e se alinham com o que a física de partículas prevê. Mas se a aceleração gravitacional voltar negativa em vez de positiva, literalmente viraria o mundo de cabeça para baixo.
(O detector ALPHA-g, construído na instalação de aceleração de partículas do Canadá, TRIUMF, é o primeiro de seu tipo projetado para medir o efeito da gravidade na antimatéria. Quando orientado verticalmente, deve ser capaz de medir em qual direção a antimatéria cai e em qual magnitude. Crédito: Stu Shepherd/ Triumf)
Atualmente, não existe tal coisa como um condutor gravitacional. Em um condutor elétrico, cargas livres vivem na superfície e podem se mover, redistribuindo-se em resposta a quaisquer outras cargas ao redor. Se você tiver uma carga elétrica fora de um condutor elétrico, o interior do condutor será protegido dessa fonte elétrica.
Mas não há como se proteger da força gravitacional. Não há como montar um campo gravitacional uniforme em uma região do espaço, como você pode fazer entre as placas paralelas de um capacitor elétrico. O motivo? Porque ao contrário da força elétrica, que é gerada por cargas positivas e negativas, há apenas um tipo de “carga gravitacional”, e isso é massa e energia. A força gravitacional é sempre atraente e simplesmente não há maneira de contornar isso.
Mas se você tem massa gravitacional negativa, tudo isso muda. Se a antimatéria realmente se torna antigravitacional, caindo em vez de cair, então a gravidade a vê como se fosse feita de antimassa ou antienergia. Sob as leis da física que atualmente entendemos, quantidades como antimassa ou antienergia não existem. Podemos imaginá-los e falar sobre como eles se comportariam, mas esperamos que a antimatéria tenha massa normal e energia normal quando se trata de gravidade.
(A ferramenta Virtual IronBird para o Centrifuge Accommodation Module é uma maneira de criar gravidade artificial, mas requer muita energia e permite apenas um tipo específico de força de busca de centro. A verdadeira gravidade artificial exigiria que algo se comportasse com massa negativa. Crédito: NASA/AMES)
Se antimassa existe, no entanto, uma série de grandes avanços tecnológicos, imaginados por escritores de ficção científica por gerações, de repente se tornariam fisicamente possíveis. Podemos construir um condutor gravitacional e nos proteger da força gravitacional. Podemos montar um capacitor gravitacional no espaço, criando um campo de gravidade artificial uniforme. Poderíamos até mesmo criar um drive de dobra, já que teríamos a capacidade de deformar o espaço-tempo exatamente da maneira que uma solução matemática para a Relatividade Geral, descoberta por Miguel Alcubierre em 1994, exige.
É uma possibilidade incrível, que é considerada altamente improvável por praticamente todos os físicos teóricos. Mas não importa quão selvagens ou domesticadas sejam suas teorias, você deve confrontá-las com dados experimentais; somente medindo o Universo e colocando-o à prova, você pode determinar com precisão como as leis da natureza funcionam.

14.001 – Física – A Teoria do Multiverso


É um termo usado para descrever o conjunto hipotético de universos possíveis, incluindo o universo em que vivemos. Juntos, esses universos compreendem tudo o que existe: a totalidade do espaço, do tempo, da matéria, da energia e das leis e constantes físicas que os descrevem. É geralmente usado em enredos de ficção científica, mas também é uma extrapolação possível de algumas teorias científicas para descrever um grupo de universos que estão relacionados, os denominados universos paralelos. A ideia de que o universo que se pode observar é só uma parte da realidade física deu luz à definição do conceito “multiverso”.
O conceito de Multiverso tem suas raízes em extrapolações, até o momento não científicas, da moderna Cosmologia e na Teoria Quântica, e engloba também várias ideias oriundas da Teoria da Relatividade de modo a configurar um cenário em que pode ser possível a existência de inúmeros Universos onde, em escala global, todas as probabilidades e combinações ocorrem em algum dos universos. Simplesmente por haver espaço suficiente para acoplar outros universos numa estrutura dimensional maior: o chamado Multiverso.

Os universos seriam, em uma analogia, semelhantes a bolhas de sabão flutuando num espaço maior capaz de abrigá-las. Alguns seriam até mesmo interconectados entre si por buracos negros ou de buracos de minhoca.

Em termos de interpretações da Mecânica Quântica, que, ao contrário da Mecânica Quântica em si, não são cientificamente estabelecidas, a Interpretação de Vários Mundos fornece uma visão que implica um multiverso. Nessa visão, toda vez que uma decisão quântica tem de ser tomada – em termos técnicos, toda vez que há uma redução da função de onda de um estado emaranhado – dois ou mais universos independentes e isolados surgem, um para cada opção quântica possível. Vivemos no universo no qual as decisões quânticas adequadas levam à nossa existência.

Devido ao fato da conjectura de multiverso ser essencialmente ideológica, não havendo, atualmente, qualquer tipo de prova tecnicamente real, a “teoria dos universos paralelos” ou “multiverso” é em essência uma teoria não científica. Nesse ponto, aliada à completa ausência de evidência científica, há ainda a questão concernente à compatibilidade com as teorias científicas já estabelecidas e os rumos diretamente apontados por essas. No conceito de multiverso, imagina-se um esquema em que todas os universos agregavam-se mutuamente por uma infinita vastidão. Tal conceito de Multiverso implica numa contradição em relação à atual busca pela Teoria do Campo Unificado ou pela Teoria do Tudo, uma vez que em cada Universo pode-se imaginar que haja diferentes Leis Físicas.
Em 1952, Erwin Schrödinger deu uma palestra, em Dublin, onde avisou com entusiasmo a audiência que o que estava prestes a enunciar poderia parecer “lunático”. Ele disse que, quando suas equações Nobel pareciam descrever várias histórias diferentes, estas não eram “alternativas, mas que tudo realmente acontece simultaneamente”. Esta é a primeira referência conhecida ao multiverso.
O multiverso inflacionário é composto de vários bolsos em que os campos de inflação se desmoronam e formam novos universos.
A versão membrana do multiverso postula que todo o nosso universo existe em uma membrana (brane) que flutua em uma maior dimensão. Neste volume, existem outras membranas com seus próprios universos. Esses universos podem interagir uns com os outros, e quando colidem, a violência e a energia produzida são mais do que suficientes para dar origem a um big bang. As membranas flutuam ou se aproximam uma da outro, e a cada poucos trilhões de anos, atraídas pela gravidade ou por alguma outra força que não entendemos, colidem. Este contato repetido dá origem a explosões múltiplas ou “cíclicas”. Esta hipótese particular cai sob o guarda-chuva da teoria das cordas, pois exige dimensões espaciais extras.
As diferentes teorias de Multiverso são por muitos utilizadas para contraposição à ideia do Design Inteligente e seu Argumento da Improbabilidade ou Argumento do Universo Bem Ajustado. Ou seja, são utilizadas por muitos como explicação para a pré-assumida “improbabilidade estatística” das leis da física e das constantes físicas fundamentais serem “tão bem ajustadas” para permitirem a construção do universo tal qual o conhecemos; em particular um universo capaz de abrigar vida inteligente com habilidade de indagar sobre a história do próprio universo em que existe.
Tal argumentação é comum em discussões envolvendo os defensores da existência de um “projetista inteligente” e os defensores de sua inexistência, defensores últimos que buscam uma resposta alternativa à questão decorrente da inexistência do projetista onipotente para o universo através da extrapolação das regras científicas encerradas na teoria da evolução biológica ao restante do universo, contudo sem as pertinentes considerações, o que leva à ideia do multiverso como resposta às estipuladas “particularidades” de nosso universo defendidas pela outra ala. O uso de tal linha de raciocínio e resposta é contudo desaconselhado sem acompanhamento dos devidos rigores, e especificamente falho no caso do multiverso. Ele falha essencialmente por desconsiderar que a existência do multiverso não é cientificamente estabelecida, consistindo o argumento por tal apenas em se trocar uma crença por outra; a crença do “projetista inteligente” pela crença do “multiverso”.

Argumento contra
Para começar, como é que a existência dos outros universos deve ser testada? Com certeza, todos os cosmólogos aceitam que existem algumas regiões do universo que se encontram fora do alcance de nossos telescópios, mas, em algum lugar na inclinação escorregadia entre isso e a ideia de que há um número infinito de universos, a credibilidade atinge um limite. À medida que um desliza abaixo dessa inclinação, mais e mais deve ser aceito na fé e cada vez menos está aberto à verificação científica. As explicações multiversas extremas são, portanto, remanescentes das discussões teológicas. Na verdade, invocar uma infinidade de universos invisíveis para explicar as características incomuns da que vemos é tão ad hoc quanto invocar um Criador invisível. A teoria do multiverso pode ser vestida em linguagem científica, mas, em essência, requer o mesmo salto de fé.

– Paul Davies, “A Brief History of the Multiverse”
Cético como sou, penso que a contemplação do multiverso é uma excelente oportunidade para refletir sobre a natureza da ciência e sobre a natureza final da existência: por que estamos aqui …. Ao olhar para esse conceito, precisamos ter a mente aberta, mas não tanto. É um caminho delicado para andar. Os universos paralelos podem ou não existir; O caso não está provado. Vamos ter que viver com essa incerteza. Nada está errado com a especulação filosófica cientificamente baseada, que é o que são as propostas multiversas. Mas devemos nomeá-lo pelo que é.

– George Ellis, Scientific American, “Does the Multiverse Really Exist?”

13.999 – Mecânica quântica e universos paralelos – a física de “Vingadores: Ultimato”


Em Vingadores, por outro lado, toda vez que o passado é alterado, surge um universo paralelo em que tudo ocorre de maneira diferente graças a essa alteração. Esse mecanismo – diferente do adotado por J.K. Rowling e Robert Zemeckis – não deriva da física clássica de Einstein, e sim, como já mencionado, da física quântica, da qual o próprio Einstein duvidou.
Para entender esse mecanismo, imagine que uma personagem que acabamos de inventar, a Ana, se arrependeu de começar um namoro com Gabriel e quer voltar no tempo para impedir si própria de conhecê-lo. Ela pretende furar o pneu do ônibus que Gabriel pegou para ir à faculdade naquela fatídica tarde de 2014. Assim, eles nunca teriam formado uma dupla na aula.
Se o plano desse certo no mundo de De Volta para o Futuro, assim que Ana retornasse a 2019, veria sua vida completamente mudada. No mundo de Harry Potter, por outro lado, o plano não daria certo: Ana descobriria que, naquela dia, o pneu furado foi justamente o que fez com que Gabriel chegasse um pouco atrasado à aula – e fosse obrigado a formar dupla com ela em vez de escolher um amigo próximo.
Já na perspectiva quântica, Ana teria inaugurado um novo universo. Uma realidade paralela em que ela de fato não viveu com Gabriel – enquanto o outro universo, em que o namoro segue normalmente, continua existindo. Parece maluquice – é maluquice –, mas é uma consequência da maneira como o físico americano Hugh Everett III interpretou as equações de Niels Bohr (sim, o da sua aula de química) e Erwin Schrödinger (sim, o do gato). Calma que a gente explica.

O que é física quântica, afinal?
Ela é a única teoria que descreve de maneira bem sucedida o comportamento de átomos e das partículas menores que átomos – os quarks e elétrons que compõem os átomos, por exemplo, ou os fótons, as partículas que perfazem a luz. Se você tentar usar as equações da Relatividade de Einstein para explicar o que um elétron está fazendo, não vai dar certo. O mundo das coisas pequenas é inacessível às equações do alemão.
Isso porque é impossível determinar a posição de um elétron. O melhor que você pode fazer é criar uma espécie de gráfico que demonstra onde há maior ou menor probabilidade deste elétron estar em um determinado momento. A equação que gera essa gráfico foi a grande sacada de Erwin Schrödinger.
Essa é uma noção muito estranha, pois nada, na nossa experiência cotidiana, pode estar em dois lugares ao mesmo tempo. Se você está em casa, a probabilidade de que você esteja em casa é 100%, e de que você esteja fora de casa, 0%. Não dá para estar meio grávida, não dá para cometer meia infração de trânsito, não dá para estar 50% na cama e 50% no mercado.
Isso é tão verdade que até as próprias partículas concordam: quando você tenta estabelecer a posição de um elétron, ele imediatamente abandona sua incerteza e se manifesta em um lugar só. O gráfico, antes tão irregular, atinge 100% de garantia. Dureza: o mundo, na escala quântica, passa a perna nos cientistas. Quem descobriu que o elétron se nega a manifestar sua estranheza foi o dinamarquês Niels Bohr.
O que Everett concluiu foi: de fato, é extremamente tosco supor que um elétron esteja em dois lugares ao mesmo tempo, ou que o observador veja a partícula em vários lugares ao mesmo tempo. Mas não é tão tosco assim pressupor que existem vários universos, e que cada um deles contêm o elétron em uma das posições possíveis. Ou seja: o Gato de Schrödinger está vivo em um universo, e morto em outro. Acabou o paradoxo.
Mais recentemente, um físico chamado David Deutsch juntou algumas possibilidades de viagem no tempo quântica com a ideia do multiverso – gerando um cenário teórico mais ou menos parecido com o do filme. E é esse o Deutsch mencionado por Tony Stark no começo do filme.

13.974 – Acredite se Quiser – Físicos revertem o tempo usando um computador quântico


tempo
Pesquisadores do Instituto de Física e Tecnologia de Moscou (Rússia), em colaboração com cientistas dos EUA e da Suíça, inverteram o tempo em um experimento quântico.
O que eles fizeram foi devolver o estado de um computador quântico uma fração de segundo ao passado.
Os cientistas também calcularam a probabilidade de um elétron no espaço interestelar vazio viajar espontaneamente de volta ao seu passado recente – descobrindo que isso ocorreria apenas uma vez em toda a história do universo.
“Este é um de uma série de artigos sobre a possibilidade de violar a segunda lei da termodinâmica. Essa lei está intimamente relacionada com a noção da flecha do tempo que postula a direção unidirecional do tempo, do passado para o futuro”, disse o principal autor do estudo, Gordey Lesovik.
A maioria das leis da física não faz distinção entre o futuro e o passado. Tomemos como exemplo uma equação que descreve a colisão e o rebote de duas bolas de bilhar idênticas. Se um close desse evento for gravado com uma câmera e reproduzido ao contrário, ele ainda pode ser representado pela mesma equação.
No entanto, imagine gravar uma bola branca batendo em uma pirâmide de bolas de bilhar que se espalham em todas as direções. Nesse caso, é fácil distinguir o cenário da vida real da reprodução reversa.
Elétron de volta ao passado
Os físicos quânticos de Moscou decidiram verificar se o tempo poderia se inverter espontaneamente, pelo menos para uma partícula individual e por uma pequena fração de segundo. Isto é, em vez de bolas de bilhar, eles examinaram um elétron solitário no espaço interestelar vazio.
“Suponha que o elétron esteja localizado quando começamos a observá-lo. Isso significa que temos certeza sobre sua posição no espaço. As leis da mecânica quântica nos impedem de conhecê-la com absoluta precisão, mas podemos delinear uma pequena região onde o elétron está localizado”, disse um dos autores do estudo, Andrey Lebedev.
A evolução do estado do elétron é governada pela equação de Schrödinger. Embora não faça distinção entre o futuro e o passado, a região do espaço que contém o elétron se espalha muito rapidamente. Ou seja, o sistema tende a se tornar mais caótico, e a incerteza da posição do elétron cresce. Isso é análogo à crescente desordem em um sistema de grande escala – como em uma mesa de bilhar – devido à segunda lei da termodinâmica.

“No entanto, a equação de Schrödinger é reversível”, explica Valerii Vinokur, outro autor do artigo, do Argonne National Laboratory, nos EUA. “Matematicamente, isso significa que sob uma certa transformação chamada conjugação complexa, a equação descreverá uma ‘mancha de elétron’ localizada no passado em uma pequena região do espaço no mesmo período de tempo”.

Por que não vemos isso no cotidiano?
Embora esse fenômeno não seja observado na natureza, teoricamente poderia acontecer devido a uma flutuação aleatória no fundo de micro-ondas cósmico que permeia o universo.
A equipe então resolveu calcular a probabilidade de observar um elétron localizando-se espontaneamente em seu passado recente.
Os cientistas descobriram que, durante toda a vida do universo – 13,7 bilhões de anos -, mesmo observando 10 bilhões de elétrons recém-localizados a cada segundo, a evolução inversa espontânea do estado da partícula só aconteceria uma vez. Além disso, o elétron não viajaria mais do que um décimo de bilionésimo de segundo no passado.
Fenômenos de larga escala envolvendo bolas de bilhar retornando à uma pirâmide e vulcões impelindo lava obviamente se desdobrariam em escalas de tempo muito maiores e apresentariam um número impressionante de elétrons e outras partículas. Isso explica por que não observamos pessoas idosas ficando mais jovens na vida real.
Curiosamente, o próprio algoritmo de inversão de tempo pode ser útil para tornar os computadores quânticos mais precisos. “Nosso algoritmo pode ser atualizado e usado para testar programas escritos para computadores quânticos e eliminar erros”, concluiu Lebedev.
A pesquisa foi publicada na revista científica Scientific Reports. [Phys]

13.960 – Física – Big Bang foi Descoberto por Acaso


balão do big bang
A origem do Universo foi descoberta em um lugar em que ninguém buscava. E foi formulada graças a uma descoberta fortuita anterior – a que deu origem à radioastronomia, ramo da astronomia que estuda as radiações eletromagnéticas emitidas ou refletidas pelos corpos celestes.
“Na década de 1930, os laboratórios Bell estavam tentando criar radiotelefones, mas havia um sinal que estava interferindo nas transmissões pelo Atlântico. Pediram a Karl Jansky (físico e engenheiro de rádio) para investigar”, contou à BBC News Sara Bridle, professora de astrofísica da Universidade de Manchester.
A descoberta foi importante porque revelou todo um pedaço do Universo que ainda era completamente invisível e, por isso, desconhecido.
Para o astrônomo Nial Tanvir, era como estar num quarto com pouca luz, observando assustado tudo o que se podia enxergar e, de repente, alguém aparece com um óculos de visão noturna.
A origem do Universo é, por excelência, um desses processos – comprovado graças ao acaso, que ajudou a demonstrar empiricamente o chamado Big Bang, ou Grande Explosão.
“A ideia do Big Bang, do ponto de vista teórico, é que num momento no passado, toda a matéria e toda a energia do Universo estava um único lugar e logo explodiu. Essa explosão marcou o início do tempo e da expansão do espaço, partindo do nada, e a expansão continua acontecendo”, resume Tanvir. “Soa como uma teoria louca, mas é o que a matemática nos diz”, completa o astrônomo.
A teoria da Grande Explosão ganhou força durante o século passado. No entanto, até meados dos anos 1960, ainda faltavam provas contundentes para derrubar teorias alternativas.
A evidência que faltava veio à tona graças à radiação cósmica de fundo em micro-ondas (CMB, na sigla em inglês), outro acaso.
Tudo começou com Arno Penzias e Robert Woodrow Wilson trabalhavam com uma antena supersensível – com design digno de filme de ficção científica (veja na foto abaixo) – desenhada para detectar as ondas de rádio emitidas pelos echo balloon satellites, satélites em formato de balão.
Para medir as ondas, elas precisavam eliminar todo tipo de interferência que viesse de outras fontes.
Quando fizeram isso, os pesquisadores se depararam com um ruído desconhecido e persistente, “um sinal fraco, mas facilmente detectável, que não vinha de nada na Terra nem no Sistema Solar, nem mesmo da nossa galáxia”, diz Tanvir, relembrando a história.

Esse sinal vinha de todas as direções.
Um ruído incômodo
Em todos os lugares eles encontravam o mesmo “calor de fundo”, como o próprio Penzias explicou em uma entrevista à BBC no final dos anos 70, referindo-se à energia emitida pelas ondas.
Um esforço para melhorar as comunicações de rádio, um ruído no espaço e alguns físicos teóricos por perto… tudo se reuniu em um notável acidente que, segundo a maioria dos cientistas, deu ao mundo o que era necessário para comprovar a maior de todas as teorias: o Big Bang.
Poderia-se dizer que Penzias e Wilson ganharam na loteria científica.
Uma vez que o cocô do pombo foi descartado, o “ruído” irritante acabou por ser a descoberta acidental do século, a evidência da origem do Universo.
Mas, embora a descoberta da CMB, a radiação cósmica de fundo em micro-ondas, tenha sido um acidente, será possível afirmar que, realmente, foi pura sorte?
Penzias e Wilson tiveram a sorte de se deparar com o ruído e de encontrar a teoria para explicá-lo literalmente logo ao lado. A dupla, entretanto, foi muito cuidadosa e não ignorou as evidências que lhe apareciam, por mais irritantes que elas fossem.
Os cientistas ganharam em 1978 o prêmio Nobel de Física.
Em um mundo em que o tempo de acesso aos telescópios é regulamentado e o teste de hipóteses, base do método científico, depende de financiamento, a radioastronomia moderna aprendeu com os acidentes de seu passado.

13.894 – Físico quer construir máquina do tempo para reencontrar pai morto há 60 anos


Ron Mallet
Pode parecer enredo de filme de ficção, mas é real essa triste história:
Um professor e físico da Universidade de Connecticut, nos Estados Unidos, quer construir uma máquina do tempo para reencontrar seu pai morto há quase 60 anos. “Toda a minha existência e quem eu sou é devido à morte de meu pai”, explica Ron Mallet, então com 69 anos,”fiz uma promessa a mim mesmo de que vou descobrir como modificar o tempo usando como base o trabalho de Einstein”.

Mallet dedicou boa parte de sua vida estudando o tempo e o espaço e desenvolvendo equações derivadas das leis criadas por Albert Einstein. Agora, o físico quer arrecadar US$ 250.000 (cerca de R$ 810 mil) para realizar um estudo que mostra que é possível viajar no tempo com uma máquina. Um dos amigos do físico, Chandra Roychoudhuri, está desenvolvendo protótipos baseados em sua teoria. O modelo atual consiste em uma máquina com anéis de laser verde-incandescentes que circulam dentro de um tubo de vidro.

Teoria
Einstein afirma que se o espaço pode ser torcido, então o tempo também pode, formando uma série de loops. Assim, ele deixa de ser linear e se torna uma estrada circular que pode ser percorrida em ambos os sentidos, passado e futuro. “Pense em uma xícara de café. O café representa o espaço vazio. A colher é o laser que agita o espaço. A queda de um grão de café (ou nêutron) na xícara vai criar redemoinhos no vórtice de café. Um turbilhão intenso pode criar torções espaço e tempo voltas e voltas sobre si mesmo”, explica Mallet.
O físico diz que manteve seu trabalho em segredo durante anos por ter certeza que os colegas de profissão o achariam doido. Em 2001, depois de publicar sua equação (“sair do armário”, segundo ele), Mallet recebeu o apoio de diversos cientistas renomados, como Kip Thorne, um dos físicos mais famosos da atualidade.
Em 2015, ano em que a teoria de Einstein completou 100 anos, Ron Mallet esperava arrecadar dinheiro o suficiente para colocar sua ideia em prática.
O pai de Ron, um fumante inveterado, morreu de um ataque cardíaco aos 33 anos – quando o Prof Mallett tinha apenas 10 anos de idade. Ron ficou arrasado e retirou-se para seus livros.
“Um ano depois, quando eu tinha 11 anos, me deparei com o livro que mudou tudo para mim. Foi o The Time Machine,(A Máquina do Tempo) de HG Wells”, disse o físico da Universidade de Connecticut ao programa Horizon da BBC.

Prof Mallett explica: “Se eu pudesse construir uma máquina do tempo, então eu poderia voltar ao passado e ver meu pai novamente e talvez salvar sua vida e mudar tudo”.
Quando o Dr. Mallett tinha 28 anos em 1973, ele recebeu seu Ph.D da Penn State University. Desde 1987, ele é professor titular de física na Universidade de Connecticut e é membro da American Physical Society e da National Society of Black Physicists.

A viagem
no tempo á tempos não é uma ideia absurda. Os cientistas já estão explorando vários mistérios da natureza que poderiam um dia ver o sonho de Ronald ser realizado.
Albert Einstein achava que as três dimensões do espaço estavam ligadas ao tempo – o que serve como uma quarta dimensão. Ele chamou esse sistema de espaço-tempo e é o modelo do Universo usado hoje.

“Minha teoria da viagem no tempo pode ser vista como o ponto culminante de nossa compreensão da gravidade, primeiramente considerada por Newton e entendida em um nível mais profundo por Einstein … O que eu ensino aos alunos é a importância de perceber que a possibilidade de viajar no tempo se baseia em física sólida. sobre o trabalho de Einstein e sua teoria da relatividade especial, certo nessa teoria é a possibilidade de viajar no tempo para o futuro ”.
“É um equívoco que a teoria da relatividade especial de Einstein afirme que nada pode ir mais rápido que a velocidade da luz. Além disso, especula-se que partículas subatômicas, taquiones, teoricamente predisseram partículas que viajam mais rápido que a velocidade da luz no vácuo, existem e são consistentes com a teoria da relatividade de Einstein. Também foi conjecturado que os táquions poderiam ser usados ​​para enviar sinais de volta no tempo. Até que os recentes resultados do CERN tenham sido conclusões ”.Você, como cientista, prescreve pessoalmente a teoria do universo cuidadosamente verificados, é muito cedo para tirar quaisquer do relógio – o universo é como um relógio ferido por Deus, mas que acompanha as leis da física, independente de Deus?”

pai de Ron Malet

 

 

13.867 – Curiosidades – Qual a Velocidade de uma bala?


campanha-do-desarmamento-2011
O revólver de calibre 38 atira o projétil em média 349m/s ou convertido a 1256,4 Km/h (em média!)

Tiro pra cima

Dependendo do ângulo em que o atirador aponta a arma pode matar sim! Se o tiro for dado exatamente para cima, em um ângulo reto, de 90 graus, a bala provavelmente não vai matar alguém, mas pode causar acidentes graves. “Ao atingir uma certa altura, a velocidade do projétil cai a zero e ele despenca como se fosse uma pedra pequena, mas a resistência do ar não deixa a bala passar de 270 km/h no fim do trajeto. Para perfurar o tecido do corpo, ela precisaria atingir pelo menos 350 km/h”. A situação complica quando o tiro é disparado em ângulos menores. Nesses casos, o projétil traça um arco no céu sem chegar a parar e boa parte da velocidade inicial é mantida.
Para piorar, como a bala sai do cano girando, ela fura o ar como se fosse uma broca e acaba caindo com a ponta virada para baixo, quase sem perder o pique. O drama é que uma bala atirada de um revólver calibre 38 parte a 1 042 km/h. O projétil de um fuzil AR-15 é ainda mais veloz: atinge 3 500 km/h. Mesmo que elas percam metade da velocidade no trajeto, o tiro dado para cima ainda pode ser letal.

13.822 – Nobel de Física 2018


nobel-de-fisica-1538475641187_615x300
Arthur Ashkin, Gérard Mourou e Donna Strickland são os ganhadores do prêmio Nobel de Física deste ano.
O americano Arthur Ashkin, 96, foi premiado com metade do valor por sua pesquisa em pinças ópticas e a aplicação delas em sistemas biológicos. O francês Gérard Mourou, 74, e a canadense Donna Strickland dividirão os outros R$ 2 milhões. Eles ganharam por seu método de gerar pulsos de laser supercurtos de alta intensidade, utilizados em cirurgias para os olhos. Donna Strickland é apenas a terceira mulher a vencer o prêmio desde 1903, e a primeira desde 1963.
Ashkin inventou pinças ópticas que conseguem agarrar partículas, átomos, vírus e outras células vivas com dedos de raios laser. Ele conseguiu que luzes laser empurrassem pequenas partículas para o centro do feixo e as segurassem ali. Em 1987, o americano conseguiu capturar bactérias vivas sem danificá-las. As pinças ópticas agora são utilizadas para investigar a “maquinaria da vida”, de acordo com a Academia sueca.
“Fiquei muito feliz com a nomeação do Ashkin, que foi reconhecido por seu trabalho pioneiro em experimentos usando lasers para aprisionamento de átomos e partículas”, diz Oscar Nassif de Mesquita, professor da Universidade Federal de Minas Gerais (UFMG), que introduziu a técnica no Brasil, em 1999, junto com seu grupo de pesquisa.
“Utilizando raios de luz, Ashkin mostrou que era possível manipular a célula como se fosse uma pinça. É difícil desenvolver uma pinça mecânica, tão pequena, capaz de pegar uma célula só, mas você consegue desenvolver uma com feixes de luz. E sem matar a célula, que é o mais importante”, explica Vanderlei Bagnato, pesquisador em ótica e diretor do Instituto de Física de São Carlos, vinculado à USP.
Bagnato acrescenta que um feixe de luz, além de carregar energia, também tem a capacidade de gerar força. “Quando a luz penetra na célula, a célula funciona como uma lente e desvia o feixe de luz. É como se a célula empurrasse a luz para uma direção, mas aí ela sofre também um empurrão na direção oposta. E o efeito é usado para controlar o movimento das células”.

Lasers de alta intensidade
Já Mourou e Strickland desenvolveram “os pulsos de laser mais curtos e intensos já criados pela humanidade”, segundo a Academia. A técnica inventada por eles, a amplificação de pulsos (CPA, em inglês), tornou-se o padrão para raios laser de alta intensidade, servindo para cirurgias nos olhos.
A professora Ana Maria de Paula, pesquisadora da área na Universidade Federal de Minas Gerais (UFMG), explica que a técnica funciona porque permite que sejam feitos cortes muito precisos, sem danificar o material em volta do local da operação. A pesquisadora aponta também que, com os lasers ultracurtos e de alta potência, é possível estudar fenômenos que acontecem muito rápido, como o movimento de elétrons.
“Os elétrons, as partículas dentro dos átomos, são muito minúsculos. Os tempos associados a esses movimentos também são muito curtos. Com os lasers, você consegue acompanhar esses movimentos, que são da escala de femtosegundos (um quadrilionésimo de segundo)”, explica.
A luz é a coisa mais fundamental pra tudo na vida. Toda vez que a gente consegue desenvolver novos aplicativos, ou novas formas de manipular a própria luz, é extremamente importante para a humanidade”, completa Bagnato.

Mulheres
A falta de mulheres vencedoras na categoria foi destaque durante o anúncio do prêmio. A pesquisadora Olga Botner, membro do comitê, afirmou que “a porcentagem de mulheres nomeadas reflete o número de mulheres na ciência há 20 ou 30 anos, e vem aumentando constantemente ao longo dos anos”.
O diretor da Sociedade Brasileira de Física, Marcos Pimenta, confirma que a presença da mulher na física, hoje, é uma preocupação. “A vitória dela é uma coisa fantástica — que deveria ser mais comemorada e falada do que as pesquisas em si. As mulheres, muitas vezes, têm mais dificuldades de ascender na carreira. Eu formo de 15% a 20% de mulheres na graduação, mas a fração das que conseguem chegar a professora titular ou pesquisadora vai caindo”, avalia.
Ana Maria de Paula concorda. “Existe, sim, discriminação contra as mulheres. O trabalho das mulheres acaba sendo menos prestigiado do que o masculino, mesmo que tenha o mesmo valor e qualidade”. Ela acredita que a mudança deve ser cultural.
“Não é uma questão muito simples de ser resolvida, mas, tendo alguns reconhecimentos, incentiva mais as mulheres a perceberem que podem, também, ter chances de serem reconhecidas”, conclui.

13.772 – Como Surgiu a Força de Gravidade?


gravitons
De todas as forças do universo, a gravidade é aquela que se estuda há mais tempo e, paradoxalmente, a menos conhecida. Qualquer aluno que tenha estudado um pouco de física lembra-se da história de Galileu soltando bolas de chumbo, madeira e papel do alto da torre de Pisa, na Itália, na tentativa de entender como agia essa força estranha que atrai as coisas em direção ao centro da Terra. Bem antes, Aristóteles havia proposto que isso ocorria por nosso planeta ser o centro do universo, o lugar onde, pela própria natureza, as coisas deveriam estar. Quando surgiu o heliocentrismo, com Copérnico, o enfoque mudou e tornou-se necessária a revisão das leis sobre a queda dos corpos. Mais tarde, novas observações e teorias levaram à lei da gravitação universal formulada por Isaac Newton.
O grande passo seguinte só foi dado quase três séculos depois, graças a Albert Einstein, com sua Teoria Geral da Relatividade, de 1916 – trabalho pelo qual recebeu o Nobel de Física em 1921. As ondas gravitacionais são filhas naturais da teoria da gravitação proposta por Einstein, mas só existem no papel. De onde vêm e qual é sua importância são perguntas ainda sem resposta comprovada, já que nunca foram detectadas.
Segundo Einstein, planetas e estrelas curvam o espaço à sua volta pelo simples fato de estarem ali presentes – por seguirem a curvatura do espaço é que corpos celestes giram, gravitam em torno uns dos outros, como a Terra ao redor do Sol e a Lua em volta da Terra. Imagine então a ocorrência de um evento violento, como a explosão de uma estrela massiva que chegou ao fim da vida – uma supernova. Ou a fusão de duas estrelas de nêutrons, astros particularmente densos, ou de dois buracos negros com seu poder esmagador. Acontecimentos dessa magnitude provocam poderosas acelerações da matéria que interferem no campo gravitacional em volta. São como uma pedra jogada na água: formam ondulações, deformando o espaço. Se o pensamento é correto, poderemos detectar essas ondas no momento em que atingem a Terra após terem viajado até nós à velocidade da luz.
Durante muito tempo astrônomos duvidaram da existência das ondas gravitacionais. Desde a década de 1960, porém, físicos se empenham em provar que elas existem, confiando em que a Teoria Geral da Relatividade esteja correta, já que só tem colecionado acertos. Sua comprovação seria como abrir uma porta especial para o conhecimento do universo, que tem sido estudado por radiações eletromagnéticas, ou luz, com bandas de radiação diferentes, como de rádio, raios gama, raios X, ultravioleta e infravermelhos. Ocorre que radiações eletromagnéticas não são suficientemente seguras para nos dar determinadas informações. É o caso de eventos em buracos negros, pois eles não deixam a luz escapar. Já as ondas gravitacionais cruzam o espaço sem sofrer alterações e podem chegar até nós com dados desconhecidos sobre fenômenos do universo. Os mais otimistas anteveem até a possibilidade de observar um “fóssil”, a desconhecida radiação gravitacional gerada pelo Big Bang. Estaríamos inaugurando um novo tipo de astronomia, como nunca antes se imaginou.
As ondas gravitacionais, muito mais fracas que as eletromagnéticas, são dificílimas de detectar. O instrumental utilizado para isso é de extrema sensibilidade e qualquer evento, como o som de um avião nos arredores, pode produzir sinais capazes de confundir os pesquisadores. O problema é que tudo, ou quase, é mais forte que uma onda gravitacional. Em 2007, o Observatório de Ondas Gravitacionais por Interferômetro Laser (Ligo), aparelho norte-americano de captação de ondas gravitacionais, juntou-se aos europeus Virgo (franco-italiano) e Geo (alemão), bem como aos observatórios espaciais Lisa e Lagos, num esforço de observação. Espera-se ampliar a chance de detecção, que hoje não passa de apenas uma por ano.
Virgo, construído na cidade italiana de Cascina, na Toscana, perto de Pisa, onde Galileu fez suas experiências sobre gravidade, é um imenso interferômetro de ondas gravitacionais. Tem produzido dados de qualidade comparável aos de Ligo e Geo. O observatório é formado por um laser cujo facho de luz se divide e percorre os dois gigantescos braços de Virgo, de 3 quilômetros de comprimento, colocados em ângulo reto.
No interior dos túneis abrigados nos braços de Virgo, em um ambiente próximo ao vácuo, os raios lasers alinhados, de alta potência, são refletidos por múltiplos espelhos e percorrem incessantemente os espaços, indo e voltando.
O objetivo dos físicos é detectar uma ínfima defasagem entre os lasers, o que indicaria uma variação no comprimento dos braços, já que, teoricamente, a passagem de ondas gravitacionais deve alongar um dos braços e contrair o outro. Tal acontecimento indicaria que alguma onda gravitacional estaria atravessando o dispositivo. Espera-se que o sistema acuse o evento com uma precisão de um bilionésimo de átomo.

Um longo caminho
A construção de Virgo exigiu cuidados especiais. É uma das áreas mais planas da Itália, o que é bom. Mas há o inconveniente da instabilidade do solo, como resultado da retirada constante de água destinada à agricultura. Basta lembrar a torre de Pisa para ter uma ideia do problema.
Os túneis de Virgo deslocam-se até um milímetro por mês em alguns pontos, exigindo fiscalização regular e a compensação imediata de qualquer desvio. Os espelhos foram fabricados em Lyon (França), num laboratório especialmente criado para isso, e sua refletividade é das maiores do mundo – aproximadamente 99,995%. Cada túnel é protegido por um sistema de isolamento sísmico superespecial, que preserva os espelhos dos movimentos do solo e de grande parte das vibrações ambientais. A aparelhagem é tão sensível que pode até mesmo parar de funcionar se houver fortes vibrações. É tão complicado que os dirigentes até pensam em suspender a vigilância noturna, feita de carro, para não perturbar o sistema. Ruídos e vibrações afetam a pesquisa e torna-se muito difícil isolar um sinal possivelmente significativo da grande quantidade de sinais parasitas. Seria como tentar ouvir um sussurro perto de uma banda de rock estridente.
Na sala de controle, técnicos monitoram os acontecimentos nas telas dos computadores. Atualmente, a chance de detectar uma onda gravitacional é rara: apenas uma por ano. E detectar algo que possivelmente seja um evento dessa natureza deve ser confirmado com análises do CD de dados, cujos resultados poderão demorar meses a sair. Acontecimentos de vulto podem ser mais fáceis de registrar. O jeito é esperar pela oportunidade de ocorrer uma fusão de estrelas de nêutrons bem próxima da Terra, com sinal muito forte, e avaliar o que será registrado nas horas seguintes. Tudo fica ainda mais difícil, como os físicos já observaram, aperfeiçoando seus modelos teóricos, porque estrelas agonizantes enviam bem menos ondas gravitacionais do que se pensava. Eles reconhecem que estão longe de surpreender uma supernova em vias de explodir, perto ou longe da Via Láctea.
É de se louvar esse esforço técnico-científico, diante da possibilidade de ampliar e modificar o conhecimento atual muito além do sonhado. Trata-se não apenas de ver os astros, como na astronomia ótica, ou de entendê-los, como na radioastronomia. A astronomia gravitacional colocará em nossas mãos a inimaginável beleza de “sentir” os astros, como se ganhássemos, assim, uma percepção extra. É esperar para ver.

Glossário da pesquisa gravitacional
Lei da gravitação universal – Diz que dois objetos se atraem gravitacionalmente por meio de uma força que é proporcional à massa de cada um deles e inversamente proporcional ao quadrado da distância que os separa.

Teoria Geral da Relatividade – É a teoria do espaço-tempo. Diz que as forças gravitacionais decorrem da curvatura do espaço-tempo ocasionada pela presença de massas. O espaço-tempo é plano onde não há forças gravitacionais e nele os corpos se movem em linha reta.

Espaço-tempo – Conceito elaborado por Einstein dentro da Teoria Geral da Relatividade. É o tecido do universo, em que o espaço tridimensional e o tempo formam um todo de quatro dimensões. O tempo não flui sempre de modo uniforme, como se imaginava. A matéria pode atuar sobre ele.
Onda gravitacional – É a que transmite energia por meio de deformações no espaço-tempo. A Teoria Geral da Relatividade diz que corpos massivos em aceleração podem causar o fenômeno, que se propaga à velocidade da luz.
Ano-luz – É a unidade de distância igual a 9,467305 x 10¹² km, que corresponde à distância percorrida pela luz, no vácuo, durante um ano.
Sinais – Joseph Taylor e Russell Hulse, astrofísicos norte-americanos, observaram indícios da existência de ondas gravitacionais ao estudar a movimentação de duas estrelas de nêutrons que apresentavam desaceleração correspondente à energia que, em tese, deviam perder com a emissão de ondas gravitacionais. Receberam o Nobel de Física em 1993.
Interferometria – Ciência e técnica da sobreposição de duas ou mais ondas, cujo resultado é uma nova e diferente onda. É usada em diferentes campos, como astronomia, oceanografia, sismologia, metrologia óptica, fibras ópticas e mecânica quântica.

13.768 – O que são miragens?


Um lago rodeado de palmeiras no meio do deserto. Isso é o que se chama de oásis. Ou melhor, seria um oásis, se não fosse apenas uma miragem. É sempre assim que acontece nos desenhos animados: o viajante cansado e com sede corre em direção àquele oásis tropical e, somente quando está prestes a mergulhar é que o lago, junto com todas as palmeiras, desaparece.
É verdade que esse tipo de miragem é apenas ficção, mas as miragens realmente existem e podem fazer parecer que há água onde não tem. Ao contrário do que acreditam muitas pessoas, as miragens não são uma alucinação provocada pelo forte calor. Elas são um fenômeno óptico real que ocorre na atmosfera e que pode inclusive ser fotografado.
Você também não precisa estar em um deserto para ver uma miragem. Elas acontecem com certa frequência, por exemplo, em grandes rodovias em dias de calor intenso. De longe, você vê a imagem de um veículo que parece refletido no asfalto da estrada, dando a nítida impressão de que o asfalto está molhado e que o veículo foi refletido por uma poça d’água. Mas, conforme você se aproxima, percebe que a rodovia está completamente seca.

Desvio da luz
O termo miragem tem origem na expressão francesa se mirer que significa mirar-se, ver-se no espelho. As miragens se formam a partir de um fenômeno chamado pelos físicos de refração – que nada mais é do que o desvio dos raios de luz.
Bom, mas para entender porque o desvio da luz forma as miragens, é preciso que você entenda, antes de tudo, como é a nossa visão. Nós só podemos ver porque os objetos refletem ou emitem luz. É justamente essa luz, que chega aos nossos olhos, que é enviada por meio de sinais elétricos ao cérebro. Interpretando os sinais, o cérebro dá forma aos objetos e assim nós enxergamos as coisas.
O problema (se é que podemos considerar isso um problema) é que o nosso cérebro entende que os raios de luz se propagam sempre em linha reta. Isso até seria verdade, se os raios nunca sofressem nenhum desvio pelo caminho. O desvio da luz pode ocorrer quando os raios atravessam meios com diferentes densidades, como da água para o ar, ou ainda de um ar mais frio para um ar mais quente, ou passam através de lentes.
Você pode observar facilmente o fenômeno da refração colocando um lápis dentro de um copo com água. Deixando-o parcialmente mergulhado, você vai notar que o lápis parece que está quebrado, o que obviamente não é verdade. Outro caso de refração é de um pescador que avista um peixe no mar e o vê mais próximo da superfície do que ele está. Nesses dois exemplos, nós vemos os objetos em posição diferente da que eles realmente se encontram. Isso ocorre porque não vemos a luz dobrar-se; vemos apenas os efeitos dessa dobra.
Mas agora voltemos às miragens! Você já reparou que na praia, em dias muito ensolarados, você vê as coisas que estão a certa distância meio “trêmulas”? O fenômeno físico que leva essas imagens parecerem trêmulas é o mesmo que leva à formação das miragens no deserto ou nas estradas.
Devido ao calor intenso, forma-se uma camada de ar quente junto ao solo. E esse ar é menos denso do que o ar da camada situada imediatamente acima, mais frio. Como os raios de luz se propagam mais rápido no ar quente, eles encurvam-se para cima. Mas, como o nosso cérebro interpreta que a luz percorreu um caminho retilíneo, o que nós vemos é a imagem do objeto, que pode ser uma palmeira, por exemplo, invertida, como se estivesse refletida em poças de água sobre a estrada, ou um lago no deserto. A água é ilusória, mas a palmeira e sua imagem são reais. Esse tipo de miragem é chamado de miragem inferior.

Navios fantasmas
Existe outro tipo de miragem, esse mais raro, e muito mais impressionante, que são as chamadas miragens superiores. Ao contrário das miragens inferiores, elas ocorrem por uma distribuição de temperatura inversa, ou seja, uma camada de ar mais fria próxima à superfície e, acima dessa, uma camada de ar mais quente. Essas miragens também são difíceis de serem vistas por aí, porque são típicas de regiões polares ou de água muito fria.
As miragens superiores fazem o objeto visto parecer muito acima do que ele realmente está. Você pode, por exemplo, ver um barco flutuando no ar, ou ele pode parecer muito mais alto do que é na verdade. No caso das miragens marítimas, é possível a formação de imagens invertidas de navios que, devido à curvatura da Terra, ainda não estão visíveis. Mas também imagens diretas e suspensas sobre o horizonte são possíveis. Talvez seja daí que venham as lendas de navios fantasmas.
O Guiness Book of Records – Livro dos Recordes Mundiais – registra o mais distante objeto já visto por meio de uma miragem. A escuna Effie M. Morrissey estava no meio do caminho entre a Groelândia e a Islândia em 17 de julho de 1939, quando o Capitão Robert Barlett avistou a geleira Snaefells Jökull, na Islândia, que deveria estar a uma distância de 536 a 560 km. A distância aparente, no entanto, era de apenas 40 a 50 km. Se não fosse pela miragem, a geleira não poderia ser vista além de 150 km. Atualmente, sabe-se que várias geleiras que foram descobertas eram, na verdade, miragens. Incrível, não?
Você pode ver um fenômeno óptico similar a miragens superiores em qualquer dia de céu claro. Como a atmosfera terrestre não é um meio homogêneo – quanto maior a altitude, mais rarefeito é o ar – a densidade atmosférica diminui da superfície para o espaço. Esse fato faz com que a luz proveniente de um astro, ao atravessar a atmosfera, siga uma trajetória não retilínea.
Em consequência, quando olhamos para o sol, nós o vemos não em sua posição real, e sim mais alto do que ele realmente está. Por isso, o sol pode ser visto após se pôr e antes de nascer, mesmo estando abaixo da linha do horizonte. Além disso, quando o sol ou a lua estão bem próximos à linha do horizonte, os raios luminosos vindos da borda inferior encurvam-se mais acentuadamente do que os raios vindos da borda superior, fazendo com que pareçam elípticos.

13.746 – Física – Pequeno reator de fusão nuclear de empresa privada atinge temperaturas mais altas do que o Sol


reator-nuclear
Uma empresa privada localizada em Oxfordshire, Reino Unido, chamada Tokamak Energy, afirmou ter testado com sucesso um protótipo de reator de fusão nuclear. Segundo eles, o modelo atingiu temperaturas mais altas do que o Sol e possivelmente poderá começar a fornecer energia em 2030. As informações são da IFLScience.
O dispositivo foi nomeado como ST40, e é a terceira máquina do tipo que a empresa criou até agora. Segundo declaração oficial, ele foi capaz de atingir temperaturas de até 15 milhões de graus Celsius.
De acordo com o CEO da empresa, Jonathan Carling, o objetivo do projeto é tornar a energia de fusão uma realidade comercial até 2030.
Até o momento, a Tokamak Energy levantou cerca de 40 milhões de dólares para financiar o projeto. Segundo eles, a abordagem pequena utilizada até agora é fundamental para que seus objetivos sejam alcançados. O ST40, que tem o tamanho aproximado de uma van, é relativamente menor aos reatores de fusão vistos em outras partes do mundo, que normalmente são do tamanho de uma casa ou campo de futebol.
Para alcançar essas altas temperaturas, o ST40 usou o chamado merging compression, que visa liberar energia através de anéis de plasma, que colidem e produzem campos magnéticos que se “encaixam”, conhecidos como reconexão magnética.
Atualmente existem dois projetos principais para reatores de fusão nuclear, ambos com o objetivo de torcer campos magnéticos e confinar o plasma superaquecido em seu interior. Um primeiro, o tokamak, que tem a forma de uma rosquinha, usa grandes quantidades de energia para torcer o plasma, enquanto um stellarator, que tem forma de uma rosquinha torcida, consegue obter o mesmo efeito.
Utilizando um design mais compacto, a Tokamak Energy afirmou que pode obter pressões de plasma mais elevadas do que os modelos convencionais. O objetivo deles era controlar o plasma com ímãs supercondutores de alta temperatura e, eventualmente, começar a produzir energia útil.
O primeiro protótipo da empresa, o ST25, foi construído em 2013, enquanto o segundo foi produzido em 2015, na esperança de alcançar mais de 100 milhões de graus Celsius. Em 2025, eles esperam desenvolver um dispositivo de energia em escala industrial e, em 2030, esperam começar a fornecer energia à rede a partir da fusão.
O campo da fusão nuclear tem vivenciado grandes avanços nos últimos anos, com diferentes equipes sustentando plasmas de hidrogênio e hélio por diferentes períodos de tempo. Embora ainda estejamos longe de viver a base de reatores de fusão nuclear úteis, aparentemente estamos caminhando na direção certa.

13.704 – O Tempo é Relativo


soyuz
As leis da física são as mesmas para qualquer referencial inercial, e a velocidade da luz independe da fonte emissora e de quem a recebe, sendo ela (velocidade da luz) constante em todos os sistemas inerciais de referência.
Os postulados citados acima, propostos por Albert Einstein, foram os pilares pra o desenvolvimento da Teoria da Relatividade Especial, que tem como uma de suas implicações a dilatação do tempo.
No dia-a-dia é corriqueira a ideia de que o tempo é algo universal; que uma vez sincronizados dois relógios idênticos, esses irão sempre ser vistos indicando a mesma leitura, independentemente de suas posições, movimentos relativos, acelerações, ou de quem esteja a observá-los. A mesma ideia atrela-se à noção de separação espacial entre dois pontos. Espaço e tempo são, no dia-a-dia e no âmbito da mecânica newtoniana, entendidos como universais e absolutos; restando às velocidade serem relativa aos referenciais. Tal paradigma, ainda compatível com a maioria dos eventos encontrados no cotidiano, perdurou dentro da ciência até o início do século XX, quando a teoria da relatividade veio à tona, mostrando que a realidade natural é, contudo, bem mais sutil do que se pensava até então.
No novo paradigma a inferência de tempo deixa de ser absoluta e passa a ser algo estritamente pessoal, atrelada a cada referencial em particular; e dois referenciais em movimento relativo ou sob acelerações distintas geralmente não concordarão quanto às medidas de tempo ou intervalos de tempo. A noção de simultaneidade absoluta também cai por terra, e referenciais diferentes geralmente não concordarão quanto a simultaneidade de dois eventos, mesmo que em algum referencial eles sejam vistos de forma simultânea.
Dilatação do tempo designa, no âmbito da mecânica einsteiniana, entre outros o fenômeno pelo qual um observador percebe, em virtude do movimento relativo não acelerado entre os dois referenciais, que o relógio de um outro observador que encontra-se a afastar-se, fisicamente idêntico ao seu próprio relógio, está a “andar” mais devagar do que o tempo que observador infere, no caso mais devagar do que seu tempo próprio. A percepção do primeiro observador é de que o tempo “anda mais devagar” para o relógio móvel, mas isso é somente verdade no contexto do referencial do observador estático. Em ausência de aceleração, em princípio paradoxalmente, o outro observador também verá o relógio anexado ao primeiro referencial – esse agora móvel – “andar” mais devagar que seu próprio relógio. Localmente, i.e., da perspectiva de qualquer outro observador estático junto a qualquer um dos dois referenciais, dois relógios, se sincronizados e mantidos juntos – sem movimento relativo – não atrasarão ou adiantarão um em relação ao outro.
Ao passo que na relatividade restrita – teoria ainda atrelada ao conceito de referencial inercial – a dilatação do tempo é simétrica em relação aos referenciais, ou seja, para qualquer observador é o relógio móvel que atrasa-se em relação ao que carrega consigo, no contexto da relatividade geral, que estende-se a todos os referenciais (covariância geral), a dilatação temporal devida a acelerações não é simétrica, e nesse caso ambos os observadores concordarão sobre qual dos relógios se adianta e qual se atrasa, se o seu ou o do outro.
Considerando novamente a relatividade restrita, o intervalo de tempo entre dois eventos quaisquer é sempre o menor possível quando medido pelo observador que detém o relógio, sendo este conhecido como tempo próprio deste observador. Qualquer outro observador em movimento relativo medirá um intervalo de tempo maior entre os mesmos dois eventos considerados, sendo a expressão “dilatação do tempo” bem sugestiva, portanto.

13.646 – Mega 30 Anos + Sobre Marie Curie


mariecurie
Maria Salomea Sklodowska nasceu em 1867 na cidade de Varsóvia, na Polônia. Em qualquer outra família, Maria e suas três irmãs mais velhas teriam sido criadas para serem boas esposas, mas não foi o caso: os Sklodowska lutaram para que as quatro filhas tivessem as mesmas oportunidades acadêmicas que seu único filho homem.
Os esforços tiveram resultados: décadas depois, Maria — que mudou seu nome para Marie ao se mudar para a França — se tornou uma das pioneiras nos estudos relacionados à radioatividade. Perdemos esta incrível cientista nesta mesma data (4 de julho) , mas fomos privilegiados com os diversos conhecimentos e descobertas que ela nos deixou.
Marie teve que se esforçar muito mais por ser mulher. Como aponta Alexander Rivkin, da Escola de Medicina David Geffen da Universidade da Califórnia, nos Estados Unidos: “Marie Curie foi uma gênia da ciência quando as oportunidades para as mulheres, especialmente na academia, eram escassas”. Apesar de ter terminado o colegial quando tinha apenas 15 anos, Marie não conseguiu estudar na Universidade de Varsóvia, na Polônia, porque a instituição não aceitava estudantes do sexo feminino. Aos 17 anos, ela se mudou para Paris para estudar física na Universidade Paris-Sorbonne. Marie optou por morar em um apartamento péssimo, mas que era próximo da universidade, de forma que pudesse ter mais tempo para estudar. Ela vivia sem dinheiro, e por muito tempo sobreviveu de pão e chá. No fim, Marie colheu os frutos do esforço: ela foi uma das melhores alunas de sua turma, recebeu o diploma em física em 1893 e ganhou uma bolsa para estudar matemática na mesma instituição.
Ao estudar a descoberta da radioatividade espontânea, feita por Henri Becquerel, Marie e seu marido Pierre desenvolveram a teoria da radioatividade. A cientista descobriu que é possível medir a força da radiação do urânio; que a intensidade da radiação é proporcional à quantidade de urânio ou tório no composto e que a habilidade de emitir radiação não depende da disposição dos átomos em uma molécula e sim com o interior do próprio átomo.
Quando percebeu que alguns compostos tinham mais radiação do que o urânio, Marie sugeriu a existência de outro elemento com mais radiação do que o urânio e o tório. A cientista estava certa: em 1898, ela e Pierre descobriram dois novos elementos radioativos, o rádio (900 vezes mais radioativo que o urânio) e o polônio (400 vezes mais radioativo que o urânio), cujo nome é uma homenagem à Polônia, país de origem de Marie.
Em 1903, Marie e Pierre dividiram o Prêmio Nobel de Física com Henri Becquerel pela descoberta da radioatividade e, em 1911, a cientista foi agraciada com o Prêmio Nobel de Química pela descoberta e pelos estudos em torno dos elementos rádio e polônio. Ela foi a primeira pessoa e única mulher a ter ganhado o Nobel duas vezes em áreas distintas.
A descoberta do rádio e do polônio colaborou para o desenvolvimento dos aparelhos de raio X. Durante a Primeira Guerra Mundial, Marie foi a campo levando aparelhos portáteis de raio X para ajudar nos cuidados dos soldados feridos.

13.641 – Ciência no Cinema – A Teoria de Tudo


A teoria de Tudo
Baseado na biografia de Stephen Hawking, o filme mostra como o jovem astrofísico (Eddie Redmayne) fez descobertas importantes sobre o tempo, além de retratar o seu romance com a aluna de Cambridge Jane Wide (Felicity Jones) e a descoberta de uma doença motora degenerativa quando tinha apenas 21 anos.
O filme narra a vida do cientista Stephen Hawking, responsável pela teoria sobre buracos negros e portador de esclerose lateral amiotrófica, que o confinou a uma cadeira de rodas e a uma expectativa de vida de dois anos, quando ainda era jovem. Pois o ator Eddie Redmayne (Os Miseráveis) está absolutamente impecável no papel do protagonista. Ele passa a maior parte do filme mudo, por conta da evolução da doença do personagem, mas adota um repertório de trejeitos e postura (a maneira como ele – não – sustenta o ombro torto, por exemplo) incrivelmente semelhantes aos de Hawking – o resultado é um registro quase que documental sobre o biografado.
James Marsh (vencedor do Oscar de melhor documentário com O Equilibrista) soube aproveitar com sensibilidade o extenso material da vida do estudioso, baseado nas memórias da própria (primeira) esposa de Stephen Hawking, Jane Hawking – interpretada com sutileza por Felicity Jones (O Espetacular Homem-Aranha 2 – A Ameaça de Electro), que passa da excitação do início da relação ao visível cansaço (humano) decorrente dos cuidados com o marido.

O roteiro (de Anthony McCarten) tinha tudo para ser um dramalhão daqueles (afinal, estamos falando de Hollywood), mas se converte em um retrato que, para além de fiel, é poético e (surpresa!) bem-humorado. Ao mesmo tempo em que A Teoria de Tudo é apresentando com leveza, o filme também não foge de polêmicas que poderiam chocar a audiência mais conservadora, a principal delas envolvendo um triângulo amoroso. Em um dado momento, um terceiro elemento, Jonathan Hellyer Jones (Charlie Cox) entra para a vida do casal. Cada um dos personagens tem consciência das suas limitações e, por isso, a iminente mudança na relação é abordada de maneira natural e madura. Não deixa de ser arriscado (afinal, estamos falando de Hollywood).
A fotografia de Benoît Delhomme também chama a atenção: é exuberante, com destaque para a cena do “baile de maio”, quando Stephen joga todo seu charme para Jane, sob as luzes de um carrossel e, em seguida, de fogos de artifício; ou no filtro usado para dar uma cara de caseiro para as cenas do casamento dos dois.
É bem verdade que o contexto geral da trama que envolve as descobertas profissionais – bem como o conhecido ateísmo de Hawking – é deixado de lado para privilegiar a história de amor do casal. Mas é uma opção que, como tal, foi bem executada. E sem a necessidade de muletas (ou cadeira de rodas).

 

13.640 – O Legado de Stephem Hawking


hawking
A carreira de Stephen William Hawking (1942-2018), já seria fantástica para uma pessoa qualquer. Mas Hawking se agigantou ao contrariar a previsão dos médicos de que não sobreviveria a uma doença degenerativa rápida e mortal.
Seu pai, Frank Hawking, era médico, e sua mãe, Isobel Hawking, estudou filosofia, política e economia. Ambos se formaram pela Universidade de Oxford, onde viviam. Ele inglês, ela escocesa, o casal se conheceu logo após o início da Segunda Guerra Mundial, onde ela trabalhava como secretária e ele, médico.
Stephen foi o primeiro filho dos dois. Depois dele viriam duas irmãs, Philippa e Mary, e um irmão adotado, Edward. Em 1950, quando o jovem Hawking tinha 8 anos, Frank se tornou chefe da divisão de parasitologia do Instituto Nacional para Pesquisa Médica, e a família se mudou para St. Albans. Não tinham luxos e eram tidos pelos vizinhos e conhecidos como muito inteligentes e excêntricos.
Curiosamente, Stephen demorou a engrenar nos estudos. Aprendeu a ler tardiamente, aos 8 anos. Da infância, Hawking se lembra de sua paixão por trens de brinquedo e, mais tarde, aeromodelos. “Meu objetivo sempre foi construir modelos que funcionassem e que eu pudesse controlar”, contou o cientista, em sua autobiografia Minha Breve História, publicada em 2013.
Esse desejo de compreender como as coisas funcionam e controlá-las seria a motivação mais básica para perseguir uma carreira em física e cosmologia, segundo ele. Partiu para estudar física na Universidade de Oxford e estava namorando Jane Wilde, uma amiga de sua irmã, quando, em 1962, começou a sentir os primeiros sintomas de sua doença. Recebeu então o diagnóstico: esclerose lateral amiotrófica.
De progressão usualmente acelerada, ela é caracterizada pela crescente paralisia dos músculos, culminando com a incapacidade de respirar e a morte. O médico previu que Hawking não viveria mais três anos. Não haveria tempo sequer para concluir seu doutorado em física.

Stephen e Jane discutiram aquela situação terrível e decidiram manter o relacionamento. Tornaram-se noivos em 1964, o que, segundo o próprio Hawking, lhe deu “algo pelo que viver”. Casaram-se em 14 de julho de 1965. Tiveram um filho, Robert, em 1967, uma filha, Lucy, em 1970, e um terceiro filho,

Timothy, em 1979. Hawking seguia desafiando o prognóstico médico. De forma jamais vista, a doença se estabilizou e entrou numa marcha lenta sem precedentes. Não que Hawking não tenha pago um alto preço, com a crescente perda de controle do corpo. Mas, surpreendendo a todos, o cientista conseguiu ter uma carreira e uma vida plenas. Mas obviamente a vida da família se tornava cada vez mais difícil. Os anos 1970 marcaram o auge da produção científica de Stephen. Ao fim da década, ele assumiria a cátedra lucasiana na Universidade de Cambridge – a mesma que havia sido ocupada por Isaac Newton séculos antes –, onde permaneceria por mais de três décadas, até se aposentar. E foi nessa mesma época que ele de fato encantou o mundo com sua pesquisa.

O maior feito científico do físico inglês foi demonstrar que os buracos negros não são completamente negros, e sim emitem uma pequena quantidade de radiação. Até então, pensava-se que esses objetos – normalmente fruto da implosão de uma estrela de alta massa que esgotou seu combustível – fossem literalmente imortais. Como nada consegue escapar de seu campo gravitacional, inclusive a luz, o futuro do cosmos tenderia a ter somente buracos negros gigantes, que permaneceriam para todo o sempre.

Contudo, ao combinar efeitos da mecânica quântica à relatividade geral, Hawking descobriu que a energia do buraco negro poderia “vazar” lentamente na forma de radiação. Com isso, ao longo de zilhões de anos, até mesmo esses parentemente indestrutíveis objetos tendem a deixar de existir.

Se Hawking cativou os físicos com essa previsão surpreendente – que só não lhe valeu um Prêmio Nobel pela dificuldade extrema de detectar a sutil radiação emanada de um buraco negro –, ele conseguiu capturar com igual habilidade a imaginação do público, com vários livros de divulgação científica, a começar pelo bestseller Uma breve história do tempo, de 1988.

A imagem do “gênio preso a uma cadeira de rodas que se comunica por um sintetizador de voz” era irresistível demais para a mídia, e Hawking soube usar sua fama em favor de causas importantes, como a defesa dos direitos dos deficientes físicos ou a advocacia da exploração espacial. De forma igualmente surpreendente, tornou-se um ícone da cultura pop.

Em 1992, Hawking participou, como ele mesmo, de um episódio da série de TV Jornada nas estrelas: A nova geração. Numa cena muito interessante, ele aparece jogando pôquer com Isaac Newton, Albert Einstein e o androide Data, um dos personagens principais do programa. Dois anos depois, o grupo Pink Floyd inclui trechos de falas do sintetizador de Hawking na música “Keep talking”. Em 2007, em comemoração aos seus 65 anos, o físico faz um voo parabólico em avião para experimentar a mesma ausência de peso que se sente no espaço. E em 2012 ele fez uma ponta num episódio da série de comédia americana The Big Bang Theory.

Essa cortina de fama, contudo, não conseguia esconder as dificuldades de Hawking na vida pessoal. Ao final da década de 1970, Jane, compreensivelmente, se apaixonou por um organista de igreja que se tornara amigo da família, Jonathan Hellyer Jones. A relação passou muito tempo num estágio platônico e acabou evoluindo com a aceitação de Hawking. Diz Jane que ele concordou, “contanto que eu continuasse a amá-lo”. No fim, o casamento acabou chegando ao fim depois que o cientista acabou se apaixonando por Elaine Mason, uma das enfermeiras que lhe prestavam cuidados. Hawking casou-se pela segunda vez em 1995, e o novo relacionamento durou até 2006. Houve rumores de que Elaine o agredia, mas Stephen jamais quis prestar queixa, deixando a situação no ar. “Meu casamento com Elaine foi apaixonado e tempestuoso. Tivemos nossos altos e baixos, mas o fato de Elaine ser enfermeira salvou minha vida em diversas ocasiões”, resumiu, em sua autobiografia.
Apesar da fama, Hawking nunca gostou de discutir seus problemas pessoais em público, e durante todo esse período, não houve exceção. Em compensação, sua celebridade pode tê-lo levado a violar um dos mais básicos princípios do comportamento acadêmico: não se deve fazer afirmações extraordinárias sem evidências igualmente extraordinárias.

Em 2004, o pop-star britânico anunciou ter solucionado um dos mais intrigados problemas ligado à física de buracos negros, o chamado “paradoxo da informação”. É basicamente a ideia de que a informação codificada no interior das partículas que caem no buraco negro é destruída e desaparece do Universo para sempre. Os físicos consideram isso paradoxal porque as leis físicas funcionam justamente em razão das condições anteriores do sistema. Se você parte de um estado “desinformado”, não há como aplicar as teorias sobre ele para saber o que acontece depois ou determinar o que ocorreu antes.

Ao dizer que teria resolvido o dilema, Hawking chamou a atenção dos físicos do mundo inteiro. Mas ele nunca apresentou cálculos que demonstrassem isso. Dez anos depois, em 2014, repetiu a dose, dizendo ter concluído que buracos negros podem nem existir.

Mais uma vez um choque: a imensa maioria dos cientistas já estava convencida de que esses fenômenos são reais, depois de estudá-los a fundo – embora só por meio de equações. Mas Hawking de novo não apresentou o devido embasamento matemático para demonstrar sua conclusão bombástica.
A situação é perfeitamente compreensível, dada a extrema dificuldade que Hawking tinha para se comunicar. Só o fazia por meio de um computador, que traduzia pequenos movimentos da bochecha em letras e palavras, que então são expressas por meio de um sintetizador de voz. Imagine a dificuldade do cientista em desenvolver suas ideias, altamente matemáticas, valendo-se apenas de sua mente para proceder com os cálculos. É natural que o pesquisador tenha passado o fim da vida desenvolvendo apenas artigos sumários, na esperança de que outros fisgassem as ideias e as desenvolvessem mais concretamente.
Fora do âmbito acadêmico, Hawking também soube usar muito bem sua fama, ao alertar para riscos existenciais à humanidade ocasionados pelo progresso tecnológico, em especial a inteligência artificial. “As formas primitivas de inteligência artificial que temos agora se mostraram muito úteis. Mas acho que o desenvolvimento de inteligência artificial completa pode significar o fim da raça humana”, disse o cientista, em 2014.
Convencido de que a humanidade precisa colonizar outras partes do Universo para sobreviver a esse e outros riscos à nossa existência, Hawking era um dos primeiros passageiros na lista de espera da empresa Virgin Galactic, que deve realizar voos espaciais suborbitais nos próximos anos. Morreu aos 76 anos, em Cambridge, sem ter realizado este sonho.