13.704 – O Tempo é Relativo


soyuz
As leis da física são as mesmas para qualquer referencial inercial, e a velocidade da luz independe da fonte emissora e de quem a recebe, sendo ela (velocidade da luz) constante em todos os sistemas inerciais de referência.
Os postulados citados acima, propostos por Albert Einstein, foram os pilares pra o desenvolvimento da Teoria da Relatividade Especial, que tem como uma de suas implicações a dilatação do tempo.
No dia-a-dia é corriqueira a ideia de que o tempo é algo universal; que uma vez sincronizados dois relógios idênticos, esses irão sempre ser vistos indicando a mesma leitura, independentemente de suas posições, movimentos relativos, acelerações, ou de quem esteja a observá-los. A mesma ideia atrela-se à noção de separação espacial entre dois pontos. Espaço e tempo são, no dia-a-dia e no âmbito da mecânica newtoniana, entendidos como universais e absolutos; restando às velocidade serem relativa aos referenciais. Tal paradigma, ainda compatível com a maioria dos eventos encontrados no cotidiano, perdurou dentro da ciência até o início do século XX, quando a teoria da relatividade veio à tona, mostrando que a realidade natural é, contudo, bem mais sutil do que se pensava até então.
No novo paradigma a inferência de tempo deixa de ser absoluta e passa a ser algo estritamente pessoal, atrelada a cada referencial em particular; e dois referenciais em movimento relativo ou sob acelerações distintas geralmente não concordarão quanto às medidas de tempo ou intervalos de tempo. A noção de simultaneidade absoluta também cai por terra, e referenciais diferentes geralmente não concordarão quanto a simultaneidade de dois eventos, mesmo que em algum referencial eles sejam vistos de forma simultânea.
Dilatação do tempo designa, no âmbito da mecânica einsteiniana, entre outros o fenômeno pelo qual um observador percebe, em virtude do movimento relativo não acelerado entre os dois referenciais, que o relógio de um outro observador que encontra-se a afastar-se, fisicamente idêntico ao seu próprio relógio, está a “andar” mais devagar do que o tempo que observador infere, no caso mais devagar do que seu tempo próprio. A percepção do primeiro observador é de que o tempo “anda mais devagar” para o relógio móvel, mas isso é somente verdade no contexto do referencial do observador estático. Em ausência de aceleração, em princípio paradoxalmente, o outro observador também verá o relógio anexado ao primeiro referencial – esse agora móvel – “andar” mais devagar que seu próprio relógio. Localmente, i.e., da perspectiva de qualquer outro observador estático junto a qualquer um dos dois referenciais, dois relógios, se sincronizados e mantidos juntos – sem movimento relativo – não atrasarão ou adiantarão um em relação ao outro.
Ao passo que na relatividade restrita – teoria ainda atrelada ao conceito de referencial inercial – a dilatação do tempo é simétrica em relação aos referenciais, ou seja, para qualquer observador é o relógio móvel que atrasa-se em relação ao que carrega consigo, no contexto da relatividade geral, que estende-se a todos os referenciais (covariância geral), a dilatação temporal devida a acelerações não é simétrica, e nesse caso ambos os observadores concordarão sobre qual dos relógios se adianta e qual se atrasa, se o seu ou o do outro.
Considerando novamente a relatividade restrita, o intervalo de tempo entre dois eventos quaisquer é sempre o menor possível quando medido pelo observador que detém o relógio, sendo este conhecido como tempo próprio deste observador. Qualquer outro observador em movimento relativo medirá um intervalo de tempo maior entre os mesmos dois eventos considerados, sendo a expressão “dilatação do tempo” bem sugestiva, portanto.

Anúncios

13.646 – Mega 30 Anos + Sobre Marie Curie


mariecurie
Maria Salomea Sklodowska nasceu em 1867 na cidade de Varsóvia, na Polônia. Em qualquer outra família, Maria e suas três irmãs mais velhas teriam sido criadas para serem boas esposas, mas não foi o caso: os Sklodowska lutaram para que as quatro filhas tivessem as mesmas oportunidades acadêmicas que seu único filho homem.
Os esforços tiveram resultados: décadas depois, Maria — que mudou seu nome para Marie ao se mudar para a França — se tornou uma das pioneiras nos estudos relacionados à radioatividade. Perdemos esta incrível cientista nesta mesma data (4 de julho) , mas fomos privilegiados com os diversos conhecimentos e descobertas que ela nos deixou.
Marie teve que se esforçar muito mais por ser mulher. Como aponta Alexander Rivkin, da Escola de Medicina David Geffen da Universidade da Califórnia, nos Estados Unidos: “Marie Curie foi uma gênia da ciência quando as oportunidades para as mulheres, especialmente na academia, eram escassas”. Apesar de ter terminado o colegial quando tinha apenas 15 anos, Marie não conseguiu estudar na Universidade de Varsóvia, na Polônia, porque a instituição não aceitava estudantes do sexo feminino. Aos 17 anos, ela se mudou para Paris para estudar física na Universidade Paris-Sorbonne. Marie optou por morar em um apartamento péssimo, mas que era próximo da universidade, de forma que pudesse ter mais tempo para estudar. Ela vivia sem dinheiro, e por muito tempo sobreviveu de pão e chá. No fim, Marie colheu os frutos do esforço: ela foi uma das melhores alunas de sua turma, recebeu o diploma em física em 1893 e ganhou uma bolsa para estudar matemática na mesma instituição.
Ao estudar a descoberta da radioatividade espontânea, feita por Henri Becquerel, Marie e seu marido Pierre desenvolveram a teoria da radioatividade. A cientista descobriu que é possível medir a força da radiação do urânio; que a intensidade da radiação é proporcional à quantidade de urânio ou tório no composto e que a habilidade de emitir radiação não depende da disposição dos átomos em uma molécula e sim com o interior do próprio átomo.
Quando percebeu que alguns compostos tinham mais radiação do que o urânio, Marie sugeriu a existência de outro elemento com mais radiação do que o urânio e o tório. A cientista estava certa: em 1898, ela e Pierre descobriram dois novos elementos radioativos, o rádio (900 vezes mais radioativo que o urânio) e o polônio (400 vezes mais radioativo que o urânio), cujo nome é uma homenagem à Polônia, país de origem de Marie.
Em 1903, Marie e Pierre dividiram o Prêmio Nobel de Física com Henri Becquerel pela descoberta da radioatividade e, em 1911, a cientista foi agraciada com o Prêmio Nobel de Química pela descoberta e pelos estudos em torno dos elementos rádio e polônio. Ela foi a primeira pessoa e única mulher a ter ganhado o Nobel duas vezes em áreas distintas.
A descoberta do rádio e do polônio colaborou para o desenvolvimento dos aparelhos de raio X. Durante a Primeira Guerra Mundial, Marie foi a campo levando aparelhos portáteis de raio X para ajudar nos cuidados dos soldados feridos.

13.641 – Ciência no Cinema – A Teoria de Tudo


A teoria de Tudo
Baseado na biografia de Stephen Hawking, o filme mostra como o jovem astrofísico (Eddie Redmayne) fez descobertas importantes sobre o tempo, além de retratar o seu romance com a aluna de Cambridge Jane Wide (Felicity Jones) e a descoberta de uma doença motora degenerativa quando tinha apenas 21 anos.
O filme narra a vida do cientista Stephen Hawking, responsável pela teoria sobre buracos negros e portador de esclerose lateral amiotrófica, que o confinou a uma cadeira de rodas e a uma expectativa de vida de dois anos, quando ainda era jovem. Pois o ator Eddie Redmayne (Os Miseráveis) está absolutamente impecável no papel do protagonista. Ele passa a maior parte do filme mudo, por conta da evolução da doença do personagem, mas adota um repertório de trejeitos e postura (a maneira como ele – não – sustenta o ombro torto, por exemplo) incrivelmente semelhantes aos de Hawking – o resultado é um registro quase que documental sobre o biografado.
James Marsh (vencedor do Oscar de melhor documentário com O Equilibrista) soube aproveitar com sensibilidade o extenso material da vida do estudioso, baseado nas memórias da própria (primeira) esposa de Stephen Hawking, Jane Hawking – interpretada com sutileza por Felicity Jones (O Espetacular Homem-Aranha 2 – A Ameaça de Electro), que passa da excitação do início da relação ao visível cansaço (humano) decorrente dos cuidados com o marido.

O roteiro (de Anthony McCarten) tinha tudo para ser um dramalhão daqueles (afinal, estamos falando de Hollywood), mas se converte em um retrato que, para além de fiel, é poético e (surpresa!) bem-humorado. Ao mesmo tempo em que A Teoria de Tudo é apresentando com leveza, o filme também não foge de polêmicas que poderiam chocar a audiência mais conservadora, a principal delas envolvendo um triângulo amoroso. Em um dado momento, um terceiro elemento, Jonathan Hellyer Jones (Charlie Cox) entra para a vida do casal. Cada um dos personagens tem consciência das suas limitações e, por isso, a iminente mudança na relação é abordada de maneira natural e madura. Não deixa de ser arriscado (afinal, estamos falando de Hollywood).
A fotografia de Benoît Delhomme também chama a atenção: é exuberante, com destaque para a cena do “baile de maio”, quando Stephen joga todo seu charme para Jane, sob as luzes de um carrossel e, em seguida, de fogos de artifício; ou no filtro usado para dar uma cara de caseiro para as cenas do casamento dos dois.
É bem verdade que o contexto geral da trama que envolve as descobertas profissionais – bem como o conhecido ateísmo de Hawking – é deixado de lado para privilegiar a história de amor do casal. Mas é uma opção que, como tal, foi bem executada. E sem a necessidade de muletas (ou cadeira de rodas).

 

13.640 – O Legado de Stephem Hawking


hawking
A carreira de Stephen William Hawking (1942-2018), já seria fantástica para uma pessoa qualquer. Mas Hawking se agigantou ao contrariar a previsão dos médicos de que não sobreviveria a uma doença degenerativa rápida e mortal.
Seu pai, Frank Hawking, era médico, e sua mãe, Isobel Hawking, estudou filosofia, política e economia. Ambos se formaram pela Universidade de Oxford, onde viviam. Ele inglês, ela escocesa, o casal se conheceu logo após o início da Segunda Guerra Mundial, onde ela trabalhava como secretária e ele, médico.
Stephen foi o primeiro filho dos dois. Depois dele viriam duas irmãs, Philippa e Mary, e um irmão adotado, Edward. Em 1950, quando o jovem Hawking tinha 8 anos, Frank se tornou chefe da divisão de parasitologia do Instituto Nacional para Pesquisa Médica, e a família se mudou para St. Albans. Não tinham luxos e eram tidos pelos vizinhos e conhecidos como muito inteligentes e excêntricos.
Curiosamente, Stephen demorou a engrenar nos estudos. Aprendeu a ler tardiamente, aos 8 anos. Da infância, Hawking se lembra de sua paixão por trens de brinquedo e, mais tarde, aeromodelos. “Meu objetivo sempre foi construir modelos que funcionassem e que eu pudesse controlar”, contou o cientista, em sua autobiografia Minha Breve História, publicada em 2013.
Esse desejo de compreender como as coisas funcionam e controlá-las seria a motivação mais básica para perseguir uma carreira em física e cosmologia, segundo ele. Partiu para estudar física na Universidade de Oxford e estava namorando Jane Wilde, uma amiga de sua irmã, quando, em 1962, começou a sentir os primeiros sintomas de sua doença. Recebeu então o diagnóstico: esclerose lateral amiotrófica.
De progressão usualmente acelerada, ela é caracterizada pela crescente paralisia dos músculos, culminando com a incapacidade de respirar e a morte. O médico previu que Hawking não viveria mais três anos. Não haveria tempo sequer para concluir seu doutorado em física.

Stephen e Jane discutiram aquela situação terrível e decidiram manter o relacionamento. Tornaram-se noivos em 1964, o que, segundo o próprio Hawking, lhe deu “algo pelo que viver”. Casaram-se em 14 de julho de 1965. Tiveram um filho, Robert, em 1967, uma filha, Lucy, em 1970, e um terceiro filho,

Timothy, em 1979. Hawking seguia desafiando o prognóstico médico. De forma jamais vista, a doença se estabilizou e entrou numa marcha lenta sem precedentes. Não que Hawking não tenha pago um alto preço, com a crescente perda de controle do corpo. Mas, surpreendendo a todos, o cientista conseguiu ter uma carreira e uma vida plenas. Mas obviamente a vida da família se tornava cada vez mais difícil. Os anos 1970 marcaram o auge da produção científica de Stephen. Ao fim da década, ele assumiria a cátedra lucasiana na Universidade de Cambridge – a mesma que havia sido ocupada por Isaac Newton séculos antes –, onde permaneceria por mais de três décadas, até se aposentar. E foi nessa mesma época que ele de fato encantou o mundo com sua pesquisa.

O maior feito científico do físico inglês foi demonstrar que os buracos negros não são completamente negros, e sim emitem uma pequena quantidade de radiação. Até então, pensava-se que esses objetos – normalmente fruto da implosão de uma estrela de alta massa que esgotou seu combustível – fossem literalmente imortais. Como nada consegue escapar de seu campo gravitacional, inclusive a luz, o futuro do cosmos tenderia a ter somente buracos negros gigantes, que permaneceriam para todo o sempre.

Contudo, ao combinar efeitos da mecânica quântica à relatividade geral, Hawking descobriu que a energia do buraco negro poderia “vazar” lentamente na forma de radiação. Com isso, ao longo de zilhões de anos, até mesmo esses parentemente indestrutíveis objetos tendem a deixar de existir.

Se Hawking cativou os físicos com essa previsão surpreendente – que só não lhe valeu um Prêmio Nobel pela dificuldade extrema de detectar a sutil radiação emanada de um buraco negro –, ele conseguiu capturar com igual habilidade a imaginação do público, com vários livros de divulgação científica, a começar pelo bestseller Uma breve história do tempo, de 1988.

A imagem do “gênio preso a uma cadeira de rodas que se comunica por um sintetizador de voz” era irresistível demais para a mídia, e Hawking soube usar sua fama em favor de causas importantes, como a defesa dos direitos dos deficientes físicos ou a advocacia da exploração espacial. De forma igualmente surpreendente, tornou-se um ícone da cultura pop.

Em 1992, Hawking participou, como ele mesmo, de um episódio da série de TV Jornada nas estrelas: A nova geração. Numa cena muito interessante, ele aparece jogando pôquer com Isaac Newton, Albert Einstein e o androide Data, um dos personagens principais do programa. Dois anos depois, o grupo Pink Floyd inclui trechos de falas do sintetizador de Hawking na música “Keep talking”. Em 2007, em comemoração aos seus 65 anos, o físico faz um voo parabólico em avião para experimentar a mesma ausência de peso que se sente no espaço. E em 2012 ele fez uma ponta num episódio da série de comédia americana The Big Bang Theory.

Essa cortina de fama, contudo, não conseguia esconder as dificuldades de Hawking na vida pessoal. Ao final da década de 1970, Jane, compreensivelmente, se apaixonou por um organista de igreja que se tornara amigo da família, Jonathan Hellyer Jones. A relação passou muito tempo num estágio platônico e acabou evoluindo com a aceitação de Hawking. Diz Jane que ele concordou, “contanto que eu continuasse a amá-lo”. No fim, o casamento acabou chegando ao fim depois que o cientista acabou se apaixonando por Elaine Mason, uma das enfermeiras que lhe prestavam cuidados. Hawking casou-se pela segunda vez em 1995, e o novo relacionamento durou até 2006. Houve rumores de que Elaine o agredia, mas Stephen jamais quis prestar queixa, deixando a situação no ar. “Meu casamento com Elaine foi apaixonado e tempestuoso. Tivemos nossos altos e baixos, mas o fato de Elaine ser enfermeira salvou minha vida em diversas ocasiões”, resumiu, em sua autobiografia.
Apesar da fama, Hawking nunca gostou de discutir seus problemas pessoais em público, e durante todo esse período, não houve exceção. Em compensação, sua celebridade pode tê-lo levado a violar um dos mais básicos princípios do comportamento acadêmico: não se deve fazer afirmações extraordinárias sem evidências igualmente extraordinárias.

Em 2004, o pop-star britânico anunciou ter solucionado um dos mais intrigados problemas ligado à física de buracos negros, o chamado “paradoxo da informação”. É basicamente a ideia de que a informação codificada no interior das partículas que caem no buraco negro é destruída e desaparece do Universo para sempre. Os físicos consideram isso paradoxal porque as leis físicas funcionam justamente em razão das condições anteriores do sistema. Se você parte de um estado “desinformado”, não há como aplicar as teorias sobre ele para saber o que acontece depois ou determinar o que ocorreu antes.

Ao dizer que teria resolvido o dilema, Hawking chamou a atenção dos físicos do mundo inteiro. Mas ele nunca apresentou cálculos que demonstrassem isso. Dez anos depois, em 2014, repetiu a dose, dizendo ter concluído que buracos negros podem nem existir.

Mais uma vez um choque: a imensa maioria dos cientistas já estava convencida de que esses fenômenos são reais, depois de estudá-los a fundo – embora só por meio de equações. Mas Hawking de novo não apresentou o devido embasamento matemático para demonstrar sua conclusão bombástica.
A situação é perfeitamente compreensível, dada a extrema dificuldade que Hawking tinha para se comunicar. Só o fazia por meio de um computador, que traduzia pequenos movimentos da bochecha em letras e palavras, que então são expressas por meio de um sintetizador de voz. Imagine a dificuldade do cientista em desenvolver suas ideias, altamente matemáticas, valendo-se apenas de sua mente para proceder com os cálculos. É natural que o pesquisador tenha passado o fim da vida desenvolvendo apenas artigos sumários, na esperança de que outros fisgassem as ideias e as desenvolvessem mais concretamente.
Fora do âmbito acadêmico, Hawking também soube usar muito bem sua fama, ao alertar para riscos existenciais à humanidade ocasionados pelo progresso tecnológico, em especial a inteligência artificial. “As formas primitivas de inteligência artificial que temos agora se mostraram muito úteis. Mas acho que o desenvolvimento de inteligência artificial completa pode significar o fim da raça humana”, disse o cientista, em 2014.
Convencido de que a humanidade precisa colonizar outras partes do Universo para sobreviver a esse e outros riscos à nossa existência, Hawking era um dos primeiros passageiros na lista de espera da empresa Virgin Galactic, que deve realizar voos espaciais suborbitais nos próximos anos. Morreu aos 76 anos, em Cambridge, sem ter realizado este sonho.

13.592 – Física – Cientistas fazem o tempo correr ao contrário em laboratório


tempo_pra_tras_site
O assunto agora é que fizemos o tempo dar ré. Conseguimos, em laboratório, fazer o tempo correr na direção oposta.
Como? Vamos explicar em detalhes nos próximos parágrafos. Primeiro, calma: você precisa ter em mente que que o tempo não é um conceito concreto, pré-existente. Nós só deduzimos que o tempo existe porque observamos, no Universo, as coisas mudando a partir de uma condição inicial. O ponto zero da sua vida é seu nascimento, e o tempo se desloca na direção do seu envelhecimento. A mesma coisa acontece com o Universo, para o qual o ponto zero é o Big Bang.
O problema é que não precisava, necessariamente, ser assim. O tempo poderia se mover na direção oposta. Ou então ir e voltar, sem ter que se comprometer a ser uma via de mão única. Há inclusive quem defenda que, quando nosso Universo nasceu, surgiu também um Universo gêmeo invertido, onde o tempo corre ao contrário.
O estudo que fez o tempo andar para trás não falava de nada disso. O tema dele era energia. Isso porque uma das formas de definir a direção que o tempo corre, segundo a ciência, é olhar para a forma como a energia se movimenta no nosso Universo.
Esse movimento, você sabe, têm regras. Pense nas leis da termodinâmica: uma xícara de chá quente, no meio de uma sala fria, só pode esfriar, perdendo calor para o ambiente. Você jamais vai ver a xícara esquentar mais, roubando calor da sala. A tendência inexorável de um objeto quente é esfriar.
O fluxo de energia, nesse sentido, também é de mão única, tão irreversível quanto a passagem do passado ao futuro. Na prática, então, o fluxo de energia é o tempo, ou o que os cientistas chamam de “flecha do tempo” (flecha porque a ponta aponta para um lado só, com o perdão da piada de Tio do Pavê).
Agora que chegamos até aqui, podemos finalmente falar da descoberta. O estudo foi feito com uma molécula extremamente banal: o clorofórmio, aquele mesmo dos filmes de sequestro. Ele é composto por um átomo de carbono, ligado a um de hidrogênio e três átomos de cloro.
O próximo passo dos cientistas foi manipular esses átomos um por um. Para isso, a molécula foi colocada em acetona e um campo magnético fortíssimo alinhou cada um dos núcleos desses átomos. E aí, lentamente, os pesquisadores aumentaram a temperatura em alguns dos núcleos usando ressonância magnética nuclear.
Voltando ao nosso exemplo da termodinâmica, conforme um núcleo esquenta, ele deveria transferir energia para os seus vizinhos mais frios até que todas as partículas estivessem na mesma temperatura, certo? Assim, estariam seguindo a flecha do tempo, na direção correta.
Mas estamos falando de partículas. E entra aí o maravilhoso mundo da física quântica. Durante os testes, os pesquisadores manipularam as partículas para conseguir que elas se correlacionassem.
Quando a correlação quântica entrou em jogo, os cientistas viram as regras mudarem. As partículas nos núcleos de hidrogênio, quando aquecidas, ficavam progressivamente mais quentes. As do núcleo de carbono, progressivamente mais frias. É como se nossa xícara do nosso exemplo continuasse a aquecer, graças ao calor fornecido pela mesa fria, que fica cada vez mais gelada.
Em uma escala minúscula, portanto, invertemos a flecha do tempo. O calor caminhou ao contrário, fluindo espontaneamente do sistema mais frio para o mais quente, o que não faz sentido algum no mundo macroscópico. E assim, do ponto de vista da energia, o tempo andou para trás.
Ainda falta entendermos muita coisa sobre o que acontece no misterioso estado quântico – e como ele se relaciona com as regras do nosso mundo macroscópico, como as que governam calor e energia em geral. O estudo (que está disponível pré-publicação arXiv.org) traz uma contribuição curiosa exatamente para esse campo, mostrando como o mundo das partículas “reinterpreta” a termodinâmica como a conhecemos.
Mas, quando colocamos o fator tempo na história, a coisa ganha um significado ainda maior – e certamente mais filosófico.

13.570 – Tecnologia – Reator de Fusão Nuclear


O tão esperado Reator Experimental Termonuclear Internacional (ITER, no original inglês “International Thermonuclear Experimental Reactor”), com potencial para liderar uma nova era de energia limpa a partir da fusão nuclear, atingiu um marco chave, com metade da infraestrutura necessária agora já construída.
O ITER fica na França e é uma parceria de projetos entre Europa, EUA, China, Índia, Japão, Rússia e Coreia do Sul.
Até agora, ninguém construiu um reator de fusão que poderia alimentar seque uma cidade pequena, quem dirá um estado ou país.
O ITER é a esperança para mudar isso. A colaboração internacional iniciou o projeto há dez anos com planos para alcançar a fusão total em 2023. Atrasos maciços têm empurrado esse objetivo para 2035.
O projeto já ultrapassou em quatro vezes seu orçamento original, com alguns críticos dizendo que não está claro se a tecnologia sequer irá funcionar. A máquina deverá custar, no total, mais de US$ 20 bilhões.
Porém, Bernard Bigot, diretor-geral do ITER, disse que a conclusão da metade do projeto significou que o esforço está se reerguendo e poderia produzir energia a partir de 2025.
A fusão nuclear é o fenômeno natural que alimenta o sol, convertendo hidrogênio em átomos de hélio através de um processo que ocorre em temperaturas extremas.

Replicar esse processo na Terra não é uma tarefa simples.
O projeto visa usar a fusão de hidrogênio, controlada por grandes ímãs supercondutores, para produzir energia de calor, de forma semelhante às usinas de carvão e gás de hoje. A diferença é que seria livre de emissões de carbono, e potencialmente de baixo custo, se funcionar em grande escala.
Por exemplo, de acordo com os cientistas do ITER, uma quantidade de hidrogênio do tamanho de um abacaxi poderia ser usada para produzir tanta energia quanto 10.000 toneladas de carvão.
Enquanto a fusão nuclear tem sido objeto de diversas pesquisas científicas desde a década de 1940, até hoje não descobrimos um meio de fazê-la funcionar em condições controláveis na escala necessária.
O ITER foi descrito como o esforço científico mais complexo da história humana. O projeto exige que plasma de hidrogênio seja aquecido a 150 milhões de graus Celsius – 10 vezes mais quente que o núcleo do sol. Um reator em forma de rosca chamado “Tokamak” seria cercado por ímãs gigantes para retirar o plasma superaquecido das paredes metálicas do recipiente. Isso requer que os ímãs sejam arrefecidos até menos 269 graus Celsius.
Os EUA são responsáveis por 10% do orçamento do projeto, enquanto a União Europeia fornece 45% do custo, com o restante sendo de responsabilidade dos outros parceiros principais.

Bigot visitou Washington DC para tentar quebrar o impasse, afirmando ao portal The Guardian estar confiante de que o conflito poderia ser resolvido.
Outra boa notícia é que o Google também está trabalhando atualmente na energia de fusão nuclear, sendo o primeiro grande setor privado a investir na tecnologia. O gigante da internet anunciou que formou uma parceria com a Tri Alpha Energy, apoiada pelo cofundador da Microsoft Paul Allen, para gerar novos algoritmos computacionais que poderiam testar os conceitos por trás dos esforços de engenharia da fusão nuclear. [BusinessInsider, TheGuardian]

13.569 – Física – O que são máquinas moleculares?


nanomaquinas
É definida como um número discreto de componentes moleculares que desempenham movimentos mecânicos (output) em resposta a estímulos específicos (input).
Geralmente a expressão é aplicada a moléculas que simplesmente imitam funções que ocorrem a nível macroscópico.
O termo também é comum em nanotecnologia e várias máquinas moleculares altamente complexas já foram propostas para o objectivo de construir um montador molecular.
As Máquinas Moleculares podem ser propostas em duas grandes categorias: sintéticas e biológicas.
Aqui estão duas experiências de pensamento que formam a base histórica para máquinas moleculares: o demônio de Maxwell e Ratchet de Feynman (ou catraca browniano). Demônio de Maxwell é bem descrita em outro lugar, e uma interpretação ligeiramente diferente da catraca de Richard Feynman é dado aqui.

Imaginemos um sistema muito pequeno (ver abaixo) de duas pás ou engrenagens ligadas por um eixo rígido e que é possível manter estas duas pás a duas temperaturas diferentes. Uma das engrenagens (em T2) tem uma lingueta que está retificando o movimento do sistema, e, portanto, o eixo só pode se mover em uma rotação no sentido horário, e ao fazê-lo, poderia levantar um peso (m) para cima em cima de catraca. Agora imagine se o remo na caixa T1 estava em um ambiente muito mais quente do que a engrenagem na caixa T2; seria de esperar que a energia cinética das moléculas de gás (círculos vermelhos) que atingem a pá em T1 seria muito mais elevada do que as moléculas de gás que atingem a engrenagem em T2. Por conseguinte, com menor energia cinética dos gases no T2, haveria pouca resistência das moléculas ao colidirem com a engrenagem na direcção oposta estatisticamente. Além disso, o roquete iria permitir a direcionalidade, e lentamente ao longo do tempo, o eixo de roquete iria rodar e, levantando o peso (m).
Como descrito, este sistema pode parecer uma máquina de movimento perpétuo; No entanto, o principal ingrediente é o gradiente térmico dentro do sistema. Esta catraca não ameaça a segunda lei da termodinâmica, porque este gradiente de temperatura deve ser mantida por alguns meios externos. O movimento Browniano das partículas de gás fornece a energia para o aparelho, e o gradiente de temperatura permite que a máquina para conduzir o sistema ciclicamente afastamento do equilíbrio. Em catraca de Feynman, o movimento browniano aleatório não é combatido, mas em vez disso, aproveitado e retificado. Infelizmente, os gradientes de temperatura não pode ser mantida ao longo de distâncias à escala molecular, porque a vibração molecular de redistribuição da energia a outras partes da molécula. Além disso, apesar da máquina de Feynman fazendo um trabalho útil para levantar a massa, usando o movimento browniano para alimentar uma máquina de nível molecular não fornece qualquer visão sobre como o poder (ou energia potencial do peso levantado, m) pode ser usado para executar tarefas em nanoescala.
Diferentemente movimento macroscópico, sistemas moleculares estão constantemente passando por movimentos dinâmicos significativos sujeitos às leis da mecânica brownianos (ou movimento browniano) e, como tal, aproveitando o movimento molecular é um processo muito mais difícil. Ao nível macroscópico, muitas máquinas operam na fase gasosa, e, muitas vezes, a resistência do ar é desprezada, como é insignificante, mas analogamente para um sistema num ambiente molecular Browniano, movimento molecular é semelhante “a uma curta em um furacão, ou natação em melaço. “O fenômeno do movimento browniano (observado por Robert Brown (botânico), 1827), foi posteriormente explicado por Albert Einstein em 1905. Einstein descobriu que o movimento browniano é uma consequência da escala e não a natureza do entorno. Contanto que a energia térmica é aplicado a uma molécula, ele irá sofrer movimento Browniano com a energia cinética adequada para essa temperatura. Portanto, como estratégia de Feynman, ao projetar uma máquina molecular, parece sensato para utilizar o movimento browniano em vez de tentar lutar contra isso.
Como máquinas macroscópicas, máquinas moleculares normalmente têm partes móveis. No entanto, enquanto as máquinas macroscópicas cotidianas podem servir de inspiração para máquinas moleculares, é enganoso desenhar analogias entre sua estratégia de design; a dinâmica das escalas de comprimento pequenas e grandes são simplesmente demasiado diferente. Aproveitando o movimento browniano e fazer máquinas nível molecular é regulada pela segunda lei da termodinâmica, com suas conseqüências, muitas vezes contra-intuitivo, e como tal, precisamos de outra inspiração.
Apesar de ser um processo desafiador para aproveitar o movimento browniano, a natureza nos proporcionou vários projetos para o movimento molecular realizar trabalho útil. A natureza criou muitas estruturas úteis para compartimentar sistemas moleculares, criando, portanto, as distribuições não-equilíbrio distintas; a membrana celular é um excelente exemplo. Barreiras lipofilias fazer uso de uma série de diferentes mecanismos de movimento de alimentação de um compartimento para outro.

13.563 – Física – Um processo cria antimatéria naturalmente aqui na Terra


raio-de-baixo-para-cima
Nós já sabíamos que relâmpagos podiam gerar raios gama, e agora a equipe da Universidade de Kyoto descobriu que essas explosões podem criar reações fotonucleares, resultando na produção e aniquilação da antimatéria.
Os resultados foram publicados na revista científica Nature.
As explosões de raios gama a partir de relâmpagos foram detectadas pela primeira vez em 1992, graças ao Observatório de Raios Gama Compton, da NASA.
Foi teorizado que essas explosões podiam induzir reações nucleares, mas ninguém havia conseguido identificar esses sinais até agora. Logo, os pesquisadores japoneses, liderados por Teruaki Enoto, decidiram utilizar detectores de radiação instalados na central nuclear de Kashiwazaki-Kariwa, em Niigata, ao longo da costa do Mar do Japão, para observar e estudar relâmpagos.
Em 6 de fevereiro deste ano, a equipe finalmente teve sucesso: detectou “radiação intensa” durante uma tempestade, incluindo um breve flash de raios gama.
Quando os cientistas analisaram os dados cuidadosamente, encontraram três rajadas de raio gama distintas, cada uma durando mais do que a anterior.
A primeira rajada de raios gama, que durou menos de um milésimo de segundo, foi bastante autoexplicativa.

“Nós pudemos ver que a primeira explosão veio do relâmpago”, disse Enoto. “Através de nossas análises e cálculos, nós finalmente determinamos as origens da segunda e terceira emissões também”.

Ambos os sinais posteriores foram causados por reações fotonucleares, quando a primeira rajada de raios gama empurrou nêutrons para fora do núcleo de átomos de nitrogênio na atmosfera. Isso teve dois efeitos: primeiro, esses nêutrons soltos foram reabsorvidos por outras partículas no ar, provocando uma segunda rajada de raios gama que durou algumas dúzias de milissegundos.
A terceira emissão durou um minuto inteiro, e sua causa foi um pouco mais estranha. Os átomos de nitrogênio que perderam seus nêutrons tornaram-se instáveis e quebraram, liberando pósitrons no ar. Os pósitrons são o equivalente de antimatéria dos elétrons, e quando os dois se tocam, se aniquilam. Esses eventos de aniquilação produzem explosões de raios gama prolongadas.

Antimatéria
Certamente, essa descoberta foi interessante. “Nós temos essa ideia de que a antimatéria é algo que só existe na ficção científica. Quem diria que poderia estar passando bem acima de nossas cabeças em um dia tempestuoso?”, disse Enoto.

Além de gerar nêutrons e pósitrons, o processo observado também é importante porque é apenas a segunda vez que vemos isótopos radioativos serem produzidos naturalmente na atmosfera – o único outro exemplo vem de partículas produzidas por raios cósmicos. Mas não há motivo para se preocupar.
“Uma vez que os isótopos radioativos são de curta duração, restritos espacialmente e de quantidade relativamente pequena em comparação com os ambientes radiativos de fundo habituais, acho que não existe nenhum risco para a saúde desse fenômeno”, explicou Enoto.
Os pesquisadores ainda não sabem se todas as trovoadas são capazes de iniciar essas reações. Para responder a essa e outras perguntas, eles vão continuar estudando tempestades ao longo da costa japonesa. [NewAtlas, ScienceAlert]

13.546 – Do Micro ao Macro


Microscópios e telescópios foram fundamentais para a ciência. Eles serviram para ajudar a fazer grandes descobertas e simbolizam o interesse do homem tanto pelo micro – as coisas pequenas, invisíveis a olho nu, quanto pelo macro – a vastidão do Universo. Hoje, como você vai ver nestas e nas próximas páginas, a ciência caminha ainda mais para o estudo dessas duas pontas, mas em uma escala nunca vista antes. O estudo de coisas previstas apenas na teoria, como partículas subatômicas muitas vezes menores que o átomo, passa a ser possível também na prática, assim como a observação de galáxias cada vez mais distantes. E o que empurra a ciência nessa direção é o avanço das técnicas de investigação da natureza, que ficam cada vez mais sofisticadas.
A verdade é que o homem sempre gostou de estudar esses dois extremos. Até o século 16, contudo, os experimentos nessa área eram limitados por aparelhos rudimentares e teorias difíceis de provar. Foi no século 17 que surgiram o microscópio e o telescópio, dois equipamentos fundamentais, que permitiram testar teorias e avançar na observação do céu e das partículas.
O telescópio foi criado em 1606 por um holandês e adaptado pelo astrônomo Galileu Galileu, o primeiro a usá-lo para estudar o céu. O aparato permitiu que o italiano de Pisa descobrisse fenômenos como o relevo da Lua, os satélites de Júpiter e a natureza da Via Láctea. Algumas décadas depois, veio o microscópio. O holandês Antonie van Leeuwenhoek foi o primeiro a usar o equipamento para observar materiais biológicos, como plantas, glóbulos de sangue e espermatozoides do sêmen.
Hoje, ambos evoluíram. Parece até coisa do Obama, mas o que motiva a realização de estudos em níveis tão profundos é, simplesmente, porque nós podemos. Assim como a astronomia e a biologia floresceram no século 17 graças ao telescópio e ao microscópio, hoje é possível desbravar as fronteiras mais longínquas do micro e do macro porque temos as ferramentas necessárias. Os instrumentos tradicionais ficaram bem mais poderosos – chegamos à era dos extremely large telescopes (“telescópios extremamente grandes”), que têm espelhos de mais de 30 metros e permitem fotografar e catalogar o céu inteiro.
Também surgiram outras tecnologias, impensáveis há até pouco tempo. A ferramenta mais significativa é o megaprocessamento de dados. A capacidade de armazenar e processar quantidades inimagináveis de informações é uma das formas de aprender sobre tudo que está ao redor de nós, em todas as escalas
Microscópios e telescópios modernos geram tanta informação por dia que é impossível para o ser humano compilá-la e condensá-la. Mas um computador consegue encará-la – e é na análise dessa montanha monstruosa de dados que moram respostas para muitas das nossas dúvidas.
Mas, quando os números são muito grandes, mesmo as respostas do computador podem ser difíceis de digerir. É para isso que surgiram técnicas como a visualização de dados. Na prática, são programas que produzem gráficos simples a partir de informações complexas. Só de olhar dá para entender o que eles querem dizer. Esse é o trabalho do arquiteto da informação Manuel Lima, criador do projeto Visual Complexity, que reúne projetos inovadores de visualização de redes, e do Many Eyes, que fornece ferramentas para a interpretação visual de dados. Com a técnica, é possível enxergar desde a interação entre proteínas até a forma como as pessoas usam a internet, e fica mais simples entender conhecimentos complexos, gerados a partir de um monte de estatísticas. O uso das novas ferramentas permite não só que as pessoas explorem o micro e o macro de uma forma nunca vista antes mas também que possam compreender com facilidade o que isso significa para elas.

13.543 – Antigravidade – Como se consegue anular a gravidade nos laboratórios da Nasa?


antigravidade

Não se pode simplesmente “desligar” a gravidade. Cintos antigravitacionais só existem no cinema ou nas histórias em quadrinhos. A Nasa e outras agências espaciais utilizam um artifício que permite simular a ausência de gravidade: a queda livre. Imagine-se dentro de um elevador, carregando alguns livros na mão. Quando o elevador chega ao último andar, alguém corta os cabos e ele despenca. De repente, a sensação será de ausência de peso, os pés perderão o contato com o chão e os livros flutuarão no ar. Como o elevador está fechado, você irá flutuar sem sentir a resistência do ar, como em um ambiente sem gravidade. Nos experimentos das agências espaciais, um avião a jato sobe até determinada altitude e, em seguida, é posto em queda livre durante certo tempo – não mais que 30 segundos. Na acolchoada cabine de passageiros, os futuros astronautas sentem a ausência de peso, até que o piloto retome o curso da aeronave.
Os testes não são utilizados apenas como “curso preparatório” para viagens espaciais. Dentro dos aviões, pesquisadores submetem equipamentos, procedimentos médicos e substâncias químicas, por exemplo, às mesmas condições encontradas no espaço. O que passar no teste pode entrar na nave.

Queda livre simula ausência de peso 11 000 metros (início da descida)
Gravidade = 1 G (normal)

1. Na simulação de gravidade zero, o piloto sobe até uma determinada altitude – de 10 000 a 12 000 metros – e abaixa o nariz do avião em 45 graus. Se a inclinação for menor que isso, a ausência de peso não é total

11 000 a 8 000 metros (descida)

Gravidade = Zero

2. Na descida, que dura entre 20 e 25 segundos, os ocupantes da cabine de passageiros flutuam no ar. Nessa mínima fração de tempo, são realizados os testes médicos que avaliam os efeitos da ausência de gravidade no organismo humano

8 000 metros (final da descida)

Gravidade = 1 G (normal)

4. A sequência de descidas e subidas é repetida de 30 a 40 vezes pelo piloto, até completar um total de três horas de voo

5. Quando alcança a marca de 8 000 metros de altitude, o piloto retoma a subida. Nessa etapa do voo, a gravidade, em vez de diminuir, aumenta para 1,8 G (1 G equivale à força gravitacional ao nível do mar)

13.520 – Física – Curiosidades sobre o Tempo


super tempo
Da Super para o ☻Mega

Relatividade
A passagem do tempo é mais rápida para o seu rosto do que para os seus pés (supondo que você esteja de pé). A teoria da relatividade de Einstein afirma que, quanto mais perto você estiver no centro da Terra, mais lento o tempo passará – e isso já foi medido. Por exemplo, no topo do Monte Everest, um ano é cerca de 15 microssegundos menor do que no nível do mar.

Segundo
Tecnicamente, um segundo não é definido como 1/60 de um minuto, mas como “a duração de 9.192.631.770 períodos da radiação consistente com a transição entre os dois níveis hiperfinos do estado fundamental do átomo de césio 133”.

Dinossauros
Quando os dinossauros governavam a Terra, havia quase 370 dias em um ano. A rotação da Terra está ficando mais lenta porque a gravidade da lua está agindo sobre ela. Isso significa, por sua vez, que os dias no planeta estão ficando mais longos, por cerca de 1,7 milissegundos por século.

Mercúrio
Em Mercúrio, um dia tem dois anos terrestres de duração.

Tempo de Planck
O tempo de Planck é uma unidade científica de tempo. Leva cerca de 550.000 trilhões de trilhões de trilhões de vezes o tempo de Planck para piscar uma vez, rapidamente.

Agora
Não existe o “agora”, de acordo com a física. Espaço e tempo são como fluidos, afetados pela gravidade e até mesmo pela sua velocidade. Disse Albert Einstein: “Para nós físicos, a distinção entre passado, presente e futuro é apenas uma ilusão, ainda que uma persistente”.

Luz
Uma vez que a luz leva tempo para nos alcançar, tudo o que vemos no espaço está no passado. O sol que você pode ver no céu é um sol de oito minutos e 20 segundos atrás. A luz da estrela mais próxima da Terra, depois do sol, Proxima Centauri, tem cerca de 4 anos.

Envelhecimento e memória
Novas experiências certamente parecem mais fortes na memória do que as mais conhecidas. Isso é conhecido como “efeito estranho”, e provavelmente é devido ao fato do tempo parecer passar mais rápido à medida que você envelhece – já que mais coisas são familiares para você.

Relógio de estrôncio
O relógio mais preciso já construído é o relógio de estrôncio. Ele tem uma margem de erro de apenas um segundo em 15 bilhões de anos.

A velha do universo
A mais antiga coisa conhecida no universo é uma galáxia chamada z8_GND_5296. Ela tem 13,1 bilhões de anos, o que significa que é apenas 700 milhões de anos mais nova do que o próprio cosmos.

Trens e fusos horários
A causa por trás do fato dos relógios mostrarem a mesma hora em países inteiros é que torna os horários de transportes mais fáceis. Até o século 19, as cidades estabeleciam seus relógios pela hora local, então a hora em municípios próximos podia ser diferente – por exemplo, Bristol ficava 11 minutos atrás de Londres. Isso fazia com que as pessoas comumente perdessem seus trens, de forma que as empresas ferroviárias começaram a usar o “tempo padrão britânico” baseado em Londres a partir de 1840.

Aceleração e expansão do universo
As galáxias distantes da Terra parecem estar se movendo mais rápido do que as próximas, significando que o universo está se acelerando à medida que se expande. A teoria normal para explicar tal expansão é uma força misteriosa no cosmos, conhecida como “energia escura”. Um físico espanhol sugeriu uma perspectiva alternativa de que as galáxias mais distantes e mais antigas parecem estar se movendo mais rápido porque no passado o tempo era mais rápido. Se ele estiver correto, em alguns bilhões de anos, “tudo ficará congelado, como uma foto instantânea”.

24 horas
O fato de que a rotação da Terra está gradualmente desacelerando e, consequentemente, os dias estão ficando mais longos, significa que nossos relógios estão errados e nosso dia de 24 horas está mudando. De vez em quando, o Serviço Internacional de Rotação da Terra, a organização que padroniza o tempo astronômico, precisa adicionar um segundo – chamado “segundo de salto” – ao relógio para manter as coisas consistentes. O último segundo de salto foi adicionado em 30 de junho de 2015. [PhysicsAstronomy]

13.510 – Propulsor quebra recordes e pode nos levar para Marte


íons
Um propulsor que está sendo desenvolvido para uma futura missão da NASA para Marte quebrou vários recordes durante seus testes, sugerindo que a tecnologia está no caminho para levar os humanos ao planeta vermelho nos próximos 20 anos, segundo membros da equipe do projeto.
O propulsor X3, projetado por pesquisadores da Universidade de Michigan, em cooperação com a NASA e a Força Aérea dos EUA, é um propulsor Hall – um sistema que impulsiona a espaçonave acelerando uma corrente de átomos eletricamente carregados, conhecidos como íons. Na recente demonstração realizada no Centro de Pesquisa Glenn da NASA, o X3 quebrou recordes do máximo de potência, impulso e corrente operacional alcançados por um hélice Hall até hoje, de acordo com a equipe de pesquisa da Universidade de Michigan e representantes da NASA.
“Nós mostramos que o X3 pode operar com mais de 100 kW de potência”, disse Alec Gallimore, que lidera o projeto, em entrevista ao site Space. “Ele funcionou em uma enorme variedade de energia de 5 kW a 102 kW, com corrente elétrica de até 260 amperes. Ele gerou 5,4 Newtons de impulso, que é o maior nível de impulso alcançado por qualquer propulsor de plasma até o momento”, acrescentou Gallimore, que é decano de engenharia da Universidade de Michigan. O recorde anterior era de 3,3 Newtons.

40 km por segundo
Os propulsores Hall e outros tipos de motores de íons usam eletricidade (geralmente gerada por painéis solares) para expelir o plasma – uma nuvem semelhante a gás de partículas carregadas – para fora de um bocal, gerando impulso. Esta técnica pode impulsionar a nave espacial a velocidades muito maiores do que os foguetes de propulsão química podem, de acordo com a NASA.
É por isso que os pesquisadores estão tão interessados ​​na aplicação potencial de propulsão iónica para viagens espaciais de longa distância. Considerando que a velocidade máxima que pode ser alcançada por um foguete químico é de cerca de 5 quilômetros por segundo, um propulsor Hall poderia levar uma embarcação até 40 quilômetros por segundo, diz Gallimore.

Os motores de íons também são conhecidos por ser mais eficientes do que os foguetes de potência química. Uma nave espacial com propulsão Hall levaria carga e astronautas para Marte usando muito menos material propulsor do que um foguete químico. Um propelente comum para propulsores de íons é o xenônio. A nave espacial Dawn da NASA, que atualmente está em órbita no planeta anão Ceres, usa esse gás.
Em busca de mais Watts

O ponto negativo dos propulsores de íons, no entanto, é que eles possuem um impulso muito baixo e, portanto, devem operar por um longo tempo para acelerar uma nave espacial a altas velocidades, de acordo com a NASA. Além disso, os propulsores de íons não são poderosos o suficiente para superar a atração gravitacional da Terra, portanto não podem ser usados ​​para lançar a nave espacial.

“Os sistemas de propulsão química podem gerar milhões de kilowatts de energia, enquanto os sistemas elétricos existentes só conseguem 3 a 4 quilowatts”, explica Gallimore. Os propulsores Hall comercialmente disponíveis não são poderosos o suficiente para impulsionar uma nave tripulada até marte, acrescentou.

“O que precisamos para a exploração humana é um sistema que pode processar algo como 500.000 watts (500 kW), ou mesmo um milhão de watts ou mais”, aponta Gallimore. “Isso é algo como 20, 30 ou mesmo 40 vezes o poder dos sistemas convencionais de propulsão elétrica”.

É aí que entra o X3. Gallimore e sua equipe estão abordando o problema da energia, tornando o propulsor maior do que esses outros sistemas e desenvolvendo um design que aborda uma das falhas da tecnologia. “Nós descobrimos que, em vez de ter um canal de plasma, onde o plasma gerado é esgotado do propulsor e produz impulso, teríamos vários canais no mesmo propulsor”, explica. “Nós chamamos isso de canal aninhado”.
De acordo com Gallimore, o uso de três canais permitiu que os engenheiros tornassem o X3 muito menor e mais compacto do que um propulsor de Hall de canal único equivalente deveria ser. A equipe da Universidade de Michigan vem trabalhando na tecnologia em cooperação com a Força Aérea desde 2009. Primeiro, os pesquisadores desenvolveram uma hélice de dois canais, o X2, antes de passar para o X3, mais poderoso e com três canais.
Em fevereiro de 2016, a equipe se associou ao fabricante de foguetes com sede na Califórnia Aerojet Rocketdyne, que está desenvolvendo um novo sistema de propulsão elétrica, chamado XR-100, para o programa NASA Next Space Technologies for Exploration Partnerships ou NextSTEP. O propulsor X3 é uma parte central do sistema XR-100.
Scott Hall, doutorando da Universidade de Michigan que trabalhou no projeto X3 nos últimos cinco anos, disse que o trabalho tem sido bastante desafiador devido ao tamanho do propulsor.
“É pesado – 227 quilos. Tem quase um metro de diâmetro”, diz Hall. “A maioria dos propulsores Hall são o tipo de coisa que uma ou duas pessoas podem pegar e carregar ao redor do laboratório. Precisamos de um guindaste para mover o X3”.
No próximo ano, a equipe executará um teste ainda maior, que visa provar que o propulsor pode operar a plena potência por 100 horas. Gallimore diz que os engenheiros também estão projetando um sistema especial de blindagem magnética que deixaria o plasma longe das paredes do propulsor para evitar danos e permitir que o propulsor funcione de forma confiável por períodos de tempo ainda mais longos. Gallimore diz que, sem a blindagem, uma versão de vôo X3 provavelmente começaria a ter problemas após várias mil horas de operações. Uma versão blindada magneticamente pode ser executada por vários anos com força total, segundo ele. [Space]

13.502 – Física – A Bomba de Antimatéria


antimateria
O mundo foi testemunha do terrível poder destrutivo das bombas nucleares durante a Segunda Guerra Mundial, quando os Estados Unidos as utilizaram sobre Hiroshima e Nagasaki. Até hoje, mais de 70 anos depois, as consequências dessas bombas continuam se manifestando.
Mas nesse meio tempo, as potências nucleares criaram artefatos centenas de vezes mais poderosos. A Rússia, por exemplo, tem em seu poder a Tsar, cujo poder destrutivo é três mil vezes maior que o da bomba de Hiroshima.
Ainda assim, a Tsar parece fichinha perto desta que, se fosse produzida, chegaria a ser cinco vezes mais poderosa que a russa. A bomba em questão utilizaria a “antimatéria”, que, assim como a matéria, teve sua origem no Big Bang. São partículas com propriedades exatamente contrárias à matéria. Sabe-se que, quando uma partícula e uma antipartícula interagem, é causada uma destruição entre elas e ambas são aniquiladas.
Se os cientistas conseguirem criar e conservar átomos de antimatéria nas condições necessárias para ser utilizadas, seus efeitos seriam catastróficos para a vida do planeta Terra. Felizmente, as complicações para criar essa bomba são muitas, e a primeira é o seu valor: acredita-se que para obter 1 g de antimatéria seriam necessários algo em torno de 62,5 trilhões de dólares.

13.488 – Nobel 2017 – Prêmio Nobel de Física vai para pesquisadores de buracos negros


nobel 2017
O Prêmio Nobel de Física deste ano foi dado aos cientistas Rainer Weiss, do Instituto de Tecnologia de Massachusetts, e Kip Thorne e Barry Barish, do Instituto de Tecnologia da Califórnia, pela descoberta de ondulações no espaço-tempo, conhecidas como ondas gravitacionais.
Essas “ondas” foram previstas por Albert Einstein um século atrás, mas não tinham sido detectadas diretamente até pouco tempo.
O Dr. Weiss receberá metade do prêmio de 9 milhões de coroas suecas (cerca de R$ 3,47 bilhões, no câmbio atual) e Dr. Thorne e Dr. Barish dividirão a outra metade.

A teoria
A importante descoberta aconteceu em fevereiro de 2016, quando uma colaboração internacional de físicos e astrônomos anunciou que haviam registrado ondas gravitacionais provenientes da colisão de um par de buracos negros maciços, a um bilhão de anos-luz de nós.
O trabalho validou uma previsão de longa data de Einstein. Em 1916, o físico propôs a teoria da relatividade geral, afirmando que o universo era como um tecido feito de espaço e tempo. Esse tecido podia se dobrar devido a objetos maciços, como estrelas e planetas.
Einstein também propôs que, quando dois objetos maciços interagem, eles podem criar uma ondulação no espaço-tempo. Tais ondulações deveriam ser detectáveis se pudéssemos construir instrumentos suficientemente sensíveis.

Os avanços
Weiss, Thorne e Barish foram os arquitetos e líderes do LIGO, o Observatório de Ondas Gravitacionais por Interferômetro Laser, o instrumento que finalmente foi capaz de detectar essas ondas. Mais de mil cientistas participaram de uma colaboração para analisar os dados do LIGO.
Tal instrumento permaneceu um sonho até a década de 1970. Foi nessa época que Rainer Weiss sugeriu um projeto que ele pensava poder detectar ondas gravitacionais. Suas ideias foram então traduzidas em realidade através de uma série de pesquisadores, incluindo Kip Thorne, Ronald Drever e Barry Barish, no que se tornaria o LIGO.
Muitas etapas, US$ 1 bilhão em gastos e 40 anos se passaram até que a versão mais avançada do observatório, lançada em setembro de 2015, finalmente capturou o primeiro sinal que significaria a abertura de todo um novo campo da astronomia.

13.394 – Física – O Magnetismo


Bússola
Trata-se da capacidade de atração em imãs, ou seja, a capacidade que um objeto possui de atrair outros objetos.
Os imãs naturais são compostos por pedaços de ferro magnético ou rochas magnéticas como a magnetita (óxido de ferro Fe3O4). Os imãs artificiais são produzidos por ligas metálicas, como por exemplo, níquel-cromo.
O fenômeno do magnetismo pode ser explicado através das forças dipolo. Por exemplo, os materiais possuem dois diferentes polos, quando entram em contato com outros materiais os polos iguais se repelem e os polos opostos se atraem. Este fenômeno recebe a denominação de “dipolo magnético” e pode ser considerado uma grandeza. A força do imã é determinada por essa grandeza. Os próprios átomos são considerados imãs, por exemplo, com polos norte e sul. As bússolas magnéticas trabalham com base no magnetismo, veja o processo de funcionamento:

– Um imã pequeno e leve se encontra no ponteiro das bússolas, este imã estabelece ao seu redor um campo magnético e está equilibrado sobre um ponto que funciona como pivô: sem atrito e de fácil movimento;

– quando o imã é situado em um campo de outro imã, esse tende a se alinhar ao campo de referência;

– a Terra possui um campo magnético que funciona como referencial para o funcionamento da bússola..

O ímã é um minério que tem a propriedade de atrair pedaços de ferro. A esse minério foi dado o nome de magnetita, por ser encontrado numa região chamada Magnésia, localizada na atual Turquia.

Os ímãs possuem dois polos que são denominados de polo norte e polo sul, se tivermos dois imãs próximos, observamos que polos de mesmo nome se repelem e que polos de nomes diferentes se atraem, quer dizer: polo norte repele polo norte, polo sul repele polo sul, e polo norte e polo sul se atraem.
Um determinado ímã cria no espaço em sua volta um campo magnético que podemos representar pelas linhas de indução magnética, essas linhas de indução atravessam de um polo a outro do ímã. É por esse motivo, inclusive, que mesmo que um ímã seja partido ao meio, separando os polos: norte e sul, ele sempre se reorganizará de maneira a formar dois polos. Em outras palavras, podemos afirmar que não existe monopolo magnético. Se pegarmos pequenas bússolas e colocarmos sobre as linhas de indução magnética, a agulha da bússola sempre apontará na mesma direção do vetor indução magnética B, e o norte da agulha no mesmo sentido de B, ou seja, B estará apontando para o polo sul do ímã. Assim, podemos dizer que em cada ponto em torno do ímã, o vetor B se afasta do polo norte e se aproxima do polo sul. Na região dos polos vemos que as linhas de indução magnética estão mais próximas umas das outras, sendo assim, consideramos que próximos aos polos o campo magnético é mais intenso.
É possível visualizar as linhas de indução magnética, espalhando limalhas de ferro em torno de um ímã. Os traços formados pela limalha representam as linhas de indução magnética.
Campo magnético da Terra

Nosso planeta se comporta como um gigantesco ímã. Sendo assim, ele cria à sua volta um campo magnético. Quando observamos uma bússola, vemos que o polo norte da agulha da bússola se orienta na direção do norte geográfico. Como polos de nomes diferentes se atraem, concluímos que o polo norte da agulha da bússola está sendo atraída pelo polo sul da Terra. Então o polo sul magnético coincide com o polo norte geográfico e o polo norte magnético coincide com o polo sul geográfico.
Os polos magnéticos da Terra têm uma pequena inclinação em relação ao seu eixo de rotação, essa inclinação é de aproximadamente 11°. Cientistas acreditam que essa propriedade magnética deve-se ao movimento circular de correntes elétricas no núcleo de ferro fundido do planeta. Pesquisas mostram que as posições dos polos magnéticos mudam com o passar dos anos, chegando a inverter sua polaridade, os polos norte e sul trocam sua posição.

interacao-polos

 

13.393 – Temperatura e Sensação Térmica


O conceito de temperatura é associado à sensação térmica de quente e frio, o que pode gerar estimativas equivocadas de temperatura. A sensação térmica é a percepção da temperatura pelo indivíduo,que é influenciada pela temperatura ambiente e também por outros fatores, como estado de saúde, umidade do ar e velocidade do vento. Varia de uma pessoa para outra e até a mesma pessoa pode ter sensações térmicas distintas em uma mesma situação.
Assim, a sensação térmica não é um indicador preciso para decidir a condição térmica de um sistema. O conceito de temperatura que é fundamental para isso.

13.392 – Física – O Dissipador de Energia Térmica


cooler
É um objeto de metal geralmente feito de cobre ou alumínio, que, pelo fenômeno da condução térmica, busca maximizar, via presença de uma maior área por onde um fluxo térmico possa ocorrer, a taxa de dissipação térmica – ou seja, de calor – entre qualquer superfície com a qual esteja em contato térmico e o ambiente externo. Dissipadores térmicos têm por objetivo garantir a integridade de equipamentos que podem se danificar caso a expressiva quantidade de energia térmica gerada durante seus funcionamentos não seja deles removida e dissipada em tempo hábil.
Um dissipador térmico é essencialmente usado nos casos em que a fonte de energia térmica implique por si só uma elevada radiância térmica, a exemplo em circuitos eletrônicos com elevado grau de integração ou em componentes de hardware de equipamentos que satisfazem o requisito, como as unidades centrais de processamento de computadores e video games, processadores gráficos, e outros. Em essência, o dissipador busca estabelecer uma maior condutividade térmica entre os sistemas integrados e o ambiente externo de forma que a taxa de dissipação de energia térmica requisitada ao componente não implique, entre o ambiente externo e o interno, uma diferença de temperaturas que possa comprometer a estrutura interna do componente.
Aos dissipadores dotados de uma ventoinha acoplada em suas estruturas dá-se o nome de cooler, sendo esses soluções ativas de refrigeração, enquanto que os dissipadores sem ventoinha são passivos nesse aspecto. Os dissipadores dotados de ventoinhas propiciam a dissipação de energia térmica de forma muito mais eficiente que os dissipadores passivos, que contam apenas com o fenômeno de convecção térmica para auxiliá-los na tarefa.

Passivos
Os dissipadores passivos não são dotadas de ventoinhas e por isso não tem a capacidade de resfriar superfícies que gerem grande quantidade de calor. Em equipamentos de hardware são usados em chips que geram pouco calor, como chipsets e controladoras. Os mesmos possuem vantagens como não gerar ruído e não consumir eletricidade

Ativos
Dissipadores ativos ou coolers tem uma capacidade de refrigeração muito melhor que o dissipador passivo, já que combinando uma maior área de dissipação e uma corrente de ar passando por essa área, é possível o calor a uma taxa maior. O fluxo intenso de ar junto às lâminas impõe temperaturas mais baixas em suas superfícies e por tal gradientes de temperatura e taxas de calor mais acentuadas do que as obtidas nos dissipadores passivos, que contam apenas com o fluxo de ar induzido pelo fenômeno de convecção térmica para tal propósito. Tem seu uso destinado a componentes que exigem grandes taxas de calor, como os processadores.
O aumento excessivo da temperatura de muitos equipamentos podem fazer os mesmos queimarem. Em processadores, por exemplo, um aumento excessivo de temperatura pode através dos diferentes índices de expansão dos metais, causar microrrupturas na superfície do chip e em seus circuitos, ou em casos extremos sua fusão. O acúmulo de energia térmica e a elevação associada na temperatura podem literalmente derreter os minúsculos circuitos do processador caso não exista um cooler instalado na maioria quase absoluta dos casos, salvo aqueles chips que desenvolvem reduzida potência elétrica, e que por isso não demandam uma solução de refrigeração muito eficiente, como chipsets, processadores de baixíssimo consumo, controladoras, etc.
Entre a superfície de onde origina o calor e o dissipador deve-se utilizar algum elemento que facilite a existência de calor, geralmente uma pasta conhecida como pasta térmica – dado que nenhuma das superfícies são perfeitamente planas. Em virtude da rugosidade microscópica das superfícies, sem a presença da pasta há um grande número de pequenos pontos onde o contato entre as duas superfícies não ocorre de forma eficiente, o que, em termos práticos, diminui a área efetiva de contato, e assim o calor, para o dissipador. A pasta térmica é utilizada com freqüência em componentes de hardware, assim como a fita térmica auto-colante. Estes recursos preenchem as microfraturas existentes do processo de fabricação, tanto do cooler quanto dos shim (capa protetora do die), evitando qualquer espaçamento entre a superfície do chip e a superfície do dissipador de calor.

13.387 – O Modelo Atômico de Niels Bohr


Bohr
Com a ideia do átomo consolidada, vários cientistas trabalhavam na tentativa de propor um modelo que explicasse de forma significativa as observações e resultados experimentais conhecidos. Um desses cientistas foi Rutherford que, em seu modelo, explicava o átomo como tendo quase toda sua massa em seu núcleo com carga positiva e que os elétrons com carga negativa giravam ao redor desse núcleo. Porém, pelas leis da física clássica, esse modelo não poderia existir, pois, de acordo com o eletromagnetismo clássico, os elétrons, como qualquer carga em movimento acelerado, ao girar ao redor do núcleo, emitem radiação e, ao emitir essa radiação, eles perdem energia. Assim, os elétrons perderiam toda sua energia e se chocariam com o núcleo.
Como era preciso a criação de um modelo para explicar a estrutura atômica, em 1913, Bohr propôs um modelo atômico. Seu modelo estava baseado em dois postulados:
1º. Os elétrons só podem girar ao redor do núcleo em órbitas circulares, essas órbitas são chamadas de órbitas estacionárias e enquanto eles estão nessas órbitas, não emitem energia.
2º. A energia absorvida ou emitida por um átomo é equivalente ao número inteiro de um quanta.

Cada quanta tem energia igual a h.f, em que f é a frequência da radiação e h é a constante de Planck. Portanto, a variação de energia produzida num átomo será igual à energia emitida ou recebida.
É importante ressaltar que as hipóteses de Niels Bohr tinham como objetivo explicar o comportamento do movimento do elétron ao redor do núcleo do átomo de hidrogênio e que não foi deduzida de teorias já conhecidas. Apesar de conseguir explicar o movimento do elétron no átomo de hidrogênio, o modelo proposto por Bohr não obteve o mesmo resultado quando aplicado a átomos de outros elementos, não sanando o problema da estrutura atômica. É aí que surge a mecânica quântica, para explicar de forma mais satisfatória a estrutura atômica.

13.386 – Física e Eletricidade – O Modelo Atômico de Thompson de 1897


Se a matéria é formada por átomos e também por cargas elétricas, é provável que estes também apresentem cargas elétricas. Novos experimentos com eletricidadem e transformações químicas, como a obtenção do metal alumínio a partir da bauxita, permitiu aos cientistas identificar e caracterizar as cargas elétricas.
O modelo até então aceito era o de Dalton, em que o átomo era considerado uma partícula maciça e indivisível, no entanto novos estudos exigiram alteração nesse modelo, acrescentando-se cargas elétricas.
Thomson propôs o modelo em que o átomo seria uma esfera positiva contendo corpúsculos de carga elétrica negativa.

thomson nobel

Joseph John Thompson ou JJ Thompson era um físico inglês que ganhou o prêmio Nobel de 1906 pela descoberta do elétron. Os estudos realizados por ele determinaram a relação entre carga elétrica, massa e partícula, como também o levaram a concluir que o átomo era formado por elétrons distribuídos em uma massa positiva, como as passas em um pudim.

13.385 – Por que a matéria se comporta como neutra do ponto de vista elétrico, se ela é formada por cargas positivas e negativas?


Quando um corpo está eletrizado, ele possui uma carga elétrica, já quando não se encontra eletrizado ele está neutro ou descarregado. Os cientistas constataram que dois quaisquer desses corpos, ao se aproximarem, apresentam dois comportamentos diferentes;

-os dois corpos se atraem;
-os dois corpos se repelem.

 

Os dois tipos de carga elétrica foram denominados:

-carga negativa;
-carga positiva.

Conclui-se que cargas elétricas de mesmo sinal se repelem, e as cargas de sinais opostos se atraem.

Simples assim:

cargas1

carga2