Megacurtíssima – Por que a nitroglicerina explode?


As moléculas que formam a nitroglicerina são muito instáveis, ou seja, quebram facilmente. Isso acontece porque os grupos de moléculas formadas pelo nitrogênio (um dos principais elementos que compõem a nitroglicerina) repelem-se uns aos outros, devido às suas cargas elétricas. “A repulsão provoca a quebra das moléculas, liberando grande quantidade de energia, que é a explosão”. O químico sueco Alfred Nobel (1833-1896), que instituiu o Prêmio Nobel, descobriu uma forma de controlar a explosão. Ele misturou nitroglicerina com a chamada terra diatomácea, que são restos de esqueletos e algas transformados em pó, criando a dinamite.

Física – Se o tempo não existe então por que envelhecemos?


A afirmação de que o tempo não existe é uma perspectiva filosófica ou científica que pode ser debatida. No entanto, em termos práticos, o tempo é uma medida que usamos para organizar e compreender a passagem dos eventos e mudanças em nossas vidas.

Envelhecimento e morte são processos naturais que ocorrem nos seres vivos. Eles estão relacionados a fatores biológicos, como o desgaste do corpo ao longo do tempo, a deterioração celular e a exposição a doenças e outros fatores ambientais.

Embora o conceito de tempo possa ser discutido em termos abstratos, a realidade é que experimentamos a passagem do tempo em nossas vidas diárias. O envelhecimento e a morte são parte integrante do ciclo da vida e estão relacionados a uma série de fatores biológicos, genéticos e ambientais.

Universo? Qual Deles?


Primeiro, descobrimos que a Terra não é o único planeta. Depois, que a Via Láctea não era a única galáxia, e agora?

Eratóstenes é famoso por ter calculado a circunferência da Terra por volta de 240 a.C. Pelas suas contas, ela seria de 252 mil estádios, a unidade de medida da época para grandes distâncias. Dá 39.689 km. Sabemos hoje que a circunferência norte-sul do planeta (a que ele mediu) é de 40.007 km.
Ou seja, Eratóstenes acertou – numa época em que mal se cogitava o fato de a Terra ser redonda.

Mas esse não foi o único feito do polímata grego. Ele também produziu o mapa-múndi mais acurado de seu tempo. Eratóstenes era o chefe da Biblioteca de Alexandria.
A partir de documentos do acervo, feitos por comerciantes e expedições militares, juntou tudo o que o Ocidente sabia sobre a geografia de lugares distantes e foi desenhando. Para completar, inseriu o mapa no contexto de sua teoria – a de que o planeta era bola com 40 mil km de circunferência.

Surgia ali o primeiro mapa-múndi dividido em paralelos e meridianos. E com cinco zonas climáticas: duas geladas, nos arredores dos polos, duas temperadas e uma faixa tropical no meio.
Detalhe: todo o conhecimento que a Biblioteca de Alexandria tinha acumulado sobre as terras distantes se limitava a uma parte ínfima do mundo real: Europa, norte da África, Oriente Médio e um teco da Ásia que só ia até a Índia.

A terra mais ao sul do mapa de Eratóstenes era o “chifre da África”, onde hoje fica a Somália.
Eratóstenes imaginou que a linha central do globo ficaria alguns milhares de quilômetros para baixo do chifre africano. E que dali em diante, quanto mais ao sul alguém fosse, mais frio ficaria. Com Galileu, no século 17, nosso endereço no cosmos ganhou um complemento. Não morávamos mais só na Terra. E sim no Sistema Solar também, como mera parte de algo maior. Bem mais tarde, em 1924, viria o conceito moderno de galáxia. Foi quando Edwin Hubble concluiu que a então “nebulosa de Andrômeda” também era um disco com bilhões de estrelas. Logo, a Via Láctea não estava sozinha. E nosso endereço cósmico ganhava mais uma linha.

A fronteira agora é o “Universo observável”, uma bola em expansão acelerada com centenas de bilhões de galáxias.
Para além disso, seguimos no escuro. Mas cientistas de hoje, tal como Eratóstenes, também têm suas teorias sobre o que pode haver além dessa fronteira. Talvez, exista de fato outro universo.

Física – Multiverso existe ou é só uma ideia maluca?


Quatro séculos antes de Tudo em Todo Lugar ao Mesmo Tempo ganhar o Oscar, uma duquesa de espartilho deu o pontapé inicial na proliferação de universos paralelos que tomou conta da cultura pop. Em 1666, a nobre britânica Margareth Cavendish publicou O Mundo Resplandecente, romance no qual uma jovem princesa é sequestrada e levada a outro mundo via um portal no Pólo Norte. Lá, as estrelas no céu são diferentes, os animais no chão também (alguns são sencientes e falam). Esse é considerado o primeiro mundo alternativo da literatura ocidental. 
Desde então, eles se tornaram um recurso literário tão comum quanto viagens no tempo. Em Deuses Humanos (1929), H.G. Wells conta a história de um jornalista frustrado que sai de férias e acaba visitando uma versão utópica da Terra, onde reina uma civilização avançada e igualitária. As Crônicas de Nárnia (1954) começa com duas crianças perdidas num bosque entre mundos – uma espécie de antessala do multiverso, com ares de Éden, em que o chão é pontuado por lagoas, e cada lagoa dá acesso a um outro cosmos. O Homem do Castelo Alto (1962), de Philip K. Dick, se passa em uma rede de multiversos nas quais todas as possibilidades se realizam (inclusive a vitória da 2ª Guerra pelo Eixo, que é a premissa do livroMas o interessante é que universos paralelos têm uma vida secreta fora da ficção: são um efeito colateral comum das equações que explicam o cosmos.
A mera possibilidade de que o Universo seja infinito (alta, de acordo com as observações mais recentes) implica a existência de planetas Terra alternativos.
Uma versão modificada da teoria do Big Bang que é muito popular hoje – a hipótese inflacionária – abre espaço para o surgimento de infinitos nacos alternativos de espaço-tempo. A mecânica quântica tem uma lacuna explicativa que pode ser preenchida satisfatoriamente quando se supõe que a realidade está sempre se ramificando em novas linhas do tempo.
A parcela mais cética dos especialistas sequer considera que o debate sobre mundos múltiplos pertença à alçada da ciência.
Para eles, trata-se de uma noção filosófica, e só. É que, na acepção mais típica do método científico, só é legítimo levantar uma questão se ela puder ser verificada por experimentos de laboratório ou observações. E não há, no momento, nenhum procedimento capaz de coletar evidências a favor de qualquer uma das ideias acima. Não só por limitação tecnológica, mas, muitas vezes, por causa de barreiras intransponíveis impostas pelas leis da física (como a impossibilidade de superar a velocidade da luz).
O multiverso repetitivo
Existe um cenário em que o tecido do espaço-tempo é um berço pululante de cópias exatas e inexatas da Terra, do Sistema Solar, da Via Láctea e de todo o resto que nos circunda. Em algumas delas, nossas vidas são idênticas. Em outras, Marte é um planeta habitável, Steve Jobs nasceu em Curitiba, e você detém o recorde mundial de 100 metros rasos. Cada configuração possível dos átomos que compõem o mundo material ocorre em algum lugar do Universo.
Sabe-se que o Universo surgiu há 13,8 bilhões de anos. E o mero fato de que o cosmos tem uma idade finita impõe um limite para o quão longe podemos ver. Qualquer coisa localizada a uma distância maior do que a luz pôde percorrer desde a origem do Universo – que equivale, naturalmente, a 13,8 bilhões de anos-luz* – está fora do nosso alcance visual.
Se os marcianos existissem, eles teriam seu próprio horizonte, deslocado alguns milhões de km para o lado em relação ao nosso.
Tal previsibilidade permite calcular a densidade média do cosmos, que é de aproximadamente cinco átomos de hidrogênio por metro cúbico. Na Terra tem mais, no vácuo tem menos, mas em média, é isso. Nem todo átomo é de hidrogênio, claro, mas 92% deles são, então essa é uma aproximação válida. E com esse dado em mãos, dá para inferir que existem cerca de 1082 átomos, um número com 82 zeros, em cada horizonte de eventos.
10 elevado a 82
É o número de átomos que existem no Universo observável.
Um retalho em que você é exatamente você, sem quaisquer alterações. E existem, por tabela, muitos outros retalhos onde há um ou alguns átomos de diferença, e essas diferenças geram alterações sutis na realidade.
O problema é que os intervalos não são tão regulares assim. Não na escala humana, nem em qualquer escala que faça sentido para humanos.
Em 1929, o astrônomo Edwin Hubble descobriu que as galáxias estão se afastando umas das outras, o que confirmou que o Universo está em expansão. E se o Universo cresce em direção ao futuro, dá para fazer engenharia reversa e inferir que ele partiu de um estado menor, mais denso e mais quente no passado. A teoria do Big Bang.
A solução das equações da Relatividade que está por trás da teoria permite rebobinar a fita do cosmos até um ponto primordial, há 13,8 bilhões de anos, em que toda a massa e energia que hoje compõem a realidade estariam concentradas em um “ponto” de dimensões nulas, desprovido de volume. Ali, a densidade e a temperatura, em tese, se tornam infinitas. O nome dessa anomalia é singularidade.

Supercondutividade – O Sul Coreano LK-99 parece ser alarme falso


Recentemente, físicos coreanos afirmaram ter encontrado um supercondutor batizado de LK-99. Prêmio Nobel é pouco para uma alegação dessas, o último grande marco na Física foi em 1948, com a invenção dos transístores. O supercondutor tornaria possível os computadores quânticos, que operam em temperatura ambiente. Hoje, exigem refrigeração, máquinas de ressonância magnética mais baratas e também contas de luz.
Também tornaria mais barato o Trem Bala, que flutua sobre os trilhos. Sem atrito, dá para alcançar velocidades acima de 500 km/h. Hoje há apenas 6 linhas dessas no mundo, a mais longa com 30 km, porque o sistema de refrigeração é caríssimo. Trens rápidos poderiam substituir a aviação civil em trajetos curtos. O problema é que é bem provável que o LK-99 seja mais um alarme falso. De 1990 pra cá, também outros candidatos a Santo Graal da Engenharia, decepcionaram os físicos. O descoberto em 1911 por um holandês, só funcionava a -270°C, quase zero absoluto, exigindo resfriamento com hélio líquido. Em 1986, pesquisadores da IBM descobriram supercondutores que funcionavam por volta dos -200°C, um aumento de 80°C em relação ao zero absoluto, sendo possível usar nitrogênio líquido no lugar do hélio. A descoberta da dupla foi um exemplo perfeito de replicação, pois eram simples o suficiente para serem fabricadas em um labortatório de ensino médio e um litro de nitrogênio líquido custa o preço de um litro de leite. No caso do LK-99, ninguém replicou o efeito. Tais resultados negativos tem corroborado o ceticismo generalizado entre os físicos, já acostumados com alegações de supercondutividade que morrem na praia. No vídeo divulgado pelos coreanos, o LK-99 levita apenas parcialmente sobre um imã, o que pode ser sinal de impureza ou o material nem ser supercondutor.

Física – O Tempo Existe?


A resposta a esta pergunta pode parecer óbvia: claro que sim! Basta olhar para um calendário ou um relógio. Mas os desenvolvimentos na física sugerem que a inexistência do tempo é uma possibilidade aberta e que devemos levá-la a sério. De acordo com a relatividade geral, o espaço e o tempo são uma única estrutura inseparável, mas alguns físicos estão desconfiados de que isso pode não ser totalmente correto. Um dos maiores (senão o maior) problemas da ciência atual é a aparente incompatibilidade da relatividade geral com a mecânica quântica. Isso leva alguns físicos a questionar se Albert Einstein estava realmente certo em absolutamente tudo o que postulou nas suas famosas teorias. É que, ao contrário das outras três forças da natureza (força forte, força fraca e força eletromagnética), a gravidade não faz sentido no mundo das partículas. Em outras palavras, não existe uma explicação para a gravidade na mecânica quântica, e isso deixa os cientistas muito confusos. Se todo o universo pode ser explicado através das partículas fundamentais (bósons, quarks e fótons, por exemplo), por que a gravidade seria uma exceção? Algumas hipóteses tentam preencher essa lacuna, muitas delas por meio de uma nova teoria da gravidade quântica. Entre estas, os físicos buscam uma partícula fundamental da qual a gravidade surge, do mesmo modo que a luz surge dos fótons. Uma das partículas hipotéticas candidatas é o gráviton. Se ele existir, deve ser um bóson com massa de repouso igual a zero e que sempre atrai a matéria — nunca afastando. Mas ainda não foram encontradas evidências de partículas com as propriedades previstas para o gráviton. Ainda assim, ele pode existir. Ou, talvez, a gravidade seja feita de outra coisa, como sugere a Teoria das Cordas, a ideia do espaço-tempo modular ou do espaço-tempo feito de “pixels”. Todos eles estão igualmente sem nenhuma evidência para comprová-las — aliás, ainda nem sequer existe tecnologia para testar essas hipóteses. Outra hipótese é a Gravidade Quântica de Loop (LQG), que sugere um espaço-tempo feito de uma série de loops entrelaçados em escalas mínimas de tamanho. Eles seriam tão pequenos que apenas perceberíamos na escala de Planck, ou seja, algo como um trilionésimo de um trilionésimo de um trilionésimo de um metro. Ainda há outros problemas com os quais os físicos teóricos se preocupam. Um deles é que, se existir alguma partícula fundamental da gravidade, nossa compreensão de espaço-tempo pode ser colocada em xeque. Isso porque a gravidade, o espaço e o tempo estão intrinsecamente relacionados. Na relatividade geral de Albert Einstein, a gravidade deixa de ser uma força de atração entre dois corpos (conforme era descrita por Isaac Newton) e passa a ser uma deformação no espaço-tempo, causada pela matéria de acordo com sua massa. Mas e o tempo? Se porventura os físicos conseguirem comprovar uma nova teoria gravitacional que não inclui o espaço-tempo, será que o tempo sequer existe? Talvez, e isso pode nos trazer alguns problemas filosóficos, já que a nossa sociedade depende muito do conceito de passagem do tempo. Na verdade, toda a existência humana parece depender disso. Precisamos acordar em determinados horários, para cumprir determinada função em uma determinada janela de “tempo”, que chamamos de “jornada de trabalho”. Julgamos nosso passado e planejamos nosso futuro baseados no tempo. Entretanto, se o tempo não existe, o universo pode não fazer sentido o suficiente para mantermos esse status enquanto sociedade. Será que isso nos levaria a uma nova forma de encarar a vida e nosso propósito enquanto espécie? Pior ainda, julgamos culpados de ações “ruins” baseados no passado e planejamos nossas vidas baseados no futuro. Se o tempo não existe, será que estamos apenas nos iludindo com uma suposta agência ou arbítrio? Será que somos apenas uma aleatoriedade no universo, fluindo no cosmos como as ondas de um mar indiferente à passagem das horas de um relógio? Talvez, ao contrário do que sugere a relatividade geral, a característica básica do nosso universo não seja o tempo (e espaço), mas sim a causalidade. A história do cosmos poderia ser sobre causa e efeito, reações em cadeia, partículas decaindo e formando átomos desde o início do tempo… quer dizer, do espaço. Por outro lado, essa percepção pode nos levar à conclusão de que nossas existências estavam pré-determinadas desde o Big Bang. Como disse certa vez Stephen Hawking, se tudo o que existe é um efeito em cascata de causas e consequências, então o plasma de quark-glúon dos primeiros instantes do universo já estava destinado a dar origem à matéria; às estrelas; aos planetas; às formas de vida. O debate parece longe de acabar e, embora pareça meramente filosófico, envolve a física moderna e está entrelaçado com as próximas descobertas em aceleradores de partículas — como o LHC do CERN, reativado após três anos de hiato. As implicações filosóficas sobre a possível inexistência do tempo físico foram discutidas no livro Out of Time, de Samuel Baron, Kristie Miller, e Jonathan Tallant, lançado em 14 de abril deste ano (ainda sem tradução em português).

Astrofísica – Buracos de minhoca podem ser máquinas do tempo

Série foi baseada no buraco de minhoca

Buraco de minhoca é um modelo da astrofísica que poderia conectar duas partes distantes do Universo. Apesar de já ter sido retratado diversas vezes na ficção, esse fenômeno ainda segue no campo teórico, sem que sua existência tenha sido comprovada. Agora, um grupo de cientistas indica ter encontrado uma maneira de usar esse conceito para viajar no tempo.
A ideia de que buracos de minhoca podem permitir viagens distantes no Universo de forma instantânea não é nova e está na teoria da Relatividade Geral, de Albert Einstein. Essa mesma teoria diz que viajar mais rápido que a Luz seria o equivalente a viajar no tempo.
Ou seja, buracos de minhoca são associados a viagem no tempo pois permitiriam deslocamentos instantâneos pelo universo, que seriam equivalentes a uma viagem temporal.
Os cientistas focaram em um tipo específico de buraco que tem formato de anel. Ao contrário dos buracos propostos mais comuns, esse não tem matéria dentro, fazendo com que a passagem dentro dele seja mais simples.
A pesquisa diz que esse buraco de minhoca produziria “curvas temporais fechadas” no espaço-tempo, o que significa que os objetos que viajam na curva terminariam no mesmo momento em que começaram. “Esse processo inevitavelmente transforma um buraco de minhoca de anel atravessável em uma máquina do tempo”.

Física – Viagem ao Passado ou a o Universo Paralelo?


A viagem no tempo é um tema amplamente discutido na física teórica — afinal, a própria Teoria da Relatividade Geral permite fórmulas que sugerem a possibilidade de ir para o futuro ou voltar ao passado. Mas será que isso é realmente possível? O que a ciência sabe atualmente?
Há muitos teóricos que desafiam os aparentes limites da física e tentam encontrar meios de “trapacear” as regras do relógio. Mas parece que o mais provável é conseguirmos apenas ir ao futuro, nunca ao passado.

Viagens ao passado são proibidas?
De acordo com Sean Matt, especialista em astronomia e astrofísica da Universidade de Exeter, no Reino Unido, “a seta do tempo no nível macroscópico é considerada assimétrica, ou seja, ela só vai em uma direção, do passado para o futuro e não pode ser revertida”. Portanto, seria impossível voltar no tempo para ver algum evento ou salvar a vida de alguém.
Mas essa convicção não é unânime. Alguns cientistas, como o astrofísico Ron Mallett, dedicam muito tempo de suas vidas para demonstrar que a viagem ao passado é possível. O problema é que, na Relatividade Geral, isso só pode ser feito se tivéssemos grandes quantidades de algo chamado “matéria exótica” — e não temos.
Outras teorias apontam para possibilidades mais animadoras, principalmente na mecânica quântica. Contudo, ainda não sabemos muito (ou melhor, nada!) sobre a gravidade quântica, e isso parece um grande problema para compreendermos do que o espaço-tempo é realmente feito, ou se o tempo sequer existe.
Se algumas dessas teorias de viagem no tempo estiver correta, iremos nos deparar com um problema ainda maior: os paradoxos. Não aqueles apresentados em alguns filmes de ficção científica, como “você não pode encontrar seu ‘eu’ do passado ou algo terrível acontecerá”, mas paradoxos que realmente tornam a viagem no tempo impossível.

Mundos paralelos
Apesar de tudo isso, ainda há uma saída, e os físicos Barak Shoshany, Jacob Hauser e Jared Wogan estão trabalhando nisso. O estudo deles mostra que até mesmo os paradoxos mais difíceis de resolver desapareceriam se nosso universo permitir a existência de algo conhecido como “muitos mundos”.
Formulada na década de 1950, a hipótese dos muitos mundos afirma que universos paralelos se ramificam uns dos outros constantemente, momento a momento, a cada decisão que tomamos. Apresentada por Hugh Everett, essa ideia é uma interpretação da mecânica quântica e muitas versões diferentes surgiram depois.
Isso nos leva ao gato de Schrödinger, um problema que trata das inúmeras possibilidades e do fato de que só podemos descobrir qual delas se concretizou por meio de observação. Ao abrir a caixa, saberemos se o gato sobreviveu. Mas, até lá, as incontáveis possibilidades estão em suspensão. Não sabemos, portanto, tudo pode ser real ao mesmo tempo. Para a mecânica quântica, isso é algo trivial, mas não parece fazer muito sentido no universo macro. Por outro lado, a interpretação de Everett nos abre as portas para vários mundos, cada qual com um gato dentro de sua caixa. Em cada um dos mundos, aconteceu algo diferente com o animal.
Cada um desses mundos foram gerados, como um mapa procedural gerado por um algoritmo matemático. A diferença é que uma realidade paralela se formará até que as possibilidades se esgotem. Isso implica que, na verdade, nenhuma delas foi eliminada, como a mecânica quântica originalmente diria.
Aceitar as observações da mecânica quântica — como um elétron em uma nuvem de possibilidades, por exemplo — é muito diferente de concluir que os muitos mundos existam de fato. Será que há outras versões de nós mesmos, tomando decisões diferentes? Se isso for verdade, haverá muito mais perguntas do que respostas.

Tecnologia-A Era do Chip


O Chip é um circuito eletrônico miniaturizado (composto principalmente por dispositivos semicondutores) sobre um substrato fino de material semicondutor.
equipamentos eletrônicos usados hoje e revolucionaram o mundo da eletrônica.
Um circuito integrado híbrido é um circuito eletrônico miniaturizado constituído de dispositivos semicondutores individuais, bem como componentes passivos, ligados a um substrato ou placa de circuito.
Os circuitos integrados foram possíveis por descobertas experimentais que mostraram que os dispositivos semicondutores poderiam desempenhar as funções de tubos de vácuo, e desde meados do século XX, pelos avanços da tecnologia na fabricação de dispositivos semicondutores.
A integração de um grande número de pequenos transístores em um chip pequeno foi uma enorme melhoria sobre o manual de montagem de circuitos com componentes eletrônicos discretos. A capacidade do circuito integrado de produção em massa, a confiabilidade e a construção de bloco de abordagem para projeto de circuito assegurou a rápida adaptação de circuitos integrados padronizados no lugar de desenhos utilizando transístores pequenos.
Há duas principais vantagens de circuitos integrados sobre circuitos discretos: custo e desempenho. O custo é baixo porque os chips, com todos os seus componentes, são impressos como uma unidade por fotolitografia: um puro cristal de silício, chamada de substrato, que são colocados em uma câmara. Uma fina camada de dióxido de silício é depositada sobre o substrato, seguida por outra camada química, chamada de fotorresiste. Além disso, muito menos material é usado para construir um circuito como um circuitos integrados do que como um circuito discreto. O desempenho é alto, visto que os componentes alternam rapidamente e consomem pouca energia (em comparação com os seus homólogos discretos) porque os componentes são pequenos e estão próximos. A partir de 2006, as áreas de chips variam de poucos milímetros quadrados para cerca de 350 mm², com até 1 milhão de transístores por mm². Chips feitos de nanotubos de carbono, em vez de silício, podem dar origem a uma nova geração de dispositivos eletrônicos mais rápidos e com maior eficiência energética.
A ideia de um circuito integrado foi levantada por Geoffrey Dummer (1909-2002), um cientista que trabalhava para o Royal Radar Establishment (do Ministério da Defesa britânico). Dummer publicou a ideia em 7 de maio de 1952 no Symposium on Progress in Quality Electronic Components em Washington, D.C.. Ele deu muitas palestras públicas para propagar suas ideias.
O circuito integrado pode ser considerado como sendo inventado por Jack Kilby de Texas Instruments e Robert Noyce, da Fairchild Semiconductor, trabalhando independentemente um do outro. Kilby registrou suas ideias iniciais sobre o circuito integrado em julho de 1958 e demonstrou com sucesso o primeiro circuito integrado em função em 12 de setembro de 1958 Em seu pedido de patente de 6 de fevereiro de 1959, Kilby descreveu o seu novo dispositivo como “a body of semiconductor material … wherein all the components of the electronic circuit are completely integrated.”
Kilby ganhou em 2000 o Prêmio Nobel de Física por sua parte na invenção do circuito integrado.
O chip de Noyce tinha resolvido muitos problemas práticos que o microchip, desenvolvido por Kilby, não tinha. O chip de Noyce, feito em Fairchild, era feito de silício, enquanto o chip de Kilby era feito de germânio.
Marcante evolução do circuito integrado remontam a 1949, quando o engenheiro alemão Werner Jacobi (Siemens AG) entregou uma patente que mostrou o arranjo de cinco transístores em um semicondutor.
Com os componentes de larga escala de integração, (do inglês: Large Scale Integration, LSI), nos anos oitenta, e a integração em muito larga escala, (Very-large-scale integration, VLSI), nos anos noventa, vieram os microprocessadores de alta velocidade de tecnologia MOS, que nada mais são que muitos circuitos integrados numa só mesa epitaxial.
Atualmente a eletrônica está entrando na era da nanotecnologia. Os componentes eletrônicos se comportam de maneiras diferentes do que na eletrônica convencional e microeletrônica, nestes a passagem de corrente elétrica praticamente não altera o seu estado de funcionamento. Nos nanocomponentes, a alteração de seu estado em função da passagem de corrente deve ser controlada, pois existe uma sensibilidade maior às variações de temperatura, e principalmente à variações dimensionais. Estas causam alterações nas medidas físicas do componente de tal forma, que podem vir a danificá-la. Por isso a nanotecnologia é tão sensível sob o ponto de vista de estabilidade de temperatura e pressão.
Nanochipe
Uma tecnologia Nanochipe é um circuito integrado eletrônico tão pequeno que pode ser medido com precisão apenas na escala nanométrica. É um dispositivo semicondutor que aumenta a gama de chips de armazenamento removíveis. Nanochipes também são usados em produtos eletrônicos de consumo, como câmeras digitais, telefones celulares, PDAs, computadores e laptops, entre outros. Nanochipe é um pequeno sistema eletrônico que possui alto poder de processamento e também pode caber em um volume físico assumido com menos necessidade de energia. A tecnologia de nanochipe é benéfica, pois seus chips de armazenamento não dependem dos limites da litografia.
No circuito integrado completo ficam presentes os transístores, condutores de interligação, componentes de polarização, e as camadas e regiões isolantes ou condutoras obedecendo ao seu projeto de arquitetura.

No processo de formação do chip, é fundamental que todos os componentes sejam implantados nas regiões apropriadas da pastilha. É necessário que a isolação seja perfeita, quando for o caso. Isto é obtido por um processo chamado difusão, que se dá entre os componentes formados e as camadas com o material dopado com fósforo, e separadas por um material dopado com boro, e assim por diante.
Após sucessivas interconexões, por boro e fósforo, os componentes formados ainda são interconectados externamente por uma camada extremamente fina de alumínio, depositada sobre a superfície e isolada por uma camada de dióxido de silício.
Rotulagem
Dependendo do tamanho os circuitos integrados apresentam informações de identificação incluindo 4 seções comuns: o nome ou logotipo do fabricante, seu número, número do lote e/ou número serial e um código de 4 dígitos identificando a data da fabricação. A data de fabricação é comumente representada por 2 dígitos do ano, seguido por dois dígitos informando a semana. Exemplo do código 8341: O circuito integrado foi fabricado na semana 41 do ano de 1983, ou aproximadamente em outubro de 83.
Desde que os circuitos integrados foram criados, alguns designers de chips tem usado a superfície de silício para códigos, imagens e palavras não funcionais. Eles são algumas vezes referenciados como chip art, silicon art, silicon graffiti ou silicon doodling.
As técnicas aperfeiçoadas pela indústria de circuitos integrados nas últimas três décadas têm sido usadas para criar máquinas microscópicas, conhecidos como sistemas microeletromecânicos (do inglês: microelectromechanical systems, MEMS, ver também: microtecnologia). Esses dispositivos são usados em uma variedade de aplicações comerciais e militares. Exemplo de aplicações comerciais incluem a tecnologia processamento digital de luz em videoprojetores, impressoras de jato de tinta e acelerômetros usados em airbags de automóveis.

Desde 1998, um grande número de chips de rádios tem sido criado usando CMOS possibilitando avanços tecnológicos como o telefone portátil DECT da Intel ou o chipset 802.11 da empresa Atheros.
As futuras criações tendem a seguir o paradigma dos processadores multinúcleo, já utilizados pelos processadores dual-core da Intel e AMD. A Intel recentemente apresentou um protótipo não comercial, que tem 80 microprocessadores. Cada núcleo é capaz de executar uma tarefa independentemente dos outros. Isso foi em resposta do limite calor vs velocidade no uso de transístores existentes. Esse design traz um novo desafio a programação de chips. X10 é uma nova linguagem open-source criada para ajudar nesta tarefa.

Era do Chip-Pioneirismo na América Latina


FONTE: USP
Em 1971, a Escola Politécnica da USP desenvolveu o primeiro chip da América Latina. A criação pioneira do circuito integrado marca a trajetória do Laboratório de Microeletrônica (LME), fundado em 1968. Posteriormente, com a incorporação do Laboratório de Sistemas Integráveis (LSI), a tecnologia foi aperfeiçoada para incorporar processadores, máquinas de calcular, supercomputadores e realidade virtual.
A história da microeletrônica brasileira é contada por João Antonio Zuffo, professor sênior do Departamento de Engenharia Elétrica da Escola Politécnica da USP e criador do primeiro circuito integrado brasileiro.
Após conquistar o título de doutor pela Poli-USP, Zuffo, juntamente com um grupo de docentes, organizou a fundação do LME em 1968, com investimentos públicos e privados, possibilitando a execução de pesquisas. Na época, Zuffo lecionava cursos na área de circuitos elétricos integrados e logo em 1971 finalizou o considerado primeiro chip do Brasil: “Era um circuito de acoplamento de emissor. Continha seis transistores, três entradas e duas saídas. Fiz a demonstração de operação desses transistores, inclusive, para uma visita que teve do presidente na época. E assim se desenvolveu o Laboratório de Microeletrônica”.
Em 1979, O LME passou a desenvolver circuitos integrados em múltiplas camadas, usando material refratário com componentes, como molibdênio e tungstênio. Assim, os chips se tornaram mais sofisticados. Posteriormente, na década de 1990, a partir de financiamento da Financiadora de Estudos e Projetos (Finep), os pesquisadores investiram na criação de supercomputadores com componentes paralelos, utilizando hipersistemas integrados. Junto a isso, desenvolveram também a realidade virtual.
Futuro da tecnologia
O especialista acredita que há enormes possibilidades na área de tecnologia de comunicação. Os celulares, por exemplo, devem avançar cada vez mais: “Realmente já estão trabalhando na sexta geração de telefonia celular. Isso envolve frequências de 3 a 10 Terahertz. Hoje não se trabalha nessa frequência, mas seria na ordem de cem vezes mais rápido que a quinta geração. Também é possível trabalhar com luz infravermelha na sexta geração”.

A inteligência artificial tende a ser aperfeiçoada: “Vejo muito desenvolvimento na área de inteligência artificial. Isso interligado com a internet de todas as coisas. Vejo possibilidades de desenvolvimento de novas arquiteturas de computação para integrar neurônios e sinapses localmente com memória, fazendo uma espécie de neurocomputação local”, compartilha, e finaliza: “O Brasil tem muitas oportunidades, porque existem áreas que são de baixo custo. Não são precisos laboratórios muito sofisticados, mas cabe inclusive uma grande pressurização da parte eletrônica com a biológica”.

Tecnologia-História do Chip


Chips são componentes eletrônicos que nasceram pela pressão do progresso da nossa sociedade por soluções que oferecessem mais desempenho e eficiência no processamento de dados. Em resumo, você pode resumir um microchip em um minúsculo coletivo de transistores e outros componentes, cuja utilidade é transformar energia elétrica em dados binários, ou informações.
As válvulas eram bem mais rápidas que os relês, até 1 milhão de vezes, mas terrivelmente suscetíveis a quebras. Consistiam em uma câmera de vácuo por onde os elétrons fluíam num filamento, que era o cerne das quebras. Com o tempo, o aquecimento fazia com que ele perdesse a efetividade – assim como as lâmpadas de tungstênio, que com o tempo acabam queimando. Era o fluxo de elétrons na válvula, que podia ser cessado ou intensificado nela, que fechava ou abria o circuito, determinando as posições “ligado e desligado” do sistema binário, presente até hoje na tecnologia.
Quanto maior e mais poderoso o computador, mais válvulas ele tinha. Digamos que um computador da época ocupa-se cinco andares. Todos eles com milhares de válvulas operando. Neste cenário, é uma aposta mais ou menos segura dizer que há grande possibilidade de que, em algum lugar do complexo, ao menos uma válvula quebre por um espaço de minutos. Imaginem o trabalho de percorrer todas as unidades reparando as válvulas queimadas. Tudo isso para processar tarefas que calculadoras embutidas no seu smartphone hoje realizam com muito mais elegância.
Semicondutor
Na escola você deve ter aprendido que metais são excelentes condutores de energia e calor. E que os não-metais são excelentes isolantes de calor e energia. Isso é verdade, mas há exceções: alguns materiais têm um comportamento intermediário, em alguns momentos conduzem energia, e em outros isolam. São os chamados semicondutores, dos quais o silício é, hoje, por larga margem, o mais conhecido e difundido.
Quanto maior e mais poderoso o computador, mais válvulas ele tinha. Digamos que um computador da época ocupa-se cinco andares. Todos eles com milhares de válvulas operando. Neste cenário, é uma aposta mais ou menos segura dizer que há grande possibilidade de que, em algum lugar do complexo, ao menos uma válvula quebre por um espaço de minutos. Imaginem o trabalho de percorrer todas as unidades reparando as válvulas queimadas. Tudo isso para processar tarefas que calculadoras embutidas no seu smartphone hoje realizam com muito mais elegância.
Origem
Antes do aparecimento do transistor, um computador ocupada andares, pesava toneladas e ninguém se arriscava a confiar na sua vida útil, porque independente do recurso técnico utilizado, ela era medida em espaços de tempo muito curtos. Para continuar operando, por exemplo, um computador precisava trocar de válvulas a todo momento. Elas simplesmente queimavam.
Computadores podiam usar relês ou válvulas, ou as duas coisas. Relê consistia em um elemento magnético, cuja movimentação determinava um valor binário: ou 0 ou 1, ou ligado e desligado. O movimento de algo muito parecido com um êmbolo a partir de um pulso elétrico selava ou abria o circuito. Embora mais confiáveis que as válvulas a vácuo, os relês eram clamorosamente mais lentos. Sim, se você se surpreendeu com o fato de que um computador processava informações com partes mecânicas, você entendeu bem a ideia por trás do relê.
O fato do silício poder conduzir ou isolar energia faz com que ele possa ser usado como uma chave, assim como o relê ou a válvula, entre posições binárias. Com a grande vantagem de que permite que os fluxos de elétrons da energia precisem percorrer distâncias bem pequenas no silício, sem a necessidade de filamentos frágeis e partes mecânicas.

Transistor

Um microchip, como um processador, pode ser entendido como um amontoado de transistores trabalhando simultaneamente para alcançar maior desempenho em cálculos – ou ligar e fechar circuitos binários – por segundo. Por exemplo, um processador da arquitetura Bulldozer da AMD pode ter impresso no seu die (entenda esse termo como lâmina ou waffle) de silício até 1,4 bilhão de transistores.

O transistor substitui as válvulas e relês com vantagens evidentes: é minúsculo, consome quantidades dramaticamente inferiores de energia, sua durabilidade atravessa anos – se não mesmo décadas a fio – e os custos de produção de um transistor comum são relativamente baixos.
Se você entendeu para que serviam relês e válvulas, fica fácil entender para que servem transistores. Eles bloqueiam eletricidade, ou a amplificam, dependendo da necessidade. Foi criado por técnicos e cientistas da Bell Telephone Laboratories em 1947. O time foi composto por John Bardeen, Walter Houser Brattain e William Bradford Shockley, que por conta do feito, conquistaram o Nobel de Física.

O que são microchips

Se o transistor foi fruto da necessidade de abandonar os lentos relês e as para lá de problemáticas válvulas, o microchip foi a evolução que nasceu da necessidade de melhorar o desempenho dos transistores. O ano era 1959. Ou 1958, se você considerar Kilby o pai do circuito integrado.

Um microchip resume-se num circuito eletrônico integrado miniaturizado e produzido na superfície de um material semicondutor, como o silício (outros podem ser usados, como germânio e molibdenita).

Mas o que levou a necessidade de condensar transistores e outros elementos no silício de modo a nascer um chip? A resposta é a mesma que explica o por quê da Intel criar uma arquitetura de processadores tridimensionais, ou da ARM passar a criar processadores multicore: a crescente necessidade de desempenho.

O circuito integrado que entendemos como microchip é mais resistente porque seus diversos componentes são formados, impressos, no silício, e não montados, como antigamente. Nesse sentido, possuem uma resistência a choques mecânicos e elétricos consideravelmente maior e sua taxa de defeito de fabricação cai a níveis desconsideráveis, quando leva-se em conta a produção de massa.

Além destas questões, há o óbvio: caso o microchip não existisse, o celular seria possível com uma coleção de transistores, por exemplo. Mas talvez você precisasse de um automóvel para carregá-lo consigo. As principais forças motrizes que empurram a indústria de semicondutores são sempre a miniaturização e a melhora de desempenho, considerando também a redução de custos de produção.
Há muita divergência sobre os inventores do microchip. Diversas pessoas escreveram sobre o assunto, documentaram suas ideias e mesmo registraram patentes de transistores integrados. Mas dois sujeitos tiveram um papel mais destacado no processo e são considerados os dois grandes responsáveis: Jack S. Kilby, da Texas Instruments – que até hoje fabrica microchips – e Robert N. Noyce, recentemente homenageado por um Doodle. Ele trabalhava na Fairchild Semiconductor, de cujas entranhas nasceu a Intel.
Tanto Kilby como Noyce se viam às voltas com a necessidade de condensar os componentes de um circuito em um único die de silício. A solução de Kilby era construir tudo sobre uma base de germânio, e não silício, e interconectar os elementos com pequeninos fios (como você viu na foto que abre este texto). Noyce, cuja técnica evoluiu ao que temos hoje, criou filamentos de ouro e alumínio entre os componentes. Isso permite pastilhas de silício com níveis altíssimos de pureza, mais velocidade e eficiência.

Atualmente, para que servem os microchips

O microchip cresceu em desempenho, utilizações, versões, tipos de componentes e processos de manufatura, mas sempre procurou encolher em tamanho e custo. É a chamada Lei de Moore: “o número de transistores de um chip terá um aumento de 100% a cada 18 meses pelo mesmo custo”.
A Lei ainda se aplica, mas há limites teóricos: estima-se que o silício torna-se impossível enquanto substrato dos microchips depois dos 14 nanômetros (1 nanômetro é 1 milionésimo de milímetro). É um limite teórico que instiga os novos Noyce a criar novas soluções que abandonem os waffles de silício. Ou que evolua a tecnologia a ponto de que o silício seja viável em nível inferior a 14 nm.

O universo de Einstein


Ao final do século XX, os cientistas podiam refletir com satisfação que haviam desvendado a maioria dos mistérios do mundo físico: eletricidade, magnetismo, gases, óptica, acústica, cinética e mecânica estatística, para citar alguns campos, foram submetidos à ordem. Eles haviam descoberto o raio X, o raio catódico, o elétron e a radioatividade, e inventado o ohm, o watt, o kelvin, o joule, o ampère e o pequeno erg.
Se uma coisa podia ser oscilada, acelerada, perturbada, destilada, combinada, pesada ou gaseificada, eles o fizeram, e no processo produziram um corpo de leis universais tão importantes e majestosas que ainda tendemos a escrevê-las com maiúsculas: a Teoria do Campo Eletromagnético da Luz, a Lei das Proporções Recíprocas de Richter, a Lei dos Gases de Charles, a Lei dos Volumes de Combinação, a Lei de Zeroth, o Conceito de Valência, a Lei das Ações das Massas e um sem número.
O mundo inteiro clangorava e silvava com o maquinário e os instrumentos produzidos pela engenhosidade deles. Muitas pessoas cultas acreditavam que não restava muito para a ciência fazer.
Em 1875, quando um jovem alemão de Kiel chamado Max Planck estava decidindo se dedicaria a vida à matemática ou à física, foi fortemente aconselhado a não escolher a física, porque os grandes avanços já haviam sido realizados. Garantiram-lhe que o século vindouro seria de consolidação e refinamento, não de revolução. Planck não deu ouvidos. Estudou físicas teórica e atirou-se de corpo e alma ao trabalho em entropia, um processo fundamental da termodinâmica, que parecia bem promissor para um jovem ambicioso.
Em 1875-8, Gibbs produziu uma série de artigos, coletivamente intitulados “On the equilibrium of heterogeneous substances” [Sobre o equilíbrio substâncias heterogêneas], que surpreendentemente elucidava os princípios termodinâmicos de quase tudo: gases, misturas, superfícies, sólidos,
mudanças de fase, reações químicas, células eletroquímicas, sedimentação e osmose”, citando William H. Cropper.Em essência, o que Gibbs fez foi mostrar que a termodinâmica não se restringia simplesmente ao calor e à energia na espécie de escala grande e ruidosa da máquina a
vapor; ela também estava presente e era influente no nível atômico das reações químicas. Esses artigos de Gibbs costumam ser chamados de “os Principia da termodinâmica’’, mas, por razões que desafiam a especulação, Gibbs optou por publicar essas observações importantíssimas na Transactions of the Connecticut Academy ofArts and Sciences, revista que conseguia ser desconhecida até em Connecticut, daí Planck ter custado a ouvir falar dele.
Sem se deixar intimidar – bem, talvez um pouco intimidado –, Planck voltou-se para outros assuntos [Com frequência Planck não tinha sorte na vida. Sua primeira esposa querida faleceu prematuramente, em 1909, e o mais novo de seus dois filhos foi morto na Primeira Guerra Mundial.
Ele também tinha filhas gêmeas que adorava. Uma morreu de parto. A gêmea sobrevivente foi cuidar do bebê e apaixonou-se pelo marido da irmã. Eles se casaram e, dois anos depois, ela morreu de parto. Em 1944, quando Planck tinha 85 anos, uma bomba dos Aliados caiu em sua casa e ele perdeu tudo: papéis, diários, toda uma vida de pesquisas. No ano seguinte, seu filho sobrevivente foi apanhado numa conspiração para assassinar Hitler e acabou sendo executado.]
O que Michelson e Morley fizeram, sem de fato ter essa intenção, foi solapar uma crença antiga em algo denominado éter luminífero, um meio estável, invisível, sem peso, sem atrito e, infelizmente,
imaginário que se acreditava permear o universo. Concebido por Descartes, adotado por Newton e venerado por quase todos desde então, o éter ocupava uma posição de centralidade absoluta na física do século XIX, como um meio de explicar como a luz se deslocava pelo vazio do espaço. Era especialmente necessário na década de 1880, porque a luz e o eletromagnetismo passaram a ser vistos como ondas, ou seja, tipos de vibração. Vibrações precisam ocorrer em algo; daí a necessidade do éter e a velha devoção a ele. Ainda em 1909, o grande físico britânico J. J. Thomson insistia: “O éter não é uma criação fantástica do filósofo especulativo; é tão essencial para nós como
o ar que respiramos” – isso mais de quatro anos depois de provado, de forma incontestável, que ele não existia. As pessoas, em suma, estavam com efeito apegadas ao éter.
A vida de Albert Michelson é o exemplo perfeito da ideia dos Estados Unidos do século XIX como uma terra de oportunidades. Nascido em 1852 na fronteira alemã-polonesa numa família de comerciantes judeus pobres, ele chegou aos Estados Unidos ainda criança com a família e cresceu
num campo de mineração na região da corrida do ouro da Califórnia, onde seu pai explorou um negócio de mantimentos.Pobre demais para pagar a faculdade, viajou até Washington, D.C, e passou a fazer ponto na porta da frente da Casa Branca para que pudesse abordar o presidente Ulysses S. Grant quando este surgisse para sua caminhada diária. (Tratava-se claramente de uma época mais inocente.) Durante essas caminhadas, Michelson agradou tanto o presidente que Grant conseguiu para ele uma vaga gratuita na Academia Naval. Foi ali que ele aprendeu sua física.
Dez anos depois, como professor da Case School de Cleveland, Michelson interessou-se em medir algo chamado vento do éter – uma espécie de vento contrário produzido por objetos móveis ao abrirem caminho pelo espaço. Uma das previsões da física newtoniana era que a velocidade da luz, à medida que ela avançasse pelo vácuo, dependia de o observador estar se movendo em direção à fonte de luz ou se afastando dela, mas ninguém descobriria uma maneira de medir isso. Ocorreu a
Michelson que durante metade do ano a Terra se desloca em direção ao Sol, e durante a outra metade esta se afasta dele. Ele raciocinou que, se fossem feitas medições suficientemente cuidadosas em estações opostas e se fosse comparado o tempo de deslocamento da luz entre as duas, obter-se-ia a resposta.
Michelson convenceu Alexander Graham Bell, inventor novo-rico do telefone, a financiar a construção de um instrumento engenhoso e sensível, concebido pelo próprio Michelson e denominado interferômetro, capaz de medir a velocidade da luz com grande precisão. Depois, auxiliado pelo genial mas obscuro Morley, embarcou em anos de medições meticulosas. O trabalho era delicado e extenuante, e teve de ser suspenso por algum tempo durante um breve mas compreensível colapso nervoso de Michelson, no entanto em 1887 chegaram aos resultados. Estavam
bem longe do que os dois cientistas esperavam encontrar.
Como escreveu o astrofísico do Caltech Kip S. Thorne: “A velocidade da luz revelou-se a mesma em todas as direções e em todas as estações do ano”. Foi o primeiro sinal em duzentos anos – exatamente duzentos anos, de fato – de que as leis de Newton talvez não se aplicassem em toda parte do tempo todo. O resultado de Michelson-Morley tornou-se, nas palavras de William H. Cropper, “provavelmente o resultado negativo mais famoso da história da física” Michelson recebeu o prêmio Nobel de Física pelo trabalho – o primeiro norte-americano a receber o laurel –, mas
somente vinte anos depois. Nesse ínterim, os experimentos de Michelson e Morley pairariam desagradavelmente, como um mau cheiro, no pano de fundo do pensamento científico.
Interessante é que, apesar de suas descobertas, no limiar do século XX, Michelson estava entre aqueles que acreditavam que o trabalho da ciência estava quase no fim, com “apenas algumas torres
e pináculos a serem acrescentados, e alguns ornatos a serem esculpidos no teto”, nas palavras de um autor na Nature.
Na verdade, o mundo estava prestes a adentrar um século de ciência no qual muitas pessoas não entenderiam nada e nenhuma pessoa entenderia tudo. Os cientistas logo se encontrariam à deriva em um mundo desconcertante de partículas e antipartículas, onde as coisas surgem e deixam de existir em períodos de tempo em comparação com os quais os nanossegundos parecem lerdos e monótonos, e onde tudo é estranho. A ciência estava passando do mundo da macrofísica, onde os objetos podiam
ser vistos, segurados e medidos, para o da microfísica, em que os eventos ocorrem com rapidez inimaginável em escalas bem inferiores aos limites da imaginação. Estávamos a ponto de entrar na era quântica, e a primeira pessoa a abrir a porta foi o até então azarado Max Planck.
Em 1900, então um físico teórico da Universidade de Berlim e na idade um tanto avançada de 42 anos, Planck revelou uma nova “teoria quântica”, cuja postulação era de que a energia não é algo contínuo como água corrente, mas algo que vem em pacotes individualizados, que ele denominou quanta. Era um conceito novo e bom. A curto prazo, ajudaria a solucionar o enigma dos experimentos de Michelson-Morley, ao demonstrar que a luz, afinal de contas, não precisava ser uma onda. Num prazo mais longo, estabeleceria a base de toda a física moderna. Era, de qualquer modo, o primeiro sinal de que o mundo estava na iminência de mudar.
Mas o evento memorável – o limiar de uma nova era – adviria em 1905, quando a revista alemã de física Annalen der Physik publicou uma série de artigos de um jovem burocrata suíço sem nenhum cargo acadêmico, nenhum acesso a um laboratório e cuja única biblioteca consultada regularmente era a do escritório de patentes nacionais de Berna, onde estava empregado como perito técnico de terceira classe. (Um pedido para ser promovido a perito técnico de segunda classe fora indeferido
havia pouco tempo.) Seu nome era Albert Einstein, e naquele ano memorável ele submeteu à Annalen der Physik cinco artigos, dos quais três, de acordo com C. P. Snow, “estavam entre os maiores da
história da física”: um examinando o efeito fotoelétrico através da nova teoria quântica de Planck, outro sobre o comportamento de partículas minúsculas em suspensão (o denominado movimento browniano) e ainda outro delineando uma teoria da relatividade restrita.
O primeiro valeu ao autor um premio Nobel e explicou a natureza da luz (além de ajudar a tornar possível a televisão, entre outras coisas).”*

  • [Einstein foi homenageado, um tanto vagamente, “por serviços prestados à física teórica”. Ele teve de esperar dezesseis anos, até 1921, para receber o prêmio – um longo tempo, considerando-se os
    fatos, mas quase nada se comparado com Frederick Reines, que detectou o neutrino em 1957 mas só recebeu um Nobel em 1995, 35 anos depois, ou o alemão Ernst Ruska, que inventou o microscópio
    eletrônico em 1932 e recebeu seu premio Nobel em 1986, passando mais de meio século. Como os prêmios Nobel nunca são concedidos postumamente, para ganhar o prêmio a longevidade pode ser
    um fator tão importante quanto a inventividade.]
    O segundo forneceu uma prova da existência dos átomos – fato que, surpreendentemente, era objeto de certa controvérsia. O terceiro simplesmente mudou o mundo.
    Einstein nasceu em Ulm, no Sul da Alemanha, em 1879, mas cresceu em Munique. Pouca coisa em seu início de vida prenunciava a grandeza futura. Notoriamente, só aprendeu a falar aos três anos. Na
    década de 1890, com q falência da empresa de eletricidade do pai, a família mudou-se para Milão, mas Albert, então um adolescente, foi para a Suíça continuar sua educação, apesar de reprovado na
    prova de seleção na primeira tentativa. Em 1896, abriu mão da cidadania alemã para fugir ao serviço militar obrigatório e ingressou no Instituto Politécnico de Zurique, num curso de quatro anos destinado a formar professores de ciência do segundo grau. Foi um aluno brilhante, mas não excepcional.
    Em 1900, graduou-se, e em poucos meses começava a contribuir com artigos para a Annalen der Physik. Seu primeiro artigo, sobre a física dos líquidos em canudos de beber (assunto original!),
    apareceu na mesma edição da teoria quântica de Planck. De 1902 a 1904, produziu uma série de artigos sobre mecânica estatística para depois descobrir que o discreto mas produtivo J. Willard
    Gibbs, em Connecticut, realizara o mesmo trabalho em seus Elementary princíples of statistical mechanics de 1901.
    Ao mesmo tempo, ele se apaixonara por uma colega de turma, uma sérvia chamada Mileva Maric.
    Em 1901, tiveram uma filha sem que estivessem cansados, que foi discretamente entregue para adoção. Einstein nunca viu sua filha. Dois anos depois, ele e Maric estavam casados. Em meio a esses eventos, em 1902, Einstein obteve um emprego no escritório de patentes suíço, onde permaneceu nos sete anos seguintes. Ele gostava do trabalho: era desafiador o suficiente para mobilizar sua mente, mas não desafiador ao ponto de desviá-lo de sua física. Esse foi o pano de fundo contra o qual ele produziu sua teoria da relatividade restrita em 1905.
    Denominado “Sobre a eletrodinâmica dos corpos em movimento”, é um dos artigos científicos mais extraordinários já publicados, tanto pela forma de apresentação como pelo conteúdo.Não possuía notas de rodapé nem citações, quase não continha matemática, não mencionava nenhum trabalho que o tivesse influenciado ou precedido e agradecia a ajuda de um único indivíduo, um colega do escritório de patentes chamado Michele Besso. Foi como se Einstein, escreveu C. P. Snow,
    “tivesse chegado às conclusões por puro pensamento, sem nenhuma ajuda, sem ouvir as opiniões dos outros. Num grau surpreendente, foi exatamente isso que ele fizera”.
    Sua equação famosa, E = mc2, não constou do artigo, mas veio num suplemento breve que se seguiu alguns meses depois. Como você deve se lembrar do tempo do colégio, E na equação representa a
    energia, m a massa e c2 o quadrado da velocidade da luz.
    Nos termos mais simples, o que a equação diz é que massa e energia possuem uma equivalência. São duas formas da mesma coisa: energia é matéria liberada; matéria é energia esperando acontecer.
    Como c2 (a velocidade da luz vezes ela mesma) é um número realmente enorme, o que a equação está dizendo é que existe uma quantidade gigantesca – uma quantidade descomunal – de energia encerrada em cada objeto material.*
  • [Como c veio a se tomar o símbolo da velocidade da luz é um mistério, mas David Bodanis acredita que provenha do latim celeritas, que significa “rapidez”. O volume pertinente do Oxford English dictionary, compilado uma década antes da teoria de Einstein, reconhece c como um símbolo de muitas coisas, do carbono ao críquete, mas não faz nenhuma referência a ele como um símbolo da luz ou da rapidez.]
    Você pode não se sentir um sujeito fortão, mas caso seja um adulto de tamanho normal, conterá dentro de seu corpo modesto nada menos que 7 x 1018 joules de energia potencial– suficientes para explodir com a força de trinta bombas de hidrogênio grandes, supondo que você saiba como liberálos e tenha vocação para homem-bomba. Tudo no mundo encerra esse tipo de energia. Só não somos muito eficazes em liberá-la. Mesmo uma bomba de urânio – o artefato mais energético já produzido – libera menos que 1% da energia que poderia liberar se fôssemos mais espertos.
    Entre outras coisas, a teoria de Einstein explicou como a radiação funcionava: como um bloco de urânio podia emitir fluxos constantes de energia de alto nível sem derreter feito uma pedra de gelo (podia fazê-lo convertendo massa em energia com extrema eficiência à E = mc2). Explicou como as estrelas podiam arder por bilhões de anos sem esgotar o combustível (idem). Em uma só tacada, numa fórmula simples, Einstein concedeu aos geólogos e astrônomos o luxo de bilhões de anos.
    Acima de tudo, a teoria restrita mostrou que a velocidade da luz era constante e suprema. Nada podia ultrapassá-la. Ela trouxe uma luz (não interprete como um trocadilho) ao âmago de nossa compreensão da natureza do universo. Não foi por acaso que ela também solucionou o problema do éter luminífero, deixando claro que ele não existia. Einstein deu-nos um universo que não precisava dele.
    Os físicos, via de regra, não estão muito antenados nos ronunciamentos de funcionários de escritórios de patentes suíços, de modo que, apesar da abundância de novidades úteis, os artigos de Einstein atraíram pouca atenção. Tendo acabado de solucionar vários dos mistérios mais profundos do universo, Einstein candidatou-se a um emprego de professor universitário e foi rejeitado, e depois a um de professor do curso secundário e foi igualmente rejeitado. Assim, ele voltou ao seu emprego de perito de terceira classe, mas sem parar de refletir. Ele estava longe de terminar.
    Quando o poeta Paul Valéry certa vez perguntou a Einstein se Le tinha um caderno para registrar suas ideias, Einstein olhou para ele com um ar de ligeira mas genuína surpresa. “Ah, isso não é necessário”, respondeu. “Raramente tenho uma.” Nem é preciso dizer que quando chegava a ter uma, tendia a ser boa. A próxima ideia de Einstein foi uma das maiores que alguém já teve – aliás, a maior de todas, de acordo com Boorse, Motz e Weaver em sua história cuidadosa da ciência atômica.
    “Como a criação de uma só mente”, eles escrevem, “é sem dúvida a maior realização intelectual da humanidade– um senhor elogio.
    s em alguns lugares que, em 1907, Albert Einstein viu um operário cair de um telhado e começou a pensar no fenômeno da gravidade. Infelizmente, como muitas histórias boas, essa parece ser apócrifa.
    De acordo com o próprio Einstein, ele estava simplesmente sentado numa cadeira quando lhe ocorreu o problema da gravidade.
    Na verdade, o que ocorreu a Einstein foi mais o início de uma solução do problema da gravidade, já que era evidente para ele, desde o começo, que era a gravidade que faltava na teoria restrita. A
    “restrição” da teoria restrita era que ela lidava com coisas se movendo em um estado essencialmente desimpedido. Mas o que acontecia quando algo em movimento – a luz, acima de tudo – encontrava
    um obstáculo como a gravidade? Era uma questão que ocuparia seus pensamentos na maior parte da década seguinte e levou à publicação, no início de 1917, de um artigo intitulado “Considerações
    cosmológicas sobre a teoria da relatividade geral”.Claro que a teoria da relatividade restrita de
    1905 foi um trabalho profundo e importante, mas, como observou certa vez C. P. Snow, se Einstein não tivesse pensado nela naquele momento, outra pessoa acabaria pensando cinco anos depois. A
    ideia estava no ar. Com a teoria geral, entretanto, foi totalmente diferente. “Sem ela”, escreveu Snow em 1979, “é provável que estivéssemos esperando pela teoria até hoje.”
    Com seu cachimbo, seu jeito genialmente modesto e seus cabelos revoltos, Einstein era uma figura
    esplêndida demais para permanecer para sempre desconhecido. Em 1919, com a guerra tendo chegado ao fim, o mundo de repente o descobriu. Quase imediatamente, suas teorias ganharam a fama
    de serem incompreensíveis para as pessoas comuns..

Mega Glossário – Física


QUANTIDADE DE MOVIMENTO: O produto da massa de um objeto por sua velocidade.
QUARKS: Constituintes elementares dos protons, neutrons e todas as outras partículas que interagem através da força nuclear forte.
Atualmente, existem seis tipos de quarks, todos observados indiretamente em aceleradores de partículas.
RADIAÇÃO ELETROMAGNÉTICA: Radiação emitida por cargas elétricas quando em movimento acelerado.
RAIO DE CURVATURA: O parâmetro dependente do tempo que determina a distância relativa entre dois observadores em modelos cosmológicos homogêneos e isotrópicos.
RAIOS CÓSMICOS: “Chuveiros” de partículas altamente energéticas que penetram em nossa atmosfera, provenientes do espaço interestelar.
REFRAÇÃO: Deflexao sofrida por um raio de luz ao propagar-se de um meio (por exemplo, ar) para outro (por exemplo, água).
SALVAR OS FENÔMENOS: Segundo a doutrina platônica, o esforço para explicar os complicados movimentos dos objetos celestes em termos de simples movimentos circulares.
SINGULARIDADE: Em seu uso técnico, singularidade expressa um valor particular do argumento de uma função matemática que gera resultados infinitos.
SUPERNOVA: O evento explosivo que marca a morte de uma estrela muito maciça. Durante uma explosão de supernova, a luminosidade da estrela pode chegar a ser 1 bilhão de vezes maior do que a luminosidade do Sol.
TEÍSMO: A crença na existência de um Deus ou deuses cuja presença é imanente ao mundo.
TELESCÓPIO REFLETOR: Telescópio cujo elemento principal de foco é um espelho.
TELESCÓPIO REFRATOR: Telescópio cujo elemento principal de foco é uma lente.
TEMPO ABSOLUTO: De acordo com a física newtoniana, o tempo absoluto flui sempre à mesma razão, independentemente do estado de movimento dos observadores.
TEORIA CINÉTICA: A parte da física que estuda as propriedades térmicas de sistemas físicos assumindo que eles são compostos por constituintes microscópicos.
TERMODINÂMICA: A parte da física que estuda as propriedades térmicas de sistemas físicos a partir de suas propiedades macroscópicas, como temperatura e pressão.
VÁCUO QUÂNTICO: O estado fundamental, ou seja, de menor energia, de um sistema quântico.

Viagem no Tempo e Universos Paralelos


Se você voltasse no tempo para impedir o nascimento dos seus avós – vamos ignorar o ‘porquê’ aqui, por uma questão de argumento – você nunca teria nascido.
Esses tipos de paradoxos de quebrar o cérebro sempre nos intrigou, inspirando histórias que vão de “De volta ao futuro” a “Máquina do tempo”.
Agora, a New Scientist relata que os físicos Barak Shoshany e Jacob Hauser do Instituto Perimeter no Canadá encontraram uma solução aparente para esses tipos de paradoxos que exigem um número muito grande – mas não necessariamente infinito – de universos paralelos.
Eles enviaram um artigo de sua pesquisa para o arquivo de pré-impressão arXiv no mês passado. Ele descreve um modelo no qual uma pessoa poderia viajar teoricamente de uma linha do tempo para outra, atravessando um buraco no espaço-tempo, de uma maneira que eles afirmam ser “matematicamente possível”.
“A abordagem de universos paralelos que sugerimos diz que existem universos paralelos diferentes em que as coisas são praticamente as mesmas e cada um deles é matematicamente em uma variedade de espaço-tempo separada”, disse Shoshany à New Scientist . “Você pode ir entre essas variedades quando viaja no tempo.”
Várias linhas do tempo permitiriam que você viajasse para uma linha do tempo diferente e matasse seus avós sem causar um paradoxo. Mas o número de linhas do tempo não precisa ser infinito para que isso funcione, calcularam os pesquisadores.
O modelo tem uma grande desvantagem, pelo menos para fins narrativos: viajar no tempo não fará nenhum bem para sua própria linha do tempo.
“O que significa viajar no tempo aqui é entrar entre essas histórias – isso é ainda mais esquisito”, disse à New Scientist o astrofísico e especialista em matéria escura Geraint Lewis, da Universidade de Sydney, que não participou da pesquisa .
“Em algum nível, nem parece mais uma viagem no tempo, porque qual é o sentido de voltar e matar Hitler se a segunda guerra mundial ainda ocorrer no universo em que você está?”

Mega 34º Ano – Receita Para se Construir Um Universo


“Estima-se que 23% do universo seja formado pela matéria escura e 72% pela energia escura”
Os especialistas ainda não sabem exatamente do que são feitos todos os componentes fundamentais do cosmo. Sabe-se, por exemplo, que o universo possui três ingredientes principais. O primeiro deles é uma velha conhecida do homem: a matéria visível. São partículas que formam os tijolos fundamentais dos átomos, planetas e estrelas. Tão massivos são os corpos celestes e tão onipresentes são os átomos que seria natural assumir que a maior parte do universo é composta por matéria visível, certo? Mas não. Apenas 5% dele é matéria visível. O restante é ocupado pelos outros dois ingredientes – a matéria escura e a energia escura. São manifestações exóticas da natureza e quase nada conhecidas pelo homem. A audaciosa tarefa do AMS será ajudar os cientistas a entender do que são feitos esses 95% do universo.
Fórmula do universo – Para entender os outros dois ingredientes que formam o cosmo será preciso levar em consideração um fato inusitado.
apesar de a física afirmar que as estrelas, planetas e corpos de uma galáxia deveriam se movimentar mais lentamente à medida em que se afastam do centro dela, isso não acontece na prática, no caso das galáxias. No Sistema Solar, por exemplo, Mercúrio, que está próximo do Sol, movimenta-se em torno do astro com velocidade 60% mais rápida do que a da Terra.
Marte segue mais lento que o nosso planeta e Júpiter ainda mais. E assim por diante, até Plutão e Eris, que praticamente se arrastam em volta do Sol.
O AMS também vai procurar pela antimatéria, uma manifestação da habitual matéria visível, mas com carga contrária. Por exemplo, um átomo de matéria é formado por prótons, que são cargas positivas, envolvido por elétrons, que são cargas negativas. Os átomos de antimatéria seriam formados por antiprótons, com cargas negativas, envolvidos por pósitrons, que são cargas positivas.
Antipartículas já foram observadas pelo homem em laboratório, mas nunca no espaço.
Matéria Escura
Para que as equações da física façam sentido, é preciso que exista alguma força empurrando o amontoado de poeira, gás, estrelas e planetas da periferia das galáxias em velocidades semelhantes a de corrpos que estão mais próximos do núcleo. Essa força adicional compensaria a previsão física de que quanto mais longe do centro de uma galáxia, mais lento é o movimento dos corpos.
É a gravidade de uma manifestação da natureza que possui massa, mas não emite qualquer tipo de luz – ou radiação – que o homem consiga medir diretamente.
Como não é possível enxergá-lo, os cientistas deram o nome de “matéria escura” a esse que seria o segundo ingrediente mais abundante no universo.
Estima-se que 23% de tudo seja formado pela matéria escura. “Os pesquisadores têm certeza de que ela existe, pois ela exerce força sobre os corpos, Apesar de não detectá-la diretamente, é possível perceber os efeitos que a matéria escura causa no movimento das galáxias.
Energia Escura
O mais abundante dos ingredientes do universo, porém, é a ainda mais misteriosa energia escura. Gleiser explica que os modelos físicos provaram que o universo está em expansão, de acordo com a teoria do Big Bang – a grande explosão primordial que deu início a tudo. “Só que, em 1998, descobriu-se que essa expansão estava acontecendo mais rapidamente do que as equações previam”, A essa força deu-se o nome de energia escura – que corresponde a 72% do universo.

Mega 34º Ano – A Física das Partículas


Você pode se esforçar, mas não vai conseguir nem de perto imaginar o quão modesto é um próton. A uma parte infinitesimal de um átomo é tão pequeno que no pingo desse i pode ter 500 bilhões deles, mas que o número de segundos de meio bilhão de anos, portanto eles são exageradamente microscópicos.
Agora só imagine, encolher um desses prótons até 1 bilionésimo de seu tamanho normal, o espaço seria tão pequeno que comparado com ele, o próton seria enorme. Agora, compacte nesse espaço minúsculo, 30 gramas de matéria:
Voçê está pronto para iniciar um universo.
Prepare-se para o Big Bang, mas nem pense em se retirar para um local distante para contemplar o que vai acontecer, não há local para se retirar. O único espaço que vai existir é o espaço que o universo cria ao se expandir. Antes desse momento, o tempo não existe, não há passado.

Física – Espaço – Tempo


Em 1935, Einstein percebeu que suas equações sobre a Relatividade Geral mostravam a existência de um corpo celeste bizarro – o buraco de minhoca, um atalho cósmico que ligaria pontos superdistantes de um modo tal que, se alguém pudesse caminhar por ele, chegaria rapidamente à outra ponta. Por muito tempo, esses atalhos foram considerados ficção. Em 1995, porém, o respeitado físico americano Kip Thorne mostrou que eles não só poderiam existir como também vislumbrou a possibilidade de serem feitas viagens no tempo através deles. O assunto ainda é teórico e polêmico, mas promete manter aquecido o cérebro dos especialistas.
Matéria versus antimatéria
Nas entranhas do superacelerador de partículas LHC, em Genebra, na Suíça, previsto para funcionar em 2005, deverá estar a resposta para uma das perguntas mais intrigantes
Física: por que o Big Bang formou mais matéria do que antimatéria, já que, em princípio, as duas deveriam ter sido criadas na mesma proporção? Em 1966, o físico russo Andrei Sakharov (1921-1989) sugeriu uma explicação. Segundo ele, foram formadas 1 bilhão e uma partículas de matéria contra 1 bilhão de antimatéria. Portanto, tudo o que existe seria resultado dessa única partícula que sobreviveu à aniquilação geral no início do Universo – já que a matéria e a antimatéria se destroem quando entram em contato. O LHC, ao recriar as condições do Big Bang, poderá explicar por que o Universo existe.

Mistério cósmico
Tudo o que os astrônomos conseguem ver – e não é pouco – não passa de 10% da massa do Universo. Os outros 90% são invisíveis. Essa imensidão é chamada de matéria escura, mas ninguém sabe do que ela é formada. Alguns acreditam que seja de neutrino, partícula tão pequena que tem a capacidade de atravessar a Terra sem se chocar com nada. Para decifrar o mistério, é preciso saber se o neutrino tem massa. Os físicos desconfiam que sim. Para isso construíram enormes detectores dessas partículas, como o Superkamiokande, um tanque de 50 000 litros de água, no Japão. O estudo desses fantasmas minúsculos poderá nos dizer o que mais há por aí.

☻ Mega Glossário – Continuação



Para entender melhor textos sobre Astronomia

EFEITO DOPPLER: Ondas sendo emitidas por uma fonte em movimento (ou sendo recebidas por um observador em movimento!) têm seu comprimento modificado. Se a fonte se aproxima do observador, o comprimento de onda diminui; caso contrário, o comprimento de onda aumenta.
EFEITO FOTOELÉTRICO: Efeito em que uma radiação eletromagnética de comprimento de onda suficientemente curto (por exemplo, violeta ou ultravioleta) pode eletrizar uma amostra metálica. A radiação é energética o suficiente para expulsar elétrons da superfície metálica, tornando-a positivamente carregada. A interpretação do efeito proposta por Einstein em termos de fótons rendeu-lhe o prêmio Nobel em 1921.
ELÉTRON: Partícula elementar negativamente carregada encontrada em átomos.
ENERGIA CINÉTICA: A energia carregada por objetos em movimento.
ENERGIA DE LIGAÇÃO: Energia associada com a ligação entre dois ou mais componentes de um sistema físico através da ação de uma força atrativa. Essa energia é liberada se as ligações entre os componentes do sistema físico são quebradas por um agente externo ou por uma instabilidade do próprio sistema.
ENERGIA POTENCIAL: Energia armazenada em um sistema físico. Por exemplo, uma mola pode armazenar energia potencial elástica, enquanto um objeto alçado a uma certa altura armazena energia potencial gravitacional.
ENTROPIA: Medida quantitativa do grau de desordem de um sistema físico. De acordo com a segunda lei da termodinâmica, a entropia de um sistema isolado não pode decrescer.
EPICICLO: Ferramenta matemática inventada na Grécia antiga para modelar órbitas de objetos celestes. Um epiciclo consiste em
um círculo cujo centro gira em torno de um outro círculo maior. (ESPAÇO ABSOLUTO: De acordo com a física newtoniana, espaço absoluto é a arena geométrica onde fenômenos naturais ocorrem. Suas propriedades são independentes do estado de movimento de observadores.
ESPAÇO-TEMPO: De acordo com a teoria da relatividade, espaço-tempo é a arena quadridimensional onde fenômenos naturais ocorrem.
Distâncias no espaço-tempo são independentes do estado de movimento dos observadores.
ESPECTRO: O espectro de uma fonte de radiação eletromagnética é composto de radiação de várias freqüências, separadas por algum instrumento. Por exemplo, o espectro da luz visível é composto pelas sete cores do arco-íris.
ESPECTROSCÓPIO: Instrumento que separa a radiação eletromagnética em seus componentes de freqüências diferentes.
ESTADO FUNDAMENTAL: Nível de energia mais baixo de um sistema físico. Para sistemas quânticos, a energia do estado fundamental nunca é exatamente zero.
ESTADO PADRÃO: A situação de aparente estabilidade atingida por um sistema físico através do equilíbrio exato entre ganho e perda.
ÉTER (aristotélico): Substância material que compõe objetos celestes situados acima da esfera lunar.
ÉTER (eletromagnético): Segundo físicos do século xix, meio material que suporta a propagação de ondas eletromagnéticas.
FLOGISTO: Fluido hipotético que, segundo químicos antes e durante a vida de Lavoisier, era liberado durante a combustão de substâncias.

FORÇA: Ação sobre um objeto capaz de mudar seu estado de
movimento.
FORÇA CENTRÍPETA: Força que age na direção do centro do movimento.
FORÇA FORTE: Interação, ativa em distâncias nucleares, responsável por manter a estabilidade do núcleo atômico. A força forte é aproximadamente cem vezes mais poderosa do que a repulsão elétrica sofrida por protons no núcleo.

FÓTON: A luz (ou radiação eletromagnética) exibe a dualidade onda-partícula. Em interações com partículas de matéria, a luz age como uma partícula cuja energia é proporcional à sua freqüência. Esses “pacotes de luz” são conhecidos como fótons.
FREQÜÊNCIA (de uma onda): Número de cristas de uma onda que passam por um ponto fixo em um segundo.
GEOMETRIA NÃO EUCLIDIANA: Geometria dos espaços curvos.
HIPÓTESE CALÓRICA: Suposição segundo a qual o calor é um fluido capaz de ser transferido através do contato entre os corpos. A hipótese calórica foi praticamente abandonada após 1789, devido aos estudos detalhados de Benjamin Thompson.
INDUÇÃO: Processo segundo o qual um magneto em movimento pode gerar uma corrente elétrica em um circuito vizinho.
INÉRCIA: Reação de um corpo a qualquer mudança em seu estado de movimento.
ISÓTOPO: Um elemento químico é identificado pelo número de protons em seu núcleo. Átomos com o mesmo número de protons em seu núcleo mas com número diferente de neutrons são chamados isótopos.

LEI DE HUBBLE: Relação obtida empiricamente por Hubble em 1929, em que a distância e a velocidade de recessão de galáxias distantes são diretamente proporcionais. A relação é conseqüência da expansão do Universo.
LINHAS DE FORÇA:Técnica de visualização desenvolvida por Faraday para representar espacialmente a presença de campos elétricos e magnéticos.
LUMINOSIDADE INTRÍNSECA: A luminosidade de um objeto é uma medida da energia emitida em um intervalo de tempo. Sendo uma propriedade intrínseca do objeto, ela não depende de sua distância.
Entretanto, a luminosidade observada de um objeto cai de modo proporcional ao quadrado da distância.
MASSA: Uma medida da quantidade bruta de matéria em um objeto.
MISTICISMO RACioNAL:Termo que introduzi para representar a inspiração, essencialmente religiosa, que tem um papel importante no processo criativo de muitos cientistas tanto do passado como do presente. O misticismo racional deve ser distinto do misticismo puro, que defino como uma crença subjetiva sem uma base racional.
MITO DE CRIAÇÃO: Mito que trata da criação do mundo.
MOVIMENTO INERCIAL: Movimento com velocidade constante em relação a um ponto ou posição fixa. Um objeto em movimento inercial só sairá desse estado de movimento através da ação de uma força (primeira lei de Newton).
MOVIMENTO RETRÓGRADO: Movimento aparentemente “para trás” de planetas em relação ao fundo de estrelas fixas.
NÚCLEO: Parte dos átomos positivamente carregada. O núcleo consiste em protons e neutrons ligados através da força nuclear forte.

NUCLEOSSÍNTESE: Processo de síntese de núcleos pesados a partir de núcleos mais leves. Nucleossíntese primordial refere-se à formação de núcleos relativamente leves durante os primeiros segundos de existência do Universo. Nucleossíntese estelar refere-se à formação de núcleos mais pesados durante os últimos estágios de vida de estrelas.

ONDA ESTACIONARIA: Uma onda estacionaria é composta de duas ou mais ondas propagando-se em direções opostas, de tal modo que a onda resultante parece não se mover.

PARADOXO DE OLBERS: Por que, em um Universo infinito, e portanto presumivelmente com um número infinito de estrelas, o céu noturno é escuro e não iluminado.

PARALAXE ESTELAR: O movimento aparente de estrelas relativamente
próximas da Terra em relação ao fundo de estrelas mais distantes.

PESO: Resposta de uma massa à ação da aceleração gravitacional.

PRINCÍPIO COSMOLÓGICO: Introduzido por Einstein, o princípio cosmológico afirma que, em média, o Universo é o mesmo em todos os lugares e em todas as direções. Matematicamente, o princípio afirma que o Universo é homogêneo e isotropico. Em 1948, esse princípio foi generalizado pelos proponentes do modelo do estado padrão, resultando no “princípio cosmológico perfeito”, que afirma que o Universo não só é homogêneo e isotropico mas também invariante no tempo, ou seja, o Universo é eterno.

PRINCÍPIO DA COMPLEMENTARIDADE: Introduzido por Bohr, o princípio da complementaridade afirma que onda e partícula são dois modos complementares e incompatíveis de representarmos objetos quânticos.

PRINCÍPIO DA RELATIVIDADE: AS leis da física são idênticas para observadores inerciais. A restrição da validade do princípio apenas para o movimento inercial é removida na teoria da relatividade geral.

PRINCÍPIO DE EQUIVALÊNCIA: OS efeitos de um campo gravitacional podem ser simulados por um movimento acelerado.

PRINCÍPIO DE INCERTEZA: Em sua formulação mais popular, o princípio de incerteza de Heisenberg afirma que é impossível medirmos simultaneamente a posição e a velocidade de um objeto quântico com precisão arbitrariamente alta.

Nobel de Física de 2021



Syukuro Manabe, Klaus Hasselmann e Giorgio Parisi são os ganhadores do Prêmio Nobel 2021 em Física, anunciou a Academia Real das Ciências da Suécia pelas contribuições inovadoras para a nossa compreensão de sistemas físicos complexos.

Os vencedores dividirão o prêmio, que totaliza 10 milhões de coroas suecas (cerca de R$ 6,1 milhões). Metade do prêmio será dividido por Syukuro Manabe e Klaus Hasselmann, por um modelo físico do clima da Terra, quantificando a variabilidade e prevendo com segurança o aquecimento global.
A outra metade irá para Giorgio Parisi, por suas “soluções teóricas para uma vasta gama de problemas na teoria de sistemas complexos”.
Todos os três vencedores contribuíram para o entendimento dos sistemas físicos complexos – que podem ter um número enorme de componentes ou serem governados pelo acaso. Um exemplo desse tipo de sistema é o clima da Terra.
Syukuro Manabe, da Universidade de Princeton, nos Estados Unidos, demonstrou como o aumento das concentrações de dióxido de carbono na atmosfera leva ao aumento da temperatura na superfície da Terra.
Ele descobriu que, quando o nível de CO2 na atmosfera dobrava, a temperatura global aumentava mais de 2ºC.
Na década de 1960, Manabe liderou o desenvolvimento de modelos físicos do clima da Terra e foi a primeira pessoa a explorar a interação entre o balanço de radiação e o transporte vertical de massas de ar. Seu trabalho lançou as bases para o desenvolvimento de modelos climáticos.
Cerca de dez anos depois, Klaus Hasselmann, do Instituto Max Planck de Meteorologia, em Hamburgo, na Alemanha, criou um modelo que liga o tempo e o clima – respondendo, assim, à pergunta de por que os modelos climáticos podem ser confiáveis apesar de o tempo ser mutável e caótico.
Ele também desenvolveu métodos para identificar sinais específicos – “impressões digitais” – que fenômenos naturais e atividades humanas imprimem no clima. Seus métodos têm sido usados para provar que o aumento da temperatura na atmosfera é devido às emissões humanas de dióxido de carbono.
Na avaliação do comitê, Manabe e Hasselmann “contribuíram para o maior benefício para a humanidade, no espírito de Alfred Nobel, fornecendo uma base física sólida para nosso conhecimento do clima da Terra”.
O terceiro laureado, Giorgio Parisi, da Universidade Sapienza de Roma, na Itália, ficou com metade do prêmio sozinho (5 milhões de coroas suecas, cerca de R$ 3,1 milhões). A descoberta dele é do campo da física teórica – e um pouco mais complexa de entender.

Veja, a seguir, o exemplo que o comitê do Nobel deu para explicar a contribuição do físico para a área dos sistemas complexos:

Imagine as partículas em um gás. Elas podem ser consideradas como pequenas bolas, voando a velocidades que aumentam com temperaturas mais altas.
Quando a temperatura cai ou a pressão aumenta, as bolas primeiro se condensam em um líquido e, em seguida, em um sólido. Este sólido é geralmente um cristal, em que as bolas são organizadas em um padrão regular.
No entanto, se essa mudança acontecer rapidamente, as bolas podem formar um padrão irregular que não muda – mesmo se o líquido for mais resfriado ou comprimido.
Se o experimento for repetido, as bolas assumirão um novo padrão, apesar de a mudança ocorrer exatamente da mesma forma.
Na década de 1970, muitos físicos, incluindo vários ganhadores do Prêmio Nobel, procuraram uma maneira de descrever os vidros spin. Parisi foi o que conseguiu fazer isso, em 1979. Mesmo assim, foram necessários muitos anos para que sua solução fosse provada matematicamente correta.
“Quando pássaros voam em bando, todos querem estar na região turbulenta, onde gastam menos energia ao bater as asas. Parisi mostrou que considerando somente isso é possível prever a forma e tamanho dos bandos de aves”, explica Tessler.
Para o brasileiro, a descoberta é importante porque “permitiu que a gente entenda coisas muito profundas sobre o que chama de sistemas frustrados – sistemas que não conseguiram encontrar o mínimo de energia – aí entra o clima também. Qualquer sistema que por algum motivo não consegue atingir o seu mínimo de energia, a sua configuração mais estável, é descrita pelas equações do Parisi”, conclui.
Syukuro Manabe nasceu em 1931 em Shingu, no, Japão. Obteve o doutorado em 1957 na Universidade de Tóquio. Hoje, é meteorologista sênior da Universidade de Princeton, nos EUA.
Klaus Hasselmann nasceu em 1931 em Hamburgo, na Alemanha. Obteve o doutorado em 1957 na Universidade de Göttingen. É professor do Instituto Max Planck de Meteorologia em Hamburgo.
Giorgio Parisi nasceu em 1948 em Roma. Obteve o doutorado em 1970 na Universidade Sapienza de Roma, onde é professor.
No ano passado, o prêmio de Física foi para três cientistas, por descobertas sobre buracos negros.

CIENTISTAS: Mulheres somam apenas 5% dos vencedores do Prêmio Nobel desde 1901
Nobel 2021
A láurea em Medicina foi a primeira a ser anunciada, na segunda (4). Os prêmios em Química, Literatura e Paz serão entregues ainda nesta semana; já a láurea em Economia será divulgada na próxima segunda (11). Veja o cronograma:
Medicina: segunda-feira, 4 de outubro
Física: terça-feira, 5 de outubro
Química: quarta-feira, 6 de outubro
Literatura: quinta-feira, 7 de outubro
Paz: sexta-feira, 8 de outubro
Economia: segunda-feira, 11 de outubro

Física – O que é o espaço-tempo?



É o sistema de coordenadas utilizado como base para o estudo da relatividade restrita e relatividade geral. O tempo e o espaço tridimensional são concebidos, em conjunto, como uma única variedade de quatro dimensões a que se dá o nome de espaço-tempo. Um ponto, no espaço-tempo, pode ser designado como um “acontecimento”. Cada acontecimento tem quatro coordenadas (t, x, y, z); ou, em coordenadas angulares, t, r, θ, e φ que dizem o local e a hora em que ele ocorreu, ocorre ou ocorrerá.
Na mecânica clássica (não-relativista), o tempo é tomado como uma unidade de medida universal, uniforme por todo o espaço, e independente de qualquer movimentação nesse, enquanto que no contexto da relatividade especial, o tempo é tratado integralmente à dimensão espacial, pois a taxa observada da passagem do tempo depende da velocidade do objeto em relação ao seu observador.[2][3]

Pontos no espaço-tempo são chamados de eventos e são definidos por quatro números, por exemplo, (x, y, z, ct), onde c é a velocidade da luz e pode ser considerado como a velocidade que um observador se move no tempo. Isto é, eventos separados no tempo de apenas 1 segundo estão a 299 792 458 metros um do outro no espaço-tempo. Assim como utilizamos as coordenadas x, y e z para definir pontos no espaço em 3 dimensões, na relatividade especial utilizamos uma coordenada a mais para definir o tempo de acontecimento de um evento.
Enquanto que na mecânica clássica não-relativista de Isaac Newton o tempo é tomado como uma unidade de medida universal, uniforme por todo o espaço, e independente de qualquer movimentação nesse, no contexto da relatividade especial de Albert Einstein o tempo é tratado como uma dimensão adicional às três dimensões espaciais, não podendo ser separado dessas, pois a taxa de passagem do tempo observada para um determinado objeto depende de sua velocidade em relação à velocidade do observador.
Os intervalos espaço-tempo, concebidos numa variedade (termo matemático), definem uma métrica pseudo-euclidiana chamada de métrica de Lorentz. Esta métrica é similar à das distâncias no espaço euclidiano. Contudo, note-se que enquanto que as distâncias são sempre positivas, os intervalos espaço-tempo podem ser positivos, nulos ou negativos. Os acontecimentos com um intervalo de espaço-tempo zero são apenas separados pela propagação de um cones de luz|sinal luminoso. Os acontecimentos com um intervalo de espaço-tempo positivo situam-se no seu futuro ou passado recíproco, sendo o valor do intervalo definido pelo tempo próprio medido por um observador viajando entre eles. O espaço-tempo, vista à luz desta métrica pseudo-euclidiana, constitui uma variedade pseudo-riemanniana.
Muitas variedades espaço-temporais tem interpretações que podem parecer bizarras ou desconfortáveis para muitos físicos. Por exemplo, um espaço-tempo compacto tem curvas de tempo fechadas, “loops”, que viola a noção de causalidade tão cara aos físicos. Por essa razão, os físicos matemáticos levam em consideração apenas um subconjunto de todos os espaço-tempo possíveis. Uma forma de fazer isto é estudar “soluções realísticas” das equações da Relatividade Geral. Outro é adicionar alguma restrição física “razoável”, mas ainda assim geometricamente genérica, e em seguida tentar provar coisas interessantes sobre o espaço-tempo resultante. A última abordagem tem levado a resultados importantes, notavelmente os teoremas de singularidade de Penrose-Hawking.

Em física matemática é comum restringir a variedade a variedades conexas de Hausdorff. Um espaço-tempo Hausdorff é sempre paracompacto.

Será o espaço-tempo quantizado?
A pesquisa científica atual centra-se na natureza do espaço-tempo ao nível da escala de Planck. A gravidade quântica em loop, a teoria das cordas e a termodinâmica dos buracos negros predizem um espaço-tempo quantizado sempre com a mesma ordem de grandeza.