13.546 – Do Micro ao Macro


Microscópios e telescópios foram fundamentais para a ciência. Eles serviram para ajudar a fazer grandes descobertas e simbolizam o interesse do homem tanto pelo micro – as coisas pequenas, invisíveis a olho nu, quanto pelo macro – a vastidão do Universo. Hoje, como você vai ver nestas e nas próximas páginas, a ciência caminha ainda mais para o estudo dessas duas pontas, mas em uma escala nunca vista antes. O estudo de coisas previstas apenas na teoria, como partículas subatômicas muitas vezes menores que o átomo, passa a ser possível também na prática, assim como a observação de galáxias cada vez mais distantes. E o que empurra a ciência nessa direção é o avanço das técnicas de investigação da natureza, que ficam cada vez mais sofisticadas.
A verdade é que o homem sempre gostou de estudar esses dois extremos. Até o século 16, contudo, os experimentos nessa área eram limitados por aparelhos rudimentares e teorias difíceis de provar. Foi no século 17 que surgiram o microscópio e o telescópio, dois equipamentos fundamentais, que permitiram testar teorias e avançar na observação do céu e das partículas.
O telescópio foi criado em 1606 por um holandês e adaptado pelo astrônomo Galileu Galileu, o primeiro a usá-lo para estudar o céu. O aparato permitiu que o italiano de Pisa descobrisse fenômenos como o relevo da Lua, os satélites de Júpiter e a natureza da Via Láctea. Algumas décadas depois, veio o microscópio. O holandês Antonie van Leeuwenhoek foi o primeiro a usar o equipamento para observar materiais biológicos, como plantas, glóbulos de sangue e espermatozoides do sêmen.
Hoje, ambos evoluíram. Parece até coisa do Obama, mas o que motiva a realização de estudos em níveis tão profundos é, simplesmente, porque nós podemos. Assim como a astronomia e a biologia floresceram no século 17 graças ao telescópio e ao microscópio, hoje é possível desbravar as fronteiras mais longínquas do micro e do macro porque temos as ferramentas necessárias. Os instrumentos tradicionais ficaram bem mais poderosos – chegamos à era dos extremely large telescopes (“telescópios extremamente grandes”), que têm espelhos de mais de 30 metros e permitem fotografar e catalogar o céu inteiro.
Também surgiram outras tecnologias, impensáveis há até pouco tempo. A ferramenta mais significativa é o megaprocessamento de dados. A capacidade de armazenar e processar quantidades inimagináveis de informações é uma das formas de aprender sobre tudo que está ao redor de nós, em todas as escalas
Microscópios e telescópios modernos geram tanta informação por dia que é impossível para o ser humano compilá-la e condensá-la. Mas um computador consegue encará-la – e é na análise dessa montanha monstruosa de dados que moram respostas para muitas das nossas dúvidas.
Mas, quando os números são muito grandes, mesmo as respostas do computador podem ser difíceis de digerir. É para isso que surgiram técnicas como a visualização de dados. Na prática, são programas que produzem gráficos simples a partir de informações complexas. Só de olhar dá para entender o que eles querem dizer. Esse é o trabalho do arquiteto da informação Manuel Lima, criador do projeto Visual Complexity, que reúne projetos inovadores de visualização de redes, e do Many Eyes, que fornece ferramentas para a interpretação visual de dados. Com a técnica, é possível enxergar desde a interação entre proteínas até a forma como as pessoas usam a internet, e fica mais simples entender conhecimentos complexos, gerados a partir de um monte de estatísticas. O uso das novas ferramentas permite não só que as pessoas explorem o micro e o macro de uma forma nunca vista antes mas também que possam compreender com facilidade o que isso significa para elas.

Anúncios

13.543 – Antigravidade – Como se consegue anular a gravidade nos laboratórios da Nasa?


antigravidade

Não se pode simplesmente “desligar” a gravidade. Cintos antigravitacionais só existem no cinema ou nas histórias em quadrinhos. A Nasa e outras agências espaciais utilizam um artifício que permite simular a ausência de gravidade: a queda livre. Imagine-se dentro de um elevador, carregando alguns livros na mão. Quando o elevador chega ao último andar, alguém corta os cabos e ele despenca. De repente, a sensação será de ausência de peso, os pés perderão o contato com o chão e os livros flutuarão no ar. Como o elevador está fechado, você irá flutuar sem sentir a resistência do ar, como em um ambiente sem gravidade. Nos experimentos das agências espaciais, um avião a jato sobe até determinada altitude e, em seguida, é posto em queda livre durante certo tempo – não mais que 30 segundos. Na acolchoada cabine de passageiros, os futuros astronautas sentem a ausência de peso, até que o piloto retome o curso da aeronave.
Os testes não são utilizados apenas como “curso preparatório” para viagens espaciais. Dentro dos aviões, pesquisadores submetem equipamentos, procedimentos médicos e substâncias químicas, por exemplo, às mesmas condições encontradas no espaço. O que passar no teste pode entrar na nave.

Queda livre simula ausência de peso 11 000 metros (início da descida)
Gravidade = 1 G (normal)

1. Na simulação de gravidade zero, o piloto sobe até uma determinada altitude – de 10 000 a 12 000 metros – e abaixa o nariz do avião em 45 graus. Se a inclinação for menor que isso, a ausência de peso não é total

11 000 a 8 000 metros (descida)

Gravidade = Zero

2. Na descida, que dura entre 20 e 25 segundos, os ocupantes da cabine de passageiros flutuam no ar. Nessa mínima fração de tempo, são realizados os testes médicos que avaliam os efeitos da ausência de gravidade no organismo humano

8 000 metros (final da descida)

Gravidade = 1 G (normal)

4. A sequência de descidas e subidas é repetida de 30 a 40 vezes pelo piloto, até completar um total de três horas de voo

5. Quando alcança a marca de 8 000 metros de altitude, o piloto retoma a subida. Nessa etapa do voo, a gravidade, em vez de diminuir, aumenta para 1,8 G (1 G equivale à força gravitacional ao nível do mar)

13.520 – Física – Curiosidades sobre o Tempo


super tempo
Da Super para o ☻Mega

Relatividade
A passagem do tempo é mais rápida para o seu rosto do que para os seus pés (supondo que você esteja de pé). A teoria da relatividade de Einstein afirma que, quanto mais perto você estiver no centro da Terra, mais lento o tempo passará – e isso já foi medido. Por exemplo, no topo do Monte Everest, um ano é cerca de 15 microssegundos menor do que no nível do mar.

Segundo
Tecnicamente, um segundo não é definido como 1/60 de um minuto, mas como “a duração de 9.192.631.770 períodos da radiação consistente com a transição entre os dois níveis hiperfinos do estado fundamental do átomo de césio 133”.

Dinossauros
Quando os dinossauros governavam a Terra, havia quase 370 dias em um ano. A rotação da Terra está ficando mais lenta porque a gravidade da lua está agindo sobre ela. Isso significa, por sua vez, que os dias no planeta estão ficando mais longos, por cerca de 1,7 milissegundos por século.

Mercúrio
Em Mercúrio, um dia tem dois anos terrestres de duração.

Tempo de Planck
O tempo de Planck é uma unidade científica de tempo. Leva cerca de 550.000 trilhões de trilhões de trilhões de vezes o tempo de Planck para piscar uma vez, rapidamente.

Agora
Não existe o “agora”, de acordo com a física. Espaço e tempo são como fluidos, afetados pela gravidade e até mesmo pela sua velocidade. Disse Albert Einstein: “Para nós físicos, a distinção entre passado, presente e futuro é apenas uma ilusão, ainda que uma persistente”.

Luz
Uma vez que a luz leva tempo para nos alcançar, tudo o que vemos no espaço está no passado. O sol que você pode ver no céu é um sol de oito minutos e 20 segundos atrás. A luz da estrela mais próxima da Terra, depois do sol, Proxima Centauri, tem cerca de 4 anos.

Envelhecimento e memória
Novas experiências certamente parecem mais fortes na memória do que as mais conhecidas. Isso é conhecido como “efeito estranho”, e provavelmente é devido ao fato do tempo parecer passar mais rápido à medida que você envelhece – já que mais coisas são familiares para você.

Relógio de estrôncio
O relógio mais preciso já construído é o relógio de estrôncio. Ele tem uma margem de erro de apenas um segundo em 15 bilhões de anos.

A velha do universo
A mais antiga coisa conhecida no universo é uma galáxia chamada z8_GND_5296. Ela tem 13,1 bilhões de anos, o que significa que é apenas 700 milhões de anos mais nova do que o próprio cosmos.

Trens e fusos horários
A causa por trás do fato dos relógios mostrarem a mesma hora em países inteiros é que torna os horários de transportes mais fáceis. Até o século 19, as cidades estabeleciam seus relógios pela hora local, então a hora em municípios próximos podia ser diferente – por exemplo, Bristol ficava 11 minutos atrás de Londres. Isso fazia com que as pessoas comumente perdessem seus trens, de forma que as empresas ferroviárias começaram a usar o “tempo padrão britânico” baseado em Londres a partir de 1840.

Aceleração e expansão do universo
As galáxias distantes da Terra parecem estar se movendo mais rápido do que as próximas, significando que o universo está se acelerando à medida que se expande. A teoria normal para explicar tal expansão é uma força misteriosa no cosmos, conhecida como “energia escura”. Um físico espanhol sugeriu uma perspectiva alternativa de que as galáxias mais distantes e mais antigas parecem estar se movendo mais rápido porque no passado o tempo era mais rápido. Se ele estiver correto, em alguns bilhões de anos, “tudo ficará congelado, como uma foto instantânea”.

24 horas
O fato de que a rotação da Terra está gradualmente desacelerando e, consequentemente, os dias estão ficando mais longos, significa que nossos relógios estão errados e nosso dia de 24 horas está mudando. De vez em quando, o Serviço Internacional de Rotação da Terra, a organização que padroniza o tempo astronômico, precisa adicionar um segundo – chamado “segundo de salto” – ao relógio para manter as coisas consistentes. O último segundo de salto foi adicionado em 30 de junho de 2015. [PhysicsAstronomy]

13.510 – Propulsor quebra recordes e pode nos levar para Marte


íons
Um propulsor que está sendo desenvolvido para uma futura missão da NASA para Marte quebrou vários recordes durante seus testes, sugerindo que a tecnologia está no caminho para levar os humanos ao planeta vermelho nos próximos 20 anos, segundo membros da equipe do projeto.
O propulsor X3, projetado por pesquisadores da Universidade de Michigan, em cooperação com a NASA e a Força Aérea dos EUA, é um propulsor Hall – um sistema que impulsiona a espaçonave acelerando uma corrente de átomos eletricamente carregados, conhecidos como íons. Na recente demonstração realizada no Centro de Pesquisa Glenn da NASA, o X3 quebrou recordes do máximo de potência, impulso e corrente operacional alcançados por um hélice Hall até hoje, de acordo com a equipe de pesquisa da Universidade de Michigan e representantes da NASA.
“Nós mostramos que o X3 pode operar com mais de 100 kW de potência”, disse Alec Gallimore, que lidera o projeto, em entrevista ao site Space. “Ele funcionou em uma enorme variedade de energia de 5 kW a 102 kW, com corrente elétrica de até 260 amperes. Ele gerou 5,4 Newtons de impulso, que é o maior nível de impulso alcançado por qualquer propulsor de plasma até o momento”, acrescentou Gallimore, que é decano de engenharia da Universidade de Michigan. O recorde anterior era de 3,3 Newtons.

40 km por segundo
Os propulsores Hall e outros tipos de motores de íons usam eletricidade (geralmente gerada por painéis solares) para expelir o plasma – uma nuvem semelhante a gás de partículas carregadas – para fora de um bocal, gerando impulso. Esta técnica pode impulsionar a nave espacial a velocidades muito maiores do que os foguetes de propulsão química podem, de acordo com a NASA.
É por isso que os pesquisadores estão tão interessados ​​na aplicação potencial de propulsão iónica para viagens espaciais de longa distância. Considerando que a velocidade máxima que pode ser alcançada por um foguete químico é de cerca de 5 quilômetros por segundo, um propulsor Hall poderia levar uma embarcação até 40 quilômetros por segundo, diz Gallimore.

Os motores de íons também são conhecidos por ser mais eficientes do que os foguetes de potência química. Uma nave espacial com propulsão Hall levaria carga e astronautas para Marte usando muito menos material propulsor do que um foguete químico. Um propelente comum para propulsores de íons é o xenônio. A nave espacial Dawn da NASA, que atualmente está em órbita no planeta anão Ceres, usa esse gás.
Em busca de mais Watts

O ponto negativo dos propulsores de íons, no entanto, é que eles possuem um impulso muito baixo e, portanto, devem operar por um longo tempo para acelerar uma nave espacial a altas velocidades, de acordo com a NASA. Além disso, os propulsores de íons não são poderosos o suficiente para superar a atração gravitacional da Terra, portanto não podem ser usados ​​para lançar a nave espacial.

“Os sistemas de propulsão química podem gerar milhões de kilowatts de energia, enquanto os sistemas elétricos existentes só conseguem 3 a 4 quilowatts”, explica Gallimore. Os propulsores Hall comercialmente disponíveis não são poderosos o suficiente para impulsionar uma nave tripulada até marte, acrescentou.

“O que precisamos para a exploração humana é um sistema que pode processar algo como 500.000 watts (500 kW), ou mesmo um milhão de watts ou mais”, aponta Gallimore. “Isso é algo como 20, 30 ou mesmo 40 vezes o poder dos sistemas convencionais de propulsão elétrica”.

É aí que entra o X3. Gallimore e sua equipe estão abordando o problema da energia, tornando o propulsor maior do que esses outros sistemas e desenvolvendo um design que aborda uma das falhas da tecnologia. “Nós descobrimos que, em vez de ter um canal de plasma, onde o plasma gerado é esgotado do propulsor e produz impulso, teríamos vários canais no mesmo propulsor”, explica. “Nós chamamos isso de canal aninhado”.
De acordo com Gallimore, o uso de três canais permitiu que os engenheiros tornassem o X3 muito menor e mais compacto do que um propulsor de Hall de canal único equivalente deveria ser. A equipe da Universidade de Michigan vem trabalhando na tecnologia em cooperação com a Força Aérea desde 2009. Primeiro, os pesquisadores desenvolveram uma hélice de dois canais, o X2, antes de passar para o X3, mais poderoso e com três canais.
Em fevereiro de 2016, a equipe se associou ao fabricante de foguetes com sede na Califórnia Aerojet Rocketdyne, que está desenvolvendo um novo sistema de propulsão elétrica, chamado XR-100, para o programa NASA Next Space Technologies for Exploration Partnerships ou NextSTEP. O propulsor X3 é uma parte central do sistema XR-100.
Scott Hall, doutorando da Universidade de Michigan que trabalhou no projeto X3 nos últimos cinco anos, disse que o trabalho tem sido bastante desafiador devido ao tamanho do propulsor.
“É pesado – 227 quilos. Tem quase um metro de diâmetro”, diz Hall. “A maioria dos propulsores Hall são o tipo de coisa que uma ou duas pessoas podem pegar e carregar ao redor do laboratório. Precisamos de um guindaste para mover o X3”.
No próximo ano, a equipe executará um teste ainda maior, que visa provar que o propulsor pode operar a plena potência por 100 horas. Gallimore diz que os engenheiros também estão projetando um sistema especial de blindagem magnética que deixaria o plasma longe das paredes do propulsor para evitar danos e permitir que o propulsor funcione de forma confiável por períodos de tempo ainda mais longos. Gallimore diz que, sem a blindagem, uma versão de vôo X3 provavelmente começaria a ter problemas após várias mil horas de operações. Uma versão blindada magneticamente pode ser executada por vários anos com força total, segundo ele. [Space]

13.502 – Física – A Bomba de Antimatéria


antimateria
O mundo foi testemunha do terrível poder destrutivo das bombas nucleares durante a Segunda Guerra Mundial, quando os Estados Unidos as utilizaram sobre Hiroshima e Nagasaki. Até hoje, mais de 70 anos depois, as consequências dessas bombas continuam se manifestando.
Mas nesse meio tempo, as potências nucleares criaram artefatos centenas de vezes mais poderosos. A Rússia, por exemplo, tem em seu poder a Tsar, cujo poder destrutivo é três mil vezes maior que o da bomba de Hiroshima.
Ainda assim, a Tsar parece fichinha perto desta que, se fosse produzida, chegaria a ser cinco vezes mais poderosa que a russa. A bomba em questão utilizaria a “antimatéria”, que, assim como a matéria, teve sua origem no Big Bang. São partículas com propriedades exatamente contrárias à matéria. Sabe-se que, quando uma partícula e uma antipartícula interagem, é causada uma destruição entre elas e ambas são aniquiladas.
Se os cientistas conseguirem criar e conservar átomos de antimatéria nas condições necessárias para ser utilizadas, seus efeitos seriam catastróficos para a vida do planeta Terra. Felizmente, as complicações para criar essa bomba são muitas, e a primeira é o seu valor: acredita-se que para obter 1 g de antimatéria seriam necessários algo em torno de 62,5 trilhões de dólares.

13.488 – Nobel 2017 – Prêmio Nobel de Física vai para pesquisadores de buracos negros


nobel 2017
O Prêmio Nobel de Física deste ano foi dado aos cientistas Rainer Weiss, do Instituto de Tecnologia de Massachusetts, e Kip Thorne e Barry Barish, do Instituto de Tecnologia da Califórnia, pela descoberta de ondulações no espaço-tempo, conhecidas como ondas gravitacionais.
Essas “ondas” foram previstas por Albert Einstein um século atrás, mas não tinham sido detectadas diretamente até pouco tempo.
O Dr. Weiss receberá metade do prêmio de 9 milhões de coroas suecas (cerca de R$ 3,47 bilhões, no câmbio atual) e Dr. Thorne e Dr. Barish dividirão a outra metade.

A teoria
A importante descoberta aconteceu em fevereiro de 2016, quando uma colaboração internacional de físicos e astrônomos anunciou que haviam registrado ondas gravitacionais provenientes da colisão de um par de buracos negros maciços, a um bilhão de anos-luz de nós.
O trabalho validou uma previsão de longa data de Einstein. Em 1916, o físico propôs a teoria da relatividade geral, afirmando que o universo era como um tecido feito de espaço e tempo. Esse tecido podia se dobrar devido a objetos maciços, como estrelas e planetas.
Einstein também propôs que, quando dois objetos maciços interagem, eles podem criar uma ondulação no espaço-tempo. Tais ondulações deveriam ser detectáveis se pudéssemos construir instrumentos suficientemente sensíveis.

Os avanços
Weiss, Thorne e Barish foram os arquitetos e líderes do LIGO, o Observatório de Ondas Gravitacionais por Interferômetro Laser, o instrumento que finalmente foi capaz de detectar essas ondas. Mais de mil cientistas participaram de uma colaboração para analisar os dados do LIGO.
Tal instrumento permaneceu um sonho até a década de 1970. Foi nessa época que Rainer Weiss sugeriu um projeto que ele pensava poder detectar ondas gravitacionais. Suas ideias foram então traduzidas em realidade através de uma série de pesquisadores, incluindo Kip Thorne, Ronald Drever e Barry Barish, no que se tornaria o LIGO.
Muitas etapas, US$ 1 bilhão em gastos e 40 anos se passaram até que a versão mais avançada do observatório, lançada em setembro de 2015, finalmente capturou o primeiro sinal que significaria a abertura de todo um novo campo da astronomia.

13.394 – Física – O Magnetismo


Bússola
Trata-se da capacidade de atração em imãs, ou seja, a capacidade que um objeto possui de atrair outros objetos.
Os imãs naturais são compostos por pedaços de ferro magnético ou rochas magnéticas como a magnetita (óxido de ferro Fe3O4). Os imãs artificiais são produzidos por ligas metálicas, como por exemplo, níquel-cromo.
O fenômeno do magnetismo pode ser explicado através das forças dipolo. Por exemplo, os materiais possuem dois diferentes polos, quando entram em contato com outros materiais os polos iguais se repelem e os polos opostos se atraem. Este fenômeno recebe a denominação de “dipolo magnético” e pode ser considerado uma grandeza. A força do imã é determinada por essa grandeza. Os próprios átomos são considerados imãs, por exemplo, com polos norte e sul. As bússolas magnéticas trabalham com base no magnetismo, veja o processo de funcionamento:

– Um imã pequeno e leve se encontra no ponteiro das bússolas, este imã estabelece ao seu redor um campo magnético e está equilibrado sobre um ponto que funciona como pivô: sem atrito e de fácil movimento;

– quando o imã é situado em um campo de outro imã, esse tende a se alinhar ao campo de referência;

– a Terra possui um campo magnético que funciona como referencial para o funcionamento da bússola..

O ímã é um minério que tem a propriedade de atrair pedaços de ferro. A esse minério foi dado o nome de magnetita, por ser encontrado numa região chamada Magnésia, localizada na atual Turquia.

Os ímãs possuem dois polos que são denominados de polo norte e polo sul, se tivermos dois imãs próximos, observamos que polos de mesmo nome se repelem e que polos de nomes diferentes se atraem, quer dizer: polo norte repele polo norte, polo sul repele polo sul, e polo norte e polo sul se atraem.
Um determinado ímã cria no espaço em sua volta um campo magnético que podemos representar pelas linhas de indução magnética, essas linhas de indução atravessam de um polo a outro do ímã. É por esse motivo, inclusive, que mesmo que um ímã seja partido ao meio, separando os polos: norte e sul, ele sempre se reorganizará de maneira a formar dois polos. Em outras palavras, podemos afirmar que não existe monopolo magnético. Se pegarmos pequenas bússolas e colocarmos sobre as linhas de indução magnética, a agulha da bússola sempre apontará na mesma direção do vetor indução magnética B, e o norte da agulha no mesmo sentido de B, ou seja, B estará apontando para o polo sul do ímã. Assim, podemos dizer que em cada ponto em torno do ímã, o vetor B se afasta do polo norte e se aproxima do polo sul. Na região dos polos vemos que as linhas de indução magnética estão mais próximas umas das outras, sendo assim, consideramos que próximos aos polos o campo magnético é mais intenso.
É possível visualizar as linhas de indução magnética, espalhando limalhas de ferro em torno de um ímã. Os traços formados pela limalha representam as linhas de indução magnética.
Campo magnético da Terra

Nosso planeta se comporta como um gigantesco ímã. Sendo assim, ele cria à sua volta um campo magnético. Quando observamos uma bússola, vemos que o polo norte da agulha da bússola se orienta na direção do norte geográfico. Como polos de nomes diferentes se atraem, concluímos que o polo norte da agulha da bússola está sendo atraída pelo polo sul da Terra. Então o polo sul magnético coincide com o polo norte geográfico e o polo norte magnético coincide com o polo sul geográfico.
Os polos magnéticos da Terra têm uma pequena inclinação em relação ao seu eixo de rotação, essa inclinação é de aproximadamente 11°. Cientistas acreditam que essa propriedade magnética deve-se ao movimento circular de correntes elétricas no núcleo de ferro fundido do planeta. Pesquisas mostram que as posições dos polos magnéticos mudam com o passar dos anos, chegando a inverter sua polaridade, os polos norte e sul trocam sua posição.

interacao-polos

 

13.393 – Temperatura e Sensação Térmica


O conceito de temperatura é associado à sensação térmica de quente e frio, o que pode gerar estimativas equivocadas de temperatura. A sensação térmica é a percepção da temperatura pelo indivíduo,que é influenciada pela temperatura ambiente e também por outros fatores, como estado de saúde, umidade do ar e velocidade do vento. Varia de uma pessoa para outra e até a mesma pessoa pode ter sensações térmicas distintas em uma mesma situação.
Assim, a sensação térmica não é um indicador preciso para decidir a condição térmica de um sistema. O conceito de temperatura que é fundamental para isso.

13.392 – Física – O Dissipador de Energia Térmica


cooler
É um objeto de metal geralmente feito de cobre ou alumínio, que, pelo fenômeno da condução térmica, busca maximizar, via presença de uma maior área por onde um fluxo térmico possa ocorrer, a taxa de dissipação térmica – ou seja, de calor – entre qualquer superfície com a qual esteja em contato térmico e o ambiente externo. Dissipadores térmicos têm por objetivo garantir a integridade de equipamentos que podem se danificar caso a expressiva quantidade de energia térmica gerada durante seus funcionamentos não seja deles removida e dissipada em tempo hábil.
Um dissipador térmico é essencialmente usado nos casos em que a fonte de energia térmica implique por si só uma elevada radiância térmica, a exemplo em circuitos eletrônicos com elevado grau de integração ou em componentes de hardware de equipamentos que satisfazem o requisito, como as unidades centrais de processamento de computadores e video games, processadores gráficos, e outros. Em essência, o dissipador busca estabelecer uma maior condutividade térmica entre os sistemas integrados e o ambiente externo de forma que a taxa de dissipação de energia térmica requisitada ao componente não implique, entre o ambiente externo e o interno, uma diferença de temperaturas que possa comprometer a estrutura interna do componente.
Aos dissipadores dotados de uma ventoinha acoplada em suas estruturas dá-se o nome de cooler, sendo esses soluções ativas de refrigeração, enquanto que os dissipadores sem ventoinha são passivos nesse aspecto. Os dissipadores dotados de ventoinhas propiciam a dissipação de energia térmica de forma muito mais eficiente que os dissipadores passivos, que contam apenas com o fenômeno de convecção térmica para auxiliá-los na tarefa.

Passivos
Os dissipadores passivos não são dotadas de ventoinhas e por isso não tem a capacidade de resfriar superfícies que gerem grande quantidade de calor. Em equipamentos de hardware são usados em chips que geram pouco calor, como chipsets e controladoras. Os mesmos possuem vantagens como não gerar ruído e não consumir eletricidade

Ativos
Dissipadores ativos ou coolers tem uma capacidade de refrigeração muito melhor que o dissipador passivo, já que combinando uma maior área de dissipação e uma corrente de ar passando por essa área, é possível o calor a uma taxa maior. O fluxo intenso de ar junto às lâminas impõe temperaturas mais baixas em suas superfícies e por tal gradientes de temperatura e taxas de calor mais acentuadas do que as obtidas nos dissipadores passivos, que contam apenas com o fluxo de ar induzido pelo fenômeno de convecção térmica para tal propósito. Tem seu uso destinado a componentes que exigem grandes taxas de calor, como os processadores.
O aumento excessivo da temperatura de muitos equipamentos podem fazer os mesmos queimarem. Em processadores, por exemplo, um aumento excessivo de temperatura pode através dos diferentes índices de expansão dos metais, causar microrrupturas na superfície do chip e em seus circuitos, ou em casos extremos sua fusão. O acúmulo de energia térmica e a elevação associada na temperatura podem literalmente derreter os minúsculos circuitos do processador caso não exista um cooler instalado na maioria quase absoluta dos casos, salvo aqueles chips que desenvolvem reduzida potência elétrica, e que por isso não demandam uma solução de refrigeração muito eficiente, como chipsets, processadores de baixíssimo consumo, controladoras, etc.
Entre a superfície de onde origina o calor e o dissipador deve-se utilizar algum elemento que facilite a existência de calor, geralmente uma pasta conhecida como pasta térmica – dado que nenhuma das superfícies são perfeitamente planas. Em virtude da rugosidade microscópica das superfícies, sem a presença da pasta há um grande número de pequenos pontos onde o contato entre as duas superfícies não ocorre de forma eficiente, o que, em termos práticos, diminui a área efetiva de contato, e assim o calor, para o dissipador. A pasta térmica é utilizada com freqüência em componentes de hardware, assim como a fita térmica auto-colante. Estes recursos preenchem as microfraturas existentes do processo de fabricação, tanto do cooler quanto dos shim (capa protetora do die), evitando qualquer espaçamento entre a superfície do chip e a superfície do dissipador de calor.

13.387 – O Modelo Atômico de Niels Bohr


Bohr
Com a ideia do átomo consolidada, vários cientistas trabalhavam na tentativa de propor um modelo que explicasse de forma significativa as observações e resultados experimentais conhecidos. Um desses cientistas foi Rutherford que, em seu modelo, explicava o átomo como tendo quase toda sua massa em seu núcleo com carga positiva e que os elétrons com carga negativa giravam ao redor desse núcleo. Porém, pelas leis da física clássica, esse modelo não poderia existir, pois, de acordo com o eletromagnetismo clássico, os elétrons, como qualquer carga em movimento acelerado, ao girar ao redor do núcleo, emitem radiação e, ao emitir essa radiação, eles perdem energia. Assim, os elétrons perderiam toda sua energia e se chocariam com o núcleo.
Como era preciso a criação de um modelo para explicar a estrutura atômica, em 1913, Bohr propôs um modelo atômico. Seu modelo estava baseado em dois postulados:
1º. Os elétrons só podem girar ao redor do núcleo em órbitas circulares, essas órbitas são chamadas de órbitas estacionárias e enquanto eles estão nessas órbitas, não emitem energia.
2º. A energia absorvida ou emitida por um átomo é equivalente ao número inteiro de um quanta.

Cada quanta tem energia igual a h.f, em que f é a frequência da radiação e h é a constante de Planck. Portanto, a variação de energia produzida num átomo será igual à energia emitida ou recebida.
É importante ressaltar que as hipóteses de Niels Bohr tinham como objetivo explicar o comportamento do movimento do elétron ao redor do núcleo do átomo de hidrogênio e que não foi deduzida de teorias já conhecidas. Apesar de conseguir explicar o movimento do elétron no átomo de hidrogênio, o modelo proposto por Bohr não obteve o mesmo resultado quando aplicado a átomos de outros elementos, não sanando o problema da estrutura atômica. É aí que surge a mecânica quântica, para explicar de forma mais satisfatória a estrutura atômica.

13.386 – Física e Eletricidade – O Modelo Atômico de Thompson de 1897


Se a matéria é formada por átomos e também por cargas elétricas, é provável que estes também apresentem cargas elétricas. Novos experimentos com eletricidadem e transformações químicas, como a obtenção do metal alumínio a partir da bauxita, permitiu aos cientistas identificar e caracterizar as cargas elétricas.
O modelo até então aceito era o de Dalton, em que o átomo era considerado uma partícula maciça e indivisível, no entanto novos estudos exigiram alteração nesse modelo, acrescentando-se cargas elétricas.
Thomson propôs o modelo em que o átomo seria uma esfera positiva contendo corpúsculos de carga elétrica negativa.

thomson nobel

Joseph John Thompson ou JJ Thompson era um físico inglês que ganhou o prêmio Nobel de 1906 pela descoberta do elétron. Os estudos realizados por ele determinaram a relação entre carga elétrica, massa e partícula, como também o levaram a concluir que o átomo era formado por elétrons distribuídos em uma massa positiva, como as passas em um pudim.

13.385 – Por que a matéria se comporta como neutra do ponto de vista elétrico, se ela é formada por cargas positivas e negativas?


Quando um corpo está eletrizado, ele possui uma carga elétrica, já quando não se encontra eletrizado ele está neutro ou descarregado. Os cientistas constataram que dois quaisquer desses corpos, ao se aproximarem, apresentam dois comportamentos diferentes;

-os dois corpos se atraem;
-os dois corpos se repelem.

 

Os dois tipos de carga elétrica foram denominados:

-carga negativa;
-carga positiva.

Conclui-se que cargas elétricas de mesmo sinal se repelem, e as cargas de sinais opostos se atraem.

Simples assim:

cargas1

carga2

13.339 – Teletransporte: Engatinhando, mas é assim que começa – Cientistas teletransportam partícula da Terra para o espaço


teletransporte-williammpark-shuttersock.com_
Equipe chinesa que lançou o satélite Micius anunciou que conseguiu usar a rede quântica do dispositivo para teletransportar uma partícula da superfície terrestre para a atmosfera pela primeira vez.
A técnica utilizada consiste em um estranho fenômeno conhecido como “entrelaçamento”, que pode acontecer quando partículas quânticas, como os fótons, se formam ao mesmo tempo e no mesmo ponto do espaço, dividindo a existência. Em termos técnicos, eles são descritos com a mesma função de onda — o interessante é que a experiência continua mesmo quando os objetos estão distantes no Universo. Logo, quando um é afetado o outro também é.
Apesar de a informação já ser conhecida há anos, uma experiência como a chinesa nunca havia sido realizada. Isso porque a técnica é muito frágil, pois as partículas interagem com a matéria na atmosfera ou dentro de fibras óticas, o que faz com que a relação entre elas seja perdida. No caso do experimento, os fótons continuaram se relacionando, mesmo estando a 500 km de distância.
“Experimentos anteriores de teletransporte entre locais distantes foram limitados a cem quilômetros, devido à perda de fótons em fibras ópticas ou canais terrestres livres”, afirmou a equipe em entrevista ao MIT Technology Review. Por isso o feito dos chineses foi tão surpreendente.
O time de cientistas mandou milhões de fótons para o espaço durante 32 dias, mas só obtiveram 911 respostas positivas. “Relatamos o primeiro teletransporte quântico de qubits independentes de um único fóton a partir de um observatório terrestre até um satélite na órbita terrestre — através de um canal de ligação ascendente — com uma distância de até 1,4 mil km”, afirmaram.
O feito coloca os chineses em posição de liderança da área, que era até então dominada pela Europa e pelos Estados Unidos. “Esse trabalho estabelece a primeira ligação ascendente terra-satélite para o teletransporte quântico ultra-longo, um passo essencial para a internet quântica de escala global”.

13.338 – A Balança Hidrostática


bALANÇA-HIDROSTATICA-GALILEU
É um mecanismo experimental destinado ao estudo da força de impulsão exercida por líquidos sobre os corpos neles imersos. Foi inventada por Galileu Galilei.
Seu funcionamento se baseia no princípio de Arquimedes (um corpo perde aparentemente um peso igual à quantidade de líquido ou gás deslocado) e está especialmente concebida para a determinação de densidades de sólidos e líquidos. Este tipo de balança é constituída por: prumo, termómetro, copo, alça, parafuso de compensação, escala graduada, cursor superior deslizante, encaixe, cursor inferior deslizante, pontas, parafuso para acerto e suporte. Estas balanças necessitam de ser calibradas antes de se efectuar a medição de densidades.

O procedimento a ser seguido :

Pesa-se o mineral a seco
Pesa-se o mineral imerso em água, o que é conseguido pendurando o mineral em um fio amarrado em um dispositivo ligado ao prato da balança. O recipiente com água onde será imerso o mineral deverá ficar sobre o prato da balança, sem tocá-lo, o que se consegue com uma plataforma ponte, apoiada sobre a mesa onde está a balança.
A densidade relativa será calculada dividindo-se o peso do mineral a seco pela diferença do peso a seco e do peso imerso em água, pois esta diferença nos dá, pelo Princípio de Arquimedes, o empuxo a que está sendo submetido o mineral, que é igual ao peso do volume de água deslocado pelo mineral, sendo que este volume é o volume do mineral.
O objetivo será determinar a densidade de um objeto utilizando apenas uma balança comum e uma balança hidrostática. Não se dispõe de instrumentos para aferir de forma direta o volume do objeto. A balança hidrostática utiliza o Empuxo de Arquimedes, então é por ele que se inicia a dedução apresentada a seguir.
O empuxo de Arquimedes é definido como uma força vertical e para cima com módulo equivalente ao peso do líquido deslocado.
O peso de líquido deslocado é igual ao produto do volume de líquido deslocado pela massa específica do líquido e pela aceleração da gravidade.

balança2

13.278 – Física – GRANDEZAS VETORIAIS E ESCALARES


vetor-fora-3-728
Enunciado:
A grandeza escalar é definida quando o seu módulo e sua unidade de medida estão especificados. Já a grandeza vetorial é representada por um “ente” matemático denominado de vetor.
A grandeza escalar é definida quando o seu módulo e sua unidade de medida estão especificados. Já a grandeza vetorial é representada por um “ente” matemático denominado de vetor.
Exemplos de grandezas vetoriais: velocidade, aceleração, deslocamento, força, quantidade de movimento, impulso, campo elétrico, campo magnético, empuxo etc.

Outras grandezas, como o tempo, não necessitam de uma orientação. Se alguém disser que agora são 16h e 35min, você não perguntaria se essa hora é horizontal para a direita ou vertical para cima. Quando apenas o valor da grandeza é suficiente para mostrar a ideia que se quer passar, a grandeza é dita escalar.
Exemplo de grandezas escalares: massa, temperatura, tempo, energia, pressão, potencial elétrico etc.

Vetores
A ideia matemática de vetor encaixou-se perfeitamente na Física para descrever as grandezas que necessitavam de uma orientação. Vetores não são entes palpáveis, como um objeto que se compra no mercado, eles são representações.
Esse vetor poderia ser usado para representar o deslocamento do carro que se movia na rodovia 1 da esquerda para a direita. Poderíamos também dizer que seu comprimento representa um deslocamento de 100 m, o que implica que um deslocamento de 200 m seria representado por outro vetor com o dobro do tamanho do comprimento, pois o comprimento de um vetor caracteriza seu valor ou, usando um termo mais técnico, o comprimento caracteriza seu módulo. Chamamos o módulo do vetor acrescido de uma quantidade de medida de “intensidade da grandeza vetorial”.

A reta que serve de suporte para um vetor mostra a direção; e a seta caracteriza o sentido. Resumindo: para um vetor qualquer, temos:

partes de um vetor

13.276 – Instrumentos – O Dinamômetro


dinamômetro2
Força é o resultado da interação entre dois ou mais corpos. Essa grandeza é medida em newton (N) de acordo com o S.I.
Um dispositivo que pode ser utilizado para medir a força chama-se dinamômetro.
Este dispositivo é dotado de:
• Estrutura
• Mola
• Gancho em uma das extremidades da mola
• Graduação na estrutura
Em uma das extremidades da mola encontra-se presa a estrutura graduada e em outra extremidade, o gancho, que se localiza fora da estrutura.

dinamometro
O princípio de funcionamento consiste na deformação que a mola sofre em razão da ação de uma força que é proporcional a esta força aplicada, sua intensidade é indicada na graduação existente na estrutura (dinamômetro ideal).
Em algumas feiras, vendedores de peixes utilizam um dispositivo com estas características com a finalidade de medir a massa (massa é dita usualmente como peso) dos peixes vendidos. Massa e peso são grandezas diferentes; uma forma de resolver este impasse é associar à graduação a divisão de cada valor por 9,8 (valor da aceleração da gravidade nas proximidades da Terra), pois aí sim ele estará apto a medir a massa que os peixes possuem em valor aproximado, pois a aceleração da gravidade na superfície terrestre é variável, tornando a massa também variável, e se graduado como proposto (dividindo os valores da escala por 9,8) este dispositivo só mediria a massa em valor aproximado em locais que possuem a aceleração da gravidade igual ou bem próxima a 9,8m/s².

13.274 – Fundamentos de Eletricidade – Corrente Alternada e Corrente Contínua


princpios-da-corrente-alternada-8-638
A corrente elétrica é um fluxo de elétrons (partículas de energia) que passa em um fio ou condutor. Quando os elétrons se movimentam em um sentido único, continuamente, essa corrente é chamada de contínua. Porém, se os elétrons mudam de direção constantemente, trata-se de uma corrente alternada.
Na prática, a principal diferença entre esses dois tipos de corrente elétrica está na capacidade de transmitir a energia. Em geral, a corrente alternada consegue atingir uma voltagem muito maior que a corrente contínua, o que significa que ela consegue chegar mais longe sem perder força.
A energia elétrica que consumimos nas nossas residências é produzida em usinas que ficam a muitos quilômetros de distância. Quando chega à tomada, portanto, a energia já percorreu um longo caminho, sendo transmitida por corrente alternada — o que, inclusive, evita desperdício de energia.
Apesar de ser mais vantajosa economicamente, a elevada tensão da corrente alternada pode ser muito perigosa, uma vez que pode provocar choques fatais. Justamente por isso, a alta voltagem é transformada em tensões mais baixas para entrar nas residências: geralmente 120 ou 220 volts.

Pulsante:

ccca2

Embora não altere seu sentido as correntes contínuas pulsantes passam periodicamente por variações, não sendo necessariamente constantes entre duas medidas em diferentes intervalos de tempo.
A ilustração do gráfico acima é um exemplo de corrente contínua constante.
Esta forma de corrente é geralmente encontrada em circuitos retificadores de corrente alternada.

13.261 – Física – O campo magnético da Terra


campos-magneticos-terra
É como o campo magnético de um gigantesco ímã em forma de barra, que atravessa desde o Pólo Sul até o Pólo Norte do planeta. Mas é importante lembrar que os Pólos Magnéticos da Terra tem uma inclinação de 11,5° em relação aos Pólos Geográficos. Lembremos também que o Pólo Norte Geográfico também é inclinado em relação à linha perpendicular ao plano da órbita da Terra.

“… Note que o pólo norte magnético é, na realidade, um pólo sul do dipolo que representa o campo da Terra. O eixo magnético está aproximadamente na metade entre o eixo de rotação de rotação e a normal ao plano da órbita da Terra…” HALLIDAY (2004) pg.268.
É interessante salientar que os Pólos Norte e Sul determinados geograficamente são na verdade os pontos onde emergem as extremidades do eixo em torno do qual a Terra gira. O Pólo Norte Magnético considerado é o ponto de onde emergem as linhas de campo magnético mostradas na figura. E o Pólo Sul Magnético é na verdade o ponto para onde convergem as linhas de campo magnético que emergem do Pólo Sul Geográfico. No caso de um ímã, o norte é atraído pelo sul. Ou seja, o norte do ímã apontará para o pólo sul do campo magnético do interior da Terra.
Esse campo magnético do planeta é percebido e utilizado por diversas espécies de animais, como aves migratórias.

13.248 – Física – Teorias da Viagem no Tempo


viagem no tempo
Buracos negros: Alguns cientistas afirmam que os buracos negros permitirão viajar no tempo ou a universos paralelos. Sua curvatura espaço-temporal poderá funcionar como um portal interdimensional.

A rosquinha: O cientista israelense Amos Ori acredita que, nos próximos séculos, a humanidade será capaz de construir uma máquina do tempo que poderá curvar o espaço como um donut e permitir o salto a outras épocas.

Cordas cósmicas: Essa hipótese diz que a matéria é, na verdade, um estado vibracional, cuja manipulação permitirá fazer viagens no tempo e no espaço.

Cilindro de Tipler: O físico Frank J. Tipler desenvolveu, em 1974, uma teoria segundo a qual seria possível viajar no tempo através de um cilindro de alta densidade e capaz de girar à velocidade da luz.

Matéria exótica: É considerada matéria exótica a matéria que não obedece a uma ou mais leis da física clássica. Alguns cientistas acreditam que essas partículas permitiriam viagens no tempo ao possibilitar mudanças na relação espaço-tempo.

13.228 – Física – Polêmica de Pons e Fleischmann sobre fusão à frio


fusao ou ilusao

fusao
Show de mídia mas a descoberta era furada

Em 23 de março de 1989, dois químicos da Universidade de Utah, o americano Stanley Pons e o britânico Martin Fleischmann, foram catapultados à fama. Numa coletiva, anunciaram que o sonho da energia ilimitada, limpa e barata estava para se realizar. Disseram ter conseguido obter na temperatura ambiente do laboratório a fusão nuclear, o mesmo processo que gera a energia do Sol. A descoberta foi batizada de “fusão fria” (no Sol, as temperaturas chegam a 15 milhões de graus centígrados).
A perplexidade e a descrença só não são totais porque também em ciência a esperança é a última que morre. A experiência divulgada pela dupla em fins de março numa entrevista à imprensa- por si só uma grave quebra de protocolo cientifico que irritou não poucos acadêmicos – foi reproduzida a toque de caixa por pesquisadores americanos e de outros países, entre os quais o Brasil, mas raras tentativas deram certo e houve pelo menos um caso em que os pesquisadores precisaram retratar-se depois de cantar vitória.
A fusão nuclear é a junção de dois núcleos atômicos de um tipo de hidrogênio, o deutério; processo que resulta na liberação de uma fenomenal quantidade de energia, sem a radioatividade liberada pelo urânio das usinas nucleares e com a vantagem de que o deutério tem na água do mar fonte quase inesgotável. O problema é que, para fazer os núcleos de deutério se fundirem, é preciso reproduzir as altíssimas temperaturas solares. Todos os processos conhecidos gastam mais energia do que produzem e só se sustentam por uma fração de segundo.
Por isso, o mundo entrou em polvorosa. Os pesquisadores de Utah tinham mergulhado dois eletrodos, um de paládio, outro de platina, em água rica em deutério. A corrente elétrica produziu tanta energia (na forma de calor), que o eletrodo de paládio se derreteu. A única explicação, diziam, é que tinha ocorrido a fusão.
Antes do fim de abril, os ventos tinham mudado para Pons e Fleischmann. A revista “Nature” recusou-se a publicar o artigo científico em que relatavam suas pesquisas, alegando insuficiência de dados. Os físicos das instituições mais respeitadas, como o institutos de tecnologias da Califórnia e de Massachusetts, passaram o trator: a verdadeira fusão nuclear produz, além de calor, uma grande quantidade de nêutrons e um isótopo chamado hélio-4. No experimento de Pons e Fleischmann nada disso havia sido detectado. Estes argumentaram que tinham encontrado nêutrons, mas atrapalharam-se nas explicações. Acusados de açodamento ou má-fé, mergulharam na obscuridade.
Os resultados da pesquisa pareciam espetaculares. Afinal, a fusão nuclear é perseguida há anos pelos cientistas como a salvação energética do mundo. Sua reação-irmã, a fissão, usada em usinas nucleares, tem os inconvenientes de utilizar átomos pesados (e difíceis de obter), como o urânio, e de gerar lixo atômico. Até hoje, tudo o que se conseguiu foi fundir átomos aos pares, usando imensos aceleradores de partículas.
Tão espetacular parecia a “fusão portátil” que a direção do Oak Ridge desconfiou. Pediu a uma dupla de físicos do laboratório que refizesse o experimento, usando um detector de nêutrons mais sensível. A conclusão foi de que os resultados haviam sido uma ilusão. “Não há evidências do excesso de nêutrons que caracteriza a fusão”, disse um dos físicos, Michel Saltamarsh, à revista eletrônica “Science Now”.
Outros físicos também atacaram o experimento de Taleyarkhan e Lahey: “O trabalho é uma colcha de retalhos, e cada remendo tem um furo”, disse Mike Moran, do Laboratório Nacional Lawrence Livermore, na Califórnia.
A polêmica chegou perto do ponto de fusão quando diretores do Oak Ridge pressionaram o editor da “Science”, Donald Kennedy, a adiar a data de publicação do artigo -ou a simplesmente enterrá-lo. O temor era que a pesquisa estivesse repetindo uma das maiores fraudes científicas da história, a da fusão nuclear a frio.
Anunciada em 1989 pelos físicos Stanley Pons e Martin Fleischmann, a fusão a frio foi alardeada na imprensa como a descoberta do século, para depois se provar um experimento irrealizável.

fs noticia