13.394 – Física – O Magnetismo


Bússola
Trata-se da capacidade de atração em imãs, ou seja, a capacidade que um objeto possui de atrair outros objetos.
Os imãs naturais são compostos por pedaços de ferro magnético ou rochas magnéticas como a magnetita (óxido de ferro Fe3O4). Os imãs artificiais são produzidos por ligas metálicas, como por exemplo, níquel-cromo.
O fenômeno do magnetismo pode ser explicado através das forças dipolo. Por exemplo, os materiais possuem dois diferentes polos, quando entram em contato com outros materiais os polos iguais se repelem e os polos opostos se atraem. Este fenômeno recebe a denominação de “dipolo magnético” e pode ser considerado uma grandeza. A força do imã é determinada por essa grandeza. Os próprios átomos são considerados imãs, por exemplo, com polos norte e sul. As bússolas magnéticas trabalham com base no magnetismo, veja o processo de funcionamento:

– Um imã pequeno e leve se encontra no ponteiro das bússolas, este imã estabelece ao seu redor um campo magnético e está equilibrado sobre um ponto que funciona como pivô: sem atrito e de fácil movimento;

– quando o imã é situado em um campo de outro imã, esse tende a se alinhar ao campo de referência;

– a Terra possui um campo magnético que funciona como referencial para o funcionamento da bússola..

O ímã é um minério que tem a propriedade de atrair pedaços de ferro. A esse minério foi dado o nome de magnetita, por ser encontrado numa região chamada Magnésia, localizada na atual Turquia.

Os ímãs possuem dois polos que são denominados de polo norte e polo sul, se tivermos dois imãs próximos, observamos que polos de mesmo nome se repelem e que polos de nomes diferentes se atraem, quer dizer: polo norte repele polo norte, polo sul repele polo sul, e polo norte e polo sul se atraem.
Um determinado ímã cria no espaço em sua volta um campo magnético que podemos representar pelas linhas de indução magnética, essas linhas de indução atravessam de um polo a outro do ímã. É por esse motivo, inclusive, que mesmo que um ímã seja partido ao meio, separando os polos: norte e sul, ele sempre se reorganizará de maneira a formar dois polos. Em outras palavras, podemos afirmar que não existe monopolo magnético. Se pegarmos pequenas bússolas e colocarmos sobre as linhas de indução magnética, a agulha da bússola sempre apontará na mesma direção do vetor indução magnética B, e o norte da agulha no mesmo sentido de B, ou seja, B estará apontando para o polo sul do ímã. Assim, podemos dizer que em cada ponto em torno do ímã, o vetor B se afasta do polo norte e se aproxima do polo sul. Na região dos polos vemos que as linhas de indução magnética estão mais próximas umas das outras, sendo assim, consideramos que próximos aos polos o campo magnético é mais intenso.
É possível visualizar as linhas de indução magnética, espalhando limalhas de ferro em torno de um ímã. Os traços formados pela limalha representam as linhas de indução magnética.
Campo magnético da Terra

Nosso planeta se comporta como um gigantesco ímã. Sendo assim, ele cria à sua volta um campo magnético. Quando observamos uma bússola, vemos que o polo norte da agulha da bússola se orienta na direção do norte geográfico. Como polos de nomes diferentes se atraem, concluímos que o polo norte da agulha da bússola está sendo atraída pelo polo sul da Terra. Então o polo sul magnético coincide com o polo norte geográfico e o polo norte magnético coincide com o polo sul geográfico.
Os polos magnéticos da Terra têm uma pequena inclinação em relação ao seu eixo de rotação, essa inclinação é de aproximadamente 11°. Cientistas acreditam que essa propriedade magnética deve-se ao movimento circular de correntes elétricas no núcleo de ferro fundido do planeta. Pesquisas mostram que as posições dos polos magnéticos mudam com o passar dos anos, chegando a inverter sua polaridade, os polos norte e sul trocam sua posição.

interacao-polos

 

Anúncios

13.393 – Temperatura e Sensação Térmica


O conceito de temperatura é associado à sensação térmica de quente e frio, o que pode gerar estimativas equivocadas de temperatura. A sensação térmica é a percepção da temperatura pelo indivíduo,que é influenciada pela temperatura ambiente e também por outros fatores, como estado de saúde, umidade do ar e velocidade do vento. Varia de uma pessoa para outra e até a mesma pessoa pode ter sensações térmicas distintas em uma mesma situação.
Assim, a sensação térmica não é um indicador preciso para decidir a condição térmica de um sistema. O conceito de temperatura que é fundamental para isso.

13.392 – Física – O Dissipador de Energia Térmica


cooler
É um objeto de metal geralmente feito de cobre ou alumínio, que, pelo fenômeno da condução térmica, busca maximizar, via presença de uma maior área por onde um fluxo térmico possa ocorrer, a taxa de dissipação térmica – ou seja, de calor – entre qualquer superfície com a qual esteja em contato térmico e o ambiente externo. Dissipadores térmicos têm por objetivo garantir a integridade de equipamentos que podem se danificar caso a expressiva quantidade de energia térmica gerada durante seus funcionamentos não seja deles removida e dissipada em tempo hábil.
Um dissipador térmico é essencialmente usado nos casos em que a fonte de energia térmica implique por si só uma elevada radiância térmica, a exemplo em circuitos eletrônicos com elevado grau de integração ou em componentes de hardware de equipamentos que satisfazem o requisito, como as unidades centrais de processamento de computadores e video games, processadores gráficos, e outros. Em essência, o dissipador busca estabelecer uma maior condutividade térmica entre os sistemas integrados e o ambiente externo de forma que a taxa de dissipação de energia térmica requisitada ao componente não implique, entre o ambiente externo e o interno, uma diferença de temperaturas que possa comprometer a estrutura interna do componente.
Aos dissipadores dotados de uma ventoinha acoplada em suas estruturas dá-se o nome de cooler, sendo esses soluções ativas de refrigeração, enquanto que os dissipadores sem ventoinha são passivos nesse aspecto. Os dissipadores dotados de ventoinhas propiciam a dissipação de energia térmica de forma muito mais eficiente que os dissipadores passivos, que contam apenas com o fenômeno de convecção térmica para auxiliá-los na tarefa.

Passivos
Os dissipadores passivos não são dotadas de ventoinhas e por isso não tem a capacidade de resfriar superfícies que gerem grande quantidade de calor. Em equipamentos de hardware são usados em chips que geram pouco calor, como chipsets e controladoras. Os mesmos possuem vantagens como não gerar ruído e não consumir eletricidade

Ativos
Dissipadores ativos ou coolers tem uma capacidade de refrigeração muito melhor que o dissipador passivo, já que combinando uma maior área de dissipação e uma corrente de ar passando por essa área, é possível o calor a uma taxa maior. O fluxo intenso de ar junto às lâminas impõe temperaturas mais baixas em suas superfícies e por tal gradientes de temperatura e taxas de calor mais acentuadas do que as obtidas nos dissipadores passivos, que contam apenas com o fluxo de ar induzido pelo fenômeno de convecção térmica para tal propósito. Tem seu uso destinado a componentes que exigem grandes taxas de calor, como os processadores.
O aumento excessivo da temperatura de muitos equipamentos podem fazer os mesmos queimarem. Em processadores, por exemplo, um aumento excessivo de temperatura pode através dos diferentes índices de expansão dos metais, causar microrrupturas na superfície do chip e em seus circuitos, ou em casos extremos sua fusão. O acúmulo de energia térmica e a elevação associada na temperatura podem literalmente derreter os minúsculos circuitos do processador caso não exista um cooler instalado na maioria quase absoluta dos casos, salvo aqueles chips que desenvolvem reduzida potência elétrica, e que por isso não demandam uma solução de refrigeração muito eficiente, como chipsets, processadores de baixíssimo consumo, controladoras, etc.
Entre a superfície de onde origina o calor e o dissipador deve-se utilizar algum elemento que facilite a existência de calor, geralmente uma pasta conhecida como pasta térmica – dado que nenhuma das superfícies são perfeitamente planas. Em virtude da rugosidade microscópica das superfícies, sem a presença da pasta há um grande número de pequenos pontos onde o contato entre as duas superfícies não ocorre de forma eficiente, o que, em termos práticos, diminui a área efetiva de contato, e assim o calor, para o dissipador. A pasta térmica é utilizada com freqüência em componentes de hardware, assim como a fita térmica auto-colante. Estes recursos preenchem as microfraturas existentes do processo de fabricação, tanto do cooler quanto dos shim (capa protetora do die), evitando qualquer espaçamento entre a superfície do chip e a superfície do dissipador de calor.

13.387 – O Modelo Atômico de Niels Bohr


Bohr
Com a ideia do átomo consolidada, vários cientistas trabalhavam na tentativa de propor um modelo que explicasse de forma significativa as observações e resultados experimentais conhecidos. Um desses cientistas foi Rutherford que, em seu modelo, explicava o átomo como tendo quase toda sua massa em seu núcleo com carga positiva e que os elétrons com carga negativa giravam ao redor desse núcleo. Porém, pelas leis da física clássica, esse modelo não poderia existir, pois, de acordo com o eletromagnetismo clássico, os elétrons, como qualquer carga em movimento acelerado, ao girar ao redor do núcleo, emitem radiação e, ao emitir essa radiação, eles perdem energia. Assim, os elétrons perderiam toda sua energia e se chocariam com o núcleo.
Como era preciso a criação de um modelo para explicar a estrutura atômica, em 1913, Bohr propôs um modelo atômico. Seu modelo estava baseado em dois postulados:
1º. Os elétrons só podem girar ao redor do núcleo em órbitas circulares, essas órbitas são chamadas de órbitas estacionárias e enquanto eles estão nessas órbitas, não emitem energia.
2º. A energia absorvida ou emitida por um átomo é equivalente ao número inteiro de um quanta.

Cada quanta tem energia igual a h.f, em que f é a frequência da radiação e h é a constante de Planck. Portanto, a variação de energia produzida num átomo será igual à energia emitida ou recebida.
É importante ressaltar que as hipóteses de Niels Bohr tinham como objetivo explicar o comportamento do movimento do elétron ao redor do núcleo do átomo de hidrogênio e que não foi deduzida de teorias já conhecidas. Apesar de conseguir explicar o movimento do elétron no átomo de hidrogênio, o modelo proposto por Bohr não obteve o mesmo resultado quando aplicado a átomos de outros elementos, não sanando o problema da estrutura atômica. É aí que surge a mecânica quântica, para explicar de forma mais satisfatória a estrutura atômica.

13.386 – Física e Eletricidade – O Modelo Atômico de Thompson de 1897


Se a matéria é formada por átomos e também por cargas elétricas, é provável que estes também apresentem cargas elétricas. Novos experimentos com eletricidadem e transformações químicas, como a obtenção do metal alumínio a partir da bauxita, permitiu aos cientistas identificar e caracterizar as cargas elétricas.
O modelo até então aceito era o de Dalton, em que o átomo era considerado uma partícula maciça e indivisível, no entanto novos estudos exigiram alteração nesse modelo, acrescentando-se cargas elétricas.
Thomson propôs o modelo em que o átomo seria uma esfera positiva contendo corpúsculos de carga elétrica negativa.

thomson nobel

Joseph John Thompson ou JJ Thompson era um físico inglês que ganhou o prêmio Nobel de 1906 pela descoberta do elétron. Os estudos realizados por ele determinaram a relação entre carga elétrica, massa e partícula, como também o levaram a concluir que o átomo era formado por elétrons distribuídos em uma massa positiva, como as passas em um pudim.

13.339 – Teletransporte: Engatinhando, mas é assim que começa – Cientistas teletransportam partícula da Terra para o espaço


teletransporte-williammpark-shuttersock.com_
Equipe chinesa que lançou o satélite Micius anunciou que conseguiu usar a rede quântica do dispositivo para teletransportar uma partícula da superfície terrestre para a atmosfera pela primeira vez.
A técnica utilizada consiste em um estranho fenômeno conhecido como “entrelaçamento”, que pode acontecer quando partículas quânticas, como os fótons, se formam ao mesmo tempo e no mesmo ponto do espaço, dividindo a existência. Em termos técnicos, eles são descritos com a mesma função de onda — o interessante é que a experiência continua mesmo quando os objetos estão distantes no Universo. Logo, quando um é afetado o outro também é.
Apesar de a informação já ser conhecida há anos, uma experiência como a chinesa nunca havia sido realizada. Isso porque a técnica é muito frágil, pois as partículas interagem com a matéria na atmosfera ou dentro de fibras óticas, o que faz com que a relação entre elas seja perdida. No caso do experimento, os fótons continuaram se relacionando, mesmo estando a 500 km de distância.
“Experimentos anteriores de teletransporte entre locais distantes foram limitados a cem quilômetros, devido à perda de fótons em fibras ópticas ou canais terrestres livres”, afirmou a equipe em entrevista ao MIT Technology Review. Por isso o feito dos chineses foi tão surpreendente.
O time de cientistas mandou milhões de fótons para o espaço durante 32 dias, mas só obtiveram 911 respostas positivas. “Relatamos o primeiro teletransporte quântico de qubits independentes de um único fóton a partir de um observatório terrestre até um satélite na órbita terrestre — através de um canal de ligação ascendente — com uma distância de até 1,4 mil km”, afirmaram.
O feito coloca os chineses em posição de liderança da área, que era até então dominada pela Europa e pelos Estados Unidos. “Esse trabalho estabelece a primeira ligação ascendente terra-satélite para o teletransporte quântico ultra-longo, um passo essencial para a internet quântica de escala global”.

13.338 – A Balança Hidrostática


bALANÇA-HIDROSTATICA-GALILEU
É um mecanismo experimental destinado ao estudo da força de impulsão exercida por líquidos sobre os corpos neles imersos. Foi inventada por Galileu Galilei.
Seu funcionamento se baseia no princípio de Arquimedes (um corpo perde aparentemente um peso igual à quantidade de líquido ou gás deslocado) e está especialmente concebida para a determinação de densidades de sólidos e líquidos. Este tipo de balança é constituída por: prumo, termómetro, copo, alça, parafuso de compensação, escala graduada, cursor superior deslizante, encaixe, cursor inferior deslizante, pontas, parafuso para acerto e suporte. Estas balanças necessitam de ser calibradas antes de se efectuar a medição de densidades.

O procedimento a ser seguido :

Pesa-se o mineral a seco
Pesa-se o mineral imerso em água, o que é conseguido pendurando o mineral em um fio amarrado em um dispositivo ligado ao prato da balança. O recipiente com água onde será imerso o mineral deverá ficar sobre o prato da balança, sem tocá-lo, o que se consegue com uma plataforma ponte, apoiada sobre a mesa onde está a balança.
A densidade relativa será calculada dividindo-se o peso do mineral a seco pela diferença do peso a seco e do peso imerso em água, pois esta diferença nos dá, pelo Princípio de Arquimedes, o empuxo a que está sendo submetido o mineral, que é igual ao peso do volume de água deslocado pelo mineral, sendo que este volume é o volume do mineral.
O objetivo será determinar a densidade de um objeto utilizando apenas uma balança comum e uma balança hidrostática. Não se dispõe de instrumentos para aferir de forma direta o volume do objeto. A balança hidrostática utiliza o Empuxo de Arquimedes, então é por ele que se inicia a dedução apresentada a seguir.
O empuxo de Arquimedes é definido como uma força vertical e para cima com módulo equivalente ao peso do líquido deslocado.
O peso de líquido deslocado é igual ao produto do volume de líquido deslocado pela massa específica do líquido e pela aceleração da gravidade.

balança2

13.278 – Física – GRANDEZAS VETORIAIS E ESCALARES


vetor-fora-3-728
Enunciado:
A grandeza escalar é definida quando o seu módulo e sua unidade de medida estão especificados. Já a grandeza vetorial é representada por um “ente” matemático denominado de vetor.
A grandeza escalar é definida quando o seu módulo e sua unidade de medida estão especificados. Já a grandeza vetorial é representada por um “ente” matemático denominado de vetor.
Exemplos de grandezas vetoriais: velocidade, aceleração, deslocamento, força, quantidade de movimento, impulso, campo elétrico, campo magnético, empuxo etc.

Outras grandezas, como o tempo, não necessitam de uma orientação. Se alguém disser que agora são 16h e 35min, você não perguntaria se essa hora é horizontal para a direita ou vertical para cima. Quando apenas o valor da grandeza é suficiente para mostrar a ideia que se quer passar, a grandeza é dita escalar.
Exemplo de grandezas escalares: massa, temperatura, tempo, energia, pressão, potencial elétrico etc.

Vetores
A ideia matemática de vetor encaixou-se perfeitamente na Física para descrever as grandezas que necessitavam de uma orientação. Vetores não são entes palpáveis, como um objeto que se compra no mercado, eles são representações.
Esse vetor poderia ser usado para representar o deslocamento do carro que se movia na rodovia 1 da esquerda para a direita. Poderíamos também dizer que seu comprimento representa um deslocamento de 100 m, o que implica que um deslocamento de 200 m seria representado por outro vetor com o dobro do tamanho do comprimento, pois o comprimento de um vetor caracteriza seu valor ou, usando um termo mais técnico, o comprimento caracteriza seu módulo. Chamamos o módulo do vetor acrescido de uma quantidade de medida de “intensidade da grandeza vetorial”.

A reta que serve de suporte para um vetor mostra a direção; e a seta caracteriza o sentido. Resumindo: para um vetor qualquer, temos:

partes de um vetor

13.276 – Instrumentos – O Dinamômetro


dinamômetro2
Força é o resultado da interação entre dois ou mais corpos. Essa grandeza é medida em newton (N) de acordo com o S.I.
Um dispositivo que pode ser utilizado para medir a força chama-se dinamômetro.
Este dispositivo é dotado de:
• Estrutura
• Mola
• Gancho em uma das extremidades da mola
• Graduação na estrutura
Em uma das extremidades da mola encontra-se presa a estrutura graduada e em outra extremidade, o gancho, que se localiza fora da estrutura.

dinamometro
O princípio de funcionamento consiste na deformação que a mola sofre em razão da ação de uma força que é proporcional a esta força aplicada, sua intensidade é indicada na graduação existente na estrutura (dinamômetro ideal).
Em algumas feiras, vendedores de peixes utilizam um dispositivo com estas características com a finalidade de medir a massa (massa é dita usualmente como peso) dos peixes vendidos. Massa e peso são grandezas diferentes; uma forma de resolver este impasse é associar à graduação a divisão de cada valor por 9,8 (valor da aceleração da gravidade nas proximidades da Terra), pois aí sim ele estará apto a medir a massa que os peixes possuem em valor aproximado, pois a aceleração da gravidade na superfície terrestre é variável, tornando a massa também variável, e se graduado como proposto (dividindo os valores da escala por 9,8) este dispositivo só mediria a massa em valor aproximado em locais que possuem a aceleração da gravidade igual ou bem próxima a 9,8m/s².

13.274 – Fundamentos de Eletricidade – Corrente Alternada e Corrente Contínua


princpios-da-corrente-alternada-8-638
A corrente elétrica é um fluxo de elétrons (partículas de energia) que passa em um fio ou condutor. Quando os elétrons se movimentam em um sentido único, continuamente, essa corrente é chamada de contínua. Porém, se os elétrons mudam de direção constantemente, trata-se de uma corrente alternada.
Na prática, a principal diferença entre esses dois tipos de corrente elétrica está na capacidade de transmitir a energia. Em geral, a corrente alternada consegue atingir uma voltagem muito maior que a corrente contínua, o que significa que ela consegue chegar mais longe sem perder força.
A energia elétrica que consumimos nas nossas residências é produzida em usinas que ficam a muitos quilômetros de distância. Quando chega à tomada, portanto, a energia já percorreu um longo caminho, sendo transmitida por corrente alternada — o que, inclusive, evita desperdício de energia.
Apesar de ser mais vantajosa economicamente, a elevada tensão da corrente alternada pode ser muito perigosa, uma vez que pode provocar choques fatais. Justamente por isso, a alta voltagem é transformada em tensões mais baixas para entrar nas residências: geralmente 120 ou 220 volts.

Pulsante:

ccca2

Embora não altere seu sentido as correntes contínuas pulsantes passam periodicamente por variações, não sendo necessariamente constantes entre duas medidas em diferentes intervalos de tempo.
A ilustração do gráfico acima é um exemplo de corrente contínua constante.
Esta forma de corrente é geralmente encontrada em circuitos retificadores de corrente alternada.

13.261 – Física – O campo magnético da Terra


campos-magneticos-terra
É como o campo magnético de um gigantesco ímã em forma de barra, que atravessa desde o Pólo Sul até o Pólo Norte do planeta. Mas é importante lembrar que os Pólos Magnéticos da Terra tem uma inclinação de 11,5° em relação aos Pólos Geográficos. Lembremos também que o Pólo Norte Geográfico também é inclinado em relação à linha perpendicular ao plano da órbita da Terra.

“… Note que o pólo norte magnético é, na realidade, um pólo sul do dipolo que representa o campo da Terra. O eixo magnético está aproximadamente na metade entre o eixo de rotação de rotação e a normal ao plano da órbita da Terra…” HALLIDAY (2004) pg.268.
É interessante salientar que os Pólos Norte e Sul determinados geograficamente são na verdade os pontos onde emergem as extremidades do eixo em torno do qual a Terra gira. O Pólo Norte Magnético considerado é o ponto de onde emergem as linhas de campo magnético mostradas na figura. E o Pólo Sul Magnético é na verdade o ponto para onde convergem as linhas de campo magnético que emergem do Pólo Sul Geográfico. No caso de um ímã, o norte é atraído pelo sul. Ou seja, o norte do ímã apontará para o pólo sul do campo magnético do interior da Terra.
Esse campo magnético do planeta é percebido e utilizado por diversas espécies de animais, como aves migratórias.

13.248 – Física – Teorias da Viagem no Tempo


viagem no tempo
Buracos negros: Alguns cientistas afirmam que os buracos negros permitirão viajar no tempo ou a universos paralelos. Sua curvatura espaço-temporal poderá funcionar como um portal interdimensional.

A rosquinha: O cientista israelense Amos Ori acredita que, nos próximos séculos, a humanidade será capaz de construir uma máquina do tempo que poderá curvar o espaço como um donut e permitir o salto a outras épocas.

Cordas cósmicas: Essa hipótese diz que a matéria é, na verdade, um estado vibracional, cuja manipulação permitirá fazer viagens no tempo e no espaço.

Cilindro de Tipler: O físico Frank J. Tipler desenvolveu, em 1974, uma teoria segundo a qual seria possível viajar no tempo através de um cilindro de alta densidade e capaz de girar à velocidade da luz.

Matéria exótica: É considerada matéria exótica a matéria que não obedece a uma ou mais leis da física clássica. Alguns cientistas acreditam que essas partículas permitiriam viagens no tempo ao possibilitar mudanças na relação espaço-tempo.

13.228 – Física – Polêmica de Pons e Fleischmann sobre fusão à frio


fusao ou ilusao

fusao
Show de mídia mas a descoberta era furada

Em 23 de março de 1989, dois químicos da Universidade de Utah, o americano Stanley Pons e o britânico Martin Fleischmann, foram catapultados à fama. Numa coletiva, anunciaram que o sonho da energia ilimitada, limpa e barata estava para se realizar. Disseram ter conseguido obter na temperatura ambiente do laboratório a fusão nuclear, o mesmo processo que gera a energia do Sol. A descoberta foi batizada de “fusão fria” (no Sol, as temperaturas chegam a 15 milhões de graus centígrados).
A perplexidade e a descrença só não são totais porque também em ciência a esperança é a última que morre. A experiência divulgada pela dupla em fins de março numa entrevista à imprensa- por si só uma grave quebra de protocolo cientifico que irritou não poucos acadêmicos – foi reproduzida a toque de caixa por pesquisadores americanos e de outros países, entre os quais o Brasil, mas raras tentativas deram certo e houve pelo menos um caso em que os pesquisadores precisaram retratar-se depois de cantar vitória.
A fusão nuclear é a junção de dois núcleos atômicos de um tipo de hidrogênio, o deutério; processo que resulta na liberação de uma fenomenal quantidade de energia, sem a radioatividade liberada pelo urânio das usinas nucleares e com a vantagem de que o deutério tem na água do mar fonte quase inesgotável. O problema é que, para fazer os núcleos de deutério se fundirem, é preciso reproduzir as altíssimas temperaturas solares. Todos os processos conhecidos gastam mais energia do que produzem e só se sustentam por uma fração de segundo.
Por isso, o mundo entrou em polvorosa. Os pesquisadores de Utah tinham mergulhado dois eletrodos, um de paládio, outro de platina, em água rica em deutério. A corrente elétrica produziu tanta energia (na forma de calor), que o eletrodo de paládio se derreteu. A única explicação, diziam, é que tinha ocorrido a fusão.
Antes do fim de abril, os ventos tinham mudado para Pons e Fleischmann. A revista “Nature” recusou-se a publicar o artigo científico em que relatavam suas pesquisas, alegando insuficiência de dados. Os físicos das instituições mais respeitadas, como o institutos de tecnologias da Califórnia e de Massachusetts, passaram o trator: a verdadeira fusão nuclear produz, além de calor, uma grande quantidade de nêutrons e um isótopo chamado hélio-4. No experimento de Pons e Fleischmann nada disso havia sido detectado. Estes argumentaram que tinham encontrado nêutrons, mas atrapalharam-se nas explicações. Acusados de açodamento ou má-fé, mergulharam na obscuridade.
Os resultados da pesquisa pareciam espetaculares. Afinal, a fusão nuclear é perseguida há anos pelos cientistas como a salvação energética do mundo. Sua reação-irmã, a fissão, usada em usinas nucleares, tem os inconvenientes de utilizar átomos pesados (e difíceis de obter), como o urânio, e de gerar lixo atômico. Até hoje, tudo o que se conseguiu foi fundir átomos aos pares, usando imensos aceleradores de partículas.
Tão espetacular parecia a “fusão portátil” que a direção do Oak Ridge desconfiou. Pediu a uma dupla de físicos do laboratório que refizesse o experimento, usando um detector de nêutrons mais sensível. A conclusão foi de que os resultados haviam sido uma ilusão. “Não há evidências do excesso de nêutrons que caracteriza a fusão”, disse um dos físicos, Michel Saltamarsh, à revista eletrônica “Science Now”.
Outros físicos também atacaram o experimento de Taleyarkhan e Lahey: “O trabalho é uma colcha de retalhos, e cada remendo tem um furo”, disse Mike Moran, do Laboratório Nacional Lawrence Livermore, na Califórnia.
A polêmica chegou perto do ponto de fusão quando diretores do Oak Ridge pressionaram o editor da “Science”, Donald Kennedy, a adiar a data de publicação do artigo -ou a simplesmente enterrá-lo. O temor era que a pesquisa estivesse repetindo uma das maiores fraudes científicas da história, a da fusão nuclear a frio.
Anunciada em 1989 pelos físicos Stanley Pons e Martin Fleischmann, a fusão a frio foi alardeada na imprensa como a descoberta do século, para depois se provar um experimento irrealizável.

fs noticia

13.149 – Física – Atingir o zero absoluto é matematicamente impossível (?)


zero-absoluto-entre-as-escalas-kelvin-celsius-1314021140
Se estivesse vivo, esse seria o momento em que Walther Nernst daria um daqueles sorrisinhos de canto de boca. Isso porque o principal princípio da terceira lei da termodinâmica, proposta pelo físico alemão há mais de cem anos, acaba de ser comprovada como matematicamente irrefutável. De acordo com um estudo desenvolvido na University College London, é impossível que algo chegue à temperatura de – 273,15 °C, o chamado zero absoluto, que é medido em Kelvin (K).
A termodinâmica, campo que estuda as trocas de calor, tem suas bases na física clássica. Isso indica que, apesar de muito estudada, tende a adotar algumas concepções questionáveis, especialmente quando se fala de partículas muito pequenas – do campo da física quântica. Houve várias tentativas de se provar que haveria um jeito de ultrapassar tal limite. A temperatura mais fria atingida, no entanto, ainda esteve algumas centenas de microkelvin de atingir o zero.
A tarefa de congelar algo até a menor temperatura possível é realizada em laboratório com o auxílio de ondas luminosas. Os fótons, partículas que compõem os feixes de luz, interagem com o material, “roubando” a energia de seus átomos. Essa energia é responsável pela agitação das moléculas. Com menos energia, os átomos ficam mais “parados” e portanto, o material tem menor temperatura. Aí que os pesquisadores acreditam que esteja a incoerência das tentativas.
Os fótons não têm como resfriar os átomos do material a uma temperatura menor do que zero simplesmente porque interagem com ele. Qualquer contato pode, por si só, criar alguma quantidade de calor. Havendo um mínimo de calor, portanto, a entropia do material será diferente de zero. Entropia é um conceito físico entendido como o máximo de energia que pode ser transformada em trabalho – no caso, calor.
Por meio de cálculos matemáticos, os pesquisadores concluíram que não existe a possibilidade de se construir um sistema possível para dar conta da tarefa. Poderíamos, portanto, apenas nos aproximar mais e mais do feito. Mas sem jamais alcançar a temperatura mínima.

13.103 – Física – O que é o movimento retilíneo variável?


Diferentemente do MRU, o movimento retilíneo uniformemente variado- também conhecido por MRUV-, demonstra que a velocidade varia uniformemente em razão ao tempo. O Movimento retilíneo uniformemente variado (MRUV) pode ser definido como um movimento de um móvel em relação a um referencia ao longo de uma reta, na qual sua aceleração é sempre constante . Diz-se que a velocidade do móvel sofre variações iguais em intervalos de tempo iguais. No MRUV a aceleração média assim como sua aceleração instantânea são iguais.

mruv

Obs:A aceleração instantânea refere-se a um determinado intervalo de tempo “t” considerado, definida matematicamente por; α=limΔt->0=Δv/Δt. Para o estudo da cinemática no ensino médio não é especialmente necessária sabermos a conceituação matemática de aceleração instantânea,uma vez que envolve limites assim como diferenciais que só são vistos na maioria das vezes no ensino superior em relação aos cursos de exatas. Basta sabermos o cálculo da aceleração média pois ambas no MRUV são iguais como mencionado acima.

Função da velocidade determinada no MRUV
Para obtermos a função velocidade no MRUV devemos relembrar e aplicar o conceito de aceleração média.

αm=ΔV/Δt

Δv: Variação de velocidade
Δt: Variação de tempo
Vejamos o exemplo a seguir.

1) Um carro encontra-se parado em uma rodovia federal devido uma colisão de 2 veículos que estão impedindo o tráfego normal na pista. Imediatamente os 2 veículos são retirados da pista e a mesma é liberada. O condutor do carro que estava parado então acelera o carro (pisa no acelerador), depois de passados 5s o velocímetro do carro marca 30 km/h. Qual foi a aceleração média do carro?
αm=ΔV/Δt

30km/h=8,33m/s

αm=8,33-0/5

αm=1,66m/s2

Então, considerando como o exemplo acima o móvel com velocidade inicial v0 no instante t0=0s e num instante posterior adquire uma velocidade v num instante de tempo t, temos:

α=ΔV/Δt

α=V-Vo/t-to

Como t0=0s, segue

a=V-V0/t

Isolando V,

V=V0+at

Movimento acelerado e retardado
Movimento acelerado: tomemos como exemplo a função v=15+2t. Sabemos que sua velocidade inicial é v0=15m/s e a aceleração constante do movimento é igual a 2m/s2, podemos perceber que qualquer valor para t positivo ou igual a 0 (t≥0)a velocidade sempre será positiva,logo o movimento é acelerado.

Movimento retardado: tomemos como exemplo a função v=-6+2t. Sabemos que sua velocidade inicial é vo=-6m/s e sua aceleração constante é a=2m/s2,podemos perceber que para 0≤ t<3 o movimento é retardado, e para t=3 a velocidade do móvel se anula, assim sendo para t>3 o móvel muda de sentido passa de retardado para acelerado.

2) Exemplo

A velocidade de uma partícula varia de acordo com a função v=4+8t.Pede-se

a) A velocidade inicial da partícula
b) A aceleração da partícula
c) A velocidade da partícula no instante t=2s
d) A variação de velocidade nos 4 primeiros segundos
Resolução

a) Como V=vo+at ,temos v=4+8t ,então vo=4m/s

b) Sua aceleração é constante característica do MRUV,a=8m/s2

c) V=4+8.2=20m/s

d) V4= 4+8.4=36m/s ; Então ΔV= V4-V0=36-4=32m/s

Função Horária do MRUV
Sabendo-se que a aceleração no MRUV permanece constante podemos calcular a variação do espaço de um móvel no decorrer do tempo.

S=So+Vot+at2/2

A fórmula acima constitui uma função quadrática (2ºgrau).

3)Vejamos um exemplo rápido.

Determine a velocidade inicial o espaço inicial e a aceleração do móvel uma vez que o mesmo encontra-se em MRUV seguindo a função S=20-2t+t2

Resolução

Como S=So+Vot+at2/2,temos

So=20m

V0=-2m/s

a= 1×2=2m/s2

Equação de Torricelli
Se substituirmos a equação V=vo+at na equação S=So+Vot+at2/2, teremos a equação de Torricelli

V2=v02+2αΔs

4)Exemplo:

Um determinado veiculo em certo instante, possui uma velocidade de 20m/s. A partir deste instante o condutor do veiculo acelera seu carro constantemente em 4m/s2.Qual a velocidade que o automóvel terá após ter percorrido 130m.

Resolução:

Aplicando a equação de Torricelli, temos

V2=v02+2αΔs

V2=202+2.4.130

V2=400+1040

V2=1440

V=38m/s

13.083 – Cinemática – O ramo da Física que estuda os movimentos


aceleracao-escalar-7

cinematica-2-5
A cinemática estuda os movimentos dos corpos, sendo principalmente os movimentos lineares e circulares os objetos do nosso estudo que costumar estar divididos em Movimento Retilíneo Uniforme (M.R.U) e Movimento Retilíneo Uniformemente Variado (M.R.U.V)

Para qualquer um dos problemas de cinemática, devemos estar a par das seguintes variáveis:

-Deslocamento (ΔS)

-Velocidade ( V )

-Tempo (Δt)

-Aceleração ( a )

Movimento Retilíneo Uniforme (M.R.U)
No M.R.U. o movimento não sofre variações, nem de direção, nem de velocidade. Portanto, podemos relacionar as nossas grandezas da seguinte forma:
ΔS= V.Δt

Movimento Retilíneo Uniformemente Variado (M.R.U.V)
No M.R.U.V é introduzida a aceleração e quanto mais acelerarmos (ou seja, aumentarmos ou diminuirmos a velocidade andaremos mais, ou menos. Portanto, relacionamos as grandezas da seguinte forma:
ΔS= V₀.t + ½.a.t²

No M.R.U.V. o deslocamento aumenta ou diminui conforme alteramos as variáveis.
Pode existir uma outra relação entre essas variáveis, que é dada pela formula:
V²= V₀² + 2.a.ΔS

Nessa equação, conhecida como Equação de Torricelli, não temos a variável do tempo, o que pode nos ajudar em algumas questões, quando o tempo não é uma informação dada, por exemplo.

• Dinâmica
As leis de Newton
A cinemática é o ramo da ciência que propõe um estudo sobre movimento, sem, necessariamente se preocupar com as suas causas.

Quando partimos para o estudo das causas de um movimento, aí sim, falamos sobre a dinâmica. Da dinâmica, temos três leis em que todo o estudo do movimento pode ser resumido. São as chamadas leis de Newton:

Primeira lei de Newton – a lei da inércia, que descreve o que ocorre com corpos que estão em equilíbrio

Segunda lei de Newton – o princípio fundamental da dinâmica, que descreve o que ocorrer com corpos que não estão em equilíbrio

Terceira lei de Newton – a lei da ação e reação, que explica o comportamento de dois corpos interagindo entre si.

Força Resultante
A determinação de uma força resultante é definida pela intensidade, direção e sentido que atuam sobre o objeto. Veja diferente cálculos da força resultante:

Caso 1 – Forças com mesma direção e sentido.
Caso 2 – Forças perpendiculares.

Caso 3 – Forças com mesma direção e sentidos opostos

Caso 4 – Caso Geral – Com base na lei dos Cossenos

A Segunda lei de Newton – Quando há uma força resultante, caímos na segunda lei de Newton que diz que, nestas situações, o corpo irá sofrer uma aceleração. Força resultante e aceleração são duas grandezas físicas intimamente ligadas e diretamente proporcionais, ou seja, se aumentarmos a força, aumentamos a aceleração na mesma proporção. Essa constante é a massa do corpo em que é aplicada a força resultante. Por isso, a segunda lei de Newton é representada matematicamente pela fórmula:
A segunda lei de Newton também nos ensina que força resultante e aceleração serão vetores sempre com a mesma direção e sentido.

Unidades de força e massa no Sistema Internacional:

Força – newton (N).
Massa – quilograma (kg).

A terceira Lei de Newton
A terceira lei, também conhecida como lei da ação e reação diz que, se um corpo faz uma força em outro, imediatamente ele receberá desse outro corpo uma força de igual intensidade, igual direção e sentido oposto à força aplicada, como é mostrado na figura a seguir.

13.082 – Física – O que é o Sistema Internacional de Unidades?


medidas
É a forma moderna do sistema métrico e é geralmente um sistema de unidades de medida concebido em torno de sete unidades básicas e da conveniência do número dez. É o sistema de medição mais usado do mundo, tanto no comércio todos os dias e na ciência.
O SI um conjunto sistematizado e padronizado de definições para unidades de medida, utilizado em quase todo o mundo moderno, que visa a uniformizar e facilitar as medições e as relações internacionais daí decorrentes.
O antigo sistema métrico incluía vários grupos de unidades. O SI foi desenvolvido em 1960 do antigo sistema metro-quilograma-segundo, ao invés do sistema centímetro-grama-segundo, que, por sua vez, teve algumas variações. Visto que o SI não é estático, as unidades são criadas e as definições são modificadas por meio de acordos internacionais entre as muitas nações conforme a tecnologia de medição avança e a precisão das medições aumenta.
O sistema tem sido quase universalmente adotado. As três principais exceções são a Myanmar, a Libéria e os Estados Unidos. O Reino Unido adotou oficialmente o Sistema Internacional de Unidades, mas não com a intenção de substituir totalmente as medidas habituais.
Para efetuar medidas é necessário fazer uma padronização, escolhendo unidades para cada grandeza. Antes da instituição do Sistema Métrico Decimal, as unidades de medida eram definidas de maneira arbitrária, variando de um país para outro, dificultando as transações comerciais e o intercâmbio científico entre eles. As unidades de comprimento, por exemplo, eram quase sempre derivadas das partes do corpo do rei de cada país: a jarda, o pé, a polegada e outras. Até hoje, estas unidades são usadas nos Estados Unidos, embora definidas de uma maneira menos individual, mas através de padrões restritos às dimensões do meio em que vivem e não mais as variáveis desses indivíduos.
Em 1585, o matemático flamengo Simon Stevin publicou um pequeno panfleto chamado La Thiende, no qual ele apresentou uma conta elementar e completa de frações decimais e sua utilização diária. Embora ele não tenha inventado as frações decimais e sua notação, ele estabeleceu seu uso na matemática do dia-a-dia. Ele declarou que a introdução universal da cunhagem decimal, medidas e pesos seria apenas uma questão de tempo. No mesmo ano, ele escreveu La Disme sobre o mesmo assunto.
Há registros de que a primeira ideia de um sistema métrico seja de John Wilkins, primeiro secretário da Royal Society de Londres em 1668, porém a ideia não vingou e a Inglaterra continuou com os diferentes sistemas de pesos e medidas.
Foi na França onde a ideia de um sistema unificado saiu do papel. A proliferação dos diferentes sistemas de medidas foi uma das causas mais frequentes de litígios entre comerciantes, cidadãos e cobradores de impostos. Com o país unificado com uma moeda única e um mercado nacional havia um forte incentivo econômico para romper com essa situação e padronizar um sistema de medidas. O problema inconsistente não era as diferentes unidades, mas os diferentes tamanhos das unidades. Ao invés de simplesmente padronizar o tamanho das unidades existentes, os líderes da Assembleia Nacional Constituinte Francesa decidiram que um sistema completamente novo deveria ser adotado.
O Governo Francês fez um pedido à Academia Francesa de Ciências para que criasse um sistema de medidas baseadas em uma constante não arbitrária. Após esse pedido, um grupo de investigadores franceses, composto de físicos, astrônomos e agrimensores, deu início a esta tarefa, definindo assim que a unidade de comprimento metro deveria corresponder a uma determinada fração da circunferência da Terra e correspondente também a um intervalo de graus do meridiano terrestre. Em 22 de junho de 1799 foi depositado, nos Arquivos da República em Paris, dois protótipos de platina iridiada, que representam o metro e o quilograma, ainda hoje conservados no Escritório Internacional de Pesos e Medidas (Bureau international des poids et mesures) na França.
Em 20 de maio de 1875 um tratado internacional conhecido como Convention du Mètre (Convenção do Metro), foi assinado por 17 Estados. Este tratado estabeleceu as seguintes organizações para conduzir as atividades internacionais em matéria de um sistema uniforme de medidas:
Conférence Générale des Poids et mesures (CGPM), uma conferência intergovernamental de delegados oficiais dos países membros e da autoridade suprema para todas as ações;
Comité international des poids et mesures (CIPM), composta por cientistas e metrologistas, que prepara e executa as decisões da CGPM e é responsável pela supervisão do Bureau Internacional de Pesos e Medidas;
Bureau International des Poids et mesures (BIPM), um laboratório permanente e centro mundial da metrologia científica, as atividades que incluem o estabelecimento de normas de base e as escalas das quantidades de capital físico e manutenção dos padrões protótipo internacional.
Definiram-se sete grandezas físicas postas como básicas ou fundamentais. Por conseguinte, passaram a existir sete unidades básicas correspondentes — as unidades básicas do SI — descritas na tabela, na coluna à esquerda. A partir delas, podem-se derivar todas as outras unidades existentes. As unidades básicas do SI — posto que dimensionalmente axiomáticas — são dimensionalmente independentes entre si.
Todas as unidades existentes podem ser derivadas das unidades básicas do SI. Entretanto, consideram-se unidades derivadas do SI apenas aquelas que podem ser expressas através das unidades básicas do SI e sinais de multiplicação e divisão, ou seja, sem qualquer fator multiplicativo ou prefixo com a mesma função. Desse modo, há apenas uma unidade do SI para cada grandeza. Contudo, para cada unidade do SI pode haver várias grandezas. Às vezes, dão-se nomes especiais para as unidades derivadas.
Até 1995, havia duas unidades suplementares: o radiano e o esferorradiano (esterradiano, em Portugal). Uma resolução da CGPM (Conferência Geral de Pesos e Medidas) de então tornou-as derivadas.
É fácil de perceber que, em tese, são possíveis incontáveis (por extensão, “infinitas”) unidades derivadas do SI (por exemplo; m², m³, etc.), tantas quantas se possam imaginar com base nos princípios constitutivos fundamentais. As tabelas que se seguem não pretendem ser uma lista exaustiva. São, tão-somente, uma apresentação organizada, tabelada, das unidades do SI das principais grandezas, acompanhadas dos respectivos nomes e símbolos.

13.069 -Nó na Mente – O que existia antes do Big Bang?


universo-de-duvidas
Universo de Dúvidas

Será que algum dia saberemos o que aconteceu antes do Big Bang? Esta não é uma questão apenas filosófica: há alguns aspectos que podem vir a ser cientificamente testados.
Por muito tempo o homem achou que o Universo – por definição, tudo que tem existência física – era de idade infinita, ou com uma idade que poderia ser medida em gerações humanas, como contado por muitas mitologias. Porém, graças aos estudos da taxa de expansão do Universo, sabemos que há cerca de 13,8 bilhões de anos tudo que podemos observar veio de uma expansão a partir de um ponto menor que um átomo, o Big Bang.
O modelo do Big Bang é a melhor explicação que temos para a aparência do cosmos atual, mas ele tem suas limitações – como o fato de que não responde a algumas perguntas fundamentais, como “o que veio antes do Big Bang?” (se é que veio alguma coisa). Mas antes de tentar entender as possíveis respostas, é preciso primeiro entender a pergunta.

Inflação do big bang

O Universo pode ser definido como tudo o que existe em um sentido físico, mas nós podemos observar apenas uma parte dele. Olhando ao redor vemos galáxias por todos os lados, e elas todas se parecem umas com as outras, não há uma direção especial no espaço… Isso significa que o Universo não tem “bordas” (ou um centro).
Se fossemos movidos instantaneamente para uma galáxia distante, veríamos um cosmos semelhante ao que vemos da Terra, com um raio efetivo de 46 bilhões de anos-luz. Não podemos ver além desse raio, não importa onde estejamos posicionados.
Por vários motivos os cosmologista acreditam que o Universo sofreu um processo de inflação em seus primórdios – uma expansão rápida logo após o Big Bang. Com a expansão, veio o resfriamento, e, passados cerca de 380.000 anos do Big Bang, o Universo ficou transparente, e a luz daquela época pode ser percebida hoje como a radiação cósmica de fundo (CMB, na sigla em inglês de Cosmic Microwave Background).
Essa radiação foi examinada por meio de telescópios espaciais como o COBE, WMAP e, mais recentemente, o Planck, e cientistas perceberam que ela é bastante suave, mas não totalmente uniforme: contém irregularidades que eram minúsculas e ficaram imensas com a inflação, e se tornaram as sementes para os objetos em larga escala, como galáxias e grupos de galáxias vistos hoje.
Existem várias versões possíveis para a inflação, mas o ponto essencial é que as flutuações aleatórias de temperatura e densidade produzidas pelo Big Bang foram suavizadas pela expansão rápida, como um balão murcho e enrugado se torna um objeto liso quando inflado. Mas a inflação teria acontecido tão rápido que o Universo passou a ter regiões desconectadas – universos paralelos – que podem até mesmo ter leis físicas diferentes.
Universos de bolso

Entretanto, nada disso nos informa o que veio antes do Big Bang. Em muitos modelos inflacionários, bem como em teorias do Big Bang mais antigas, este é o único Universo que existe, ou, pelo menos, o único que podemos observar.
Uma exceção é o modelo conhecido como inflação eterna. Nele, o Universo Observável é parte de um “Universo de bolso”, uma bolha em uma enorme espuma de inflação. Na nossa bolha particular, a inflação começou e parou, mas em outros universos desconectados do nosso a inflação pode ter propriedades diferentes. A inflação eterna esvaziou as regiões fora das bolhas, eliminando toda a matéria ali – não há estrelas, galáxias ou qualquer coisa reconhecível.
Se a inflação eterna está correta, o Big Bang é a origem do nosso universo-bolha, mas não de todo o Universo, que pode ter uma origem muito anterior. Se algum dia tivermos evidências dos multiversos, elas serão indiretas, mesmo com a confirmação da inflação feita pelo telescópio Planck e outros. Em outras palavras, a inflação eterna pode responder sobre o que precedeu o Big Bang, mas ainda vai deixar a questão da origem última fora de alcance.
Ciclos de trilhões de anos

Muitos cosmologistas consideram o modelo inflacionário como o pior modelo que temos. As propriedades gerais da inflação são interessantes, graças à sua utilidade para resolver problemas difíceis em cosmologia, mas certos detalhes são complicados. O que causou a inflação? Como ela começou e quando terminou? Se a inflação eterna está correta, quantos universos-bolha podem existir com propriedades semelhantes às do nosso? Houve um “Big Bang Maior” que originou o multiverso? E, finalmente (o que diferencia a ciência da filosofia), podemos testar estas hipóteses?
Existe uma alternativa ao modelo inflacionário, que evita estas questões, e responde o que havia antes do Big Bang. Se o modelo de universo cíclico de Paul Steinhardt e Neil Turok estiver certo, o Universo reside dentro de um vazio em uma dimensão maior. Junto do nosso universo há um universo paralelo que não podemos observar diretamente, mas que está conectado com o nosso pela gravidade.
O Big Bang não seria o início, mas um momento em que duas “branas” (termo que deriva de “membranas”) colidiram. O Universo no modelo cíclico está entre períodos em que as branas estão se afastando, com expansão acelerada, e novos Big Bangs estariam em períodos em as branas colidem novamente. Como cada ciclo levaria trilhões de anos para se completar, o universo seria infinitamente velho, evitando os problemas filosóficos dos modelos inflacionários.
Se você acha que todas estas opções são espantosas, pode ter certeza de que os cientistas pensam o mesmo. Como o universo observável está em expansão acelerada, sem sinal de que vá entrar em colapso mesmo no futuro mais distante, por que haveria um cosmos com um início mas sem um fim semelhante? Se a inflação ou o Big Bang apaga as informações sobre o que veio antes (se é que algo veio), será que não estamos discutindo quantos anjos poderiam dançar Gangnam Style na cabeça de um alfinete? Mesmo se a inflação eterna ou o modelo cíclico forem corretos, eles colocam a questão da origem de tudo no campo do que não pode ser testado.
Em dez ou cem anos, as questões e métodos que usamos para responder estas questões provavelmente terão evoluído. Por enquanto, ainda não está claro como podemos saber o que precedeu o Big Bang. [BBC]

13.051 – Arquivo ☻Mega – A Morte de Einstein em Abril de 1955


einstein-escritorio
Escritório de Einstein exatamente como ele deixou em abril de 1955

Falecido em 18 de abril de 1955 em Princeton (EUA) vítima de um aneurisma da aorta abdominal, aos 76 anos. Seu funeral e sua cremação foram cerimônias completamente privadas.

Ao entardecer, o corpo de Einstein foi transferido por um curto espaço de tempo do hospital para uma funerária em Princeton. O caixão simples com o corpo, já autopsiado, ficou na funerária por uma hora ou pouco mais.
O Mega vai mostrar algumas fotos agora quase 63 anos depois.
Para finalizar: a história do cérebro de Einstein, mais estranha do que a ficção — que o Dr. Thomas Harvey (que aparece na última das fotos) polemicamente retirou durante a autopsia, cuidadosamente o cortou em fatias, e cuidadosamente o guardou durante anos para ser pesquisado. As histórias há longo tempo associadas a esse órgão são complicadas para serem abordadas aqui.
Recentemente, surgiram novas constatações sobre o cérebro de Einstein. Um estudo com 14 novas fotografias do cérebro do físico Albert Einstein chegou à conclusão de que a massa cinzenta daquele que é considerado um dos maiores gênios de todos os tempos era diferente em diversos aspectos. Pesquisadores da Universidade do Estado da Flórida, nos Estados Unidos, analisaram as imagens e as compararam aos padrões estruturais de outros 85 órgãos semelhantes separados em outros trabalhos.
A descoberta mais impactante se refere aos padrões complexos de certas partes do córtex cerebral de Einstein, principalmente no córtex pré-frontal e no visual. O primeiro é importante para o pensamento abstrato e pode ter sido fundamental para a realização das experiências do físico.
Em 1955, durante a autopsia do físico, o patologista Thomas Harvey removeu o cérebro e o conservou em formol, sem antes deixar de realizar varias fotos, para só então cortá-lo em 240 blocos. Em seguida, dividiu as partes em aproximadamente 200 lâminas para estudo microscópico. As imagens e as lâminas foram distribuídas a pesquisadores pelo mundo.
A autopsia, na época, revelou que o cérebro de Einstein era menor que a média e outras análises posteriores não descobriram algo que fosse anormal. Alguns anos depois, porém, pesquisadores descobriram que partes do cérebro continham uma quantidade anormal de um tipo de células chamadas gliais, que proporcionam suporte e nutrição aos neurônios. O lobo parietal, relacionado a funções espaciais e visuais, também possuía um padrão diferente de sulcos e rugas.

einstein-caixao

einstein-autopsia
Insira uma legenda

Dr. Thomas Harvey (1912-2007) foi o patologista que fez a autopsia de Einstein no hospital de Princeton em abril de 1955. Não se sabe se o cérebro que manuseia era o de Einstein.

 

 

13.029 – História da Física


física
Começou a partir do momento em que a humanidade passou a ver e analisar os fenômenos naturais de modo racional, abandonando explicações místicas ou divinas. As primeiras tentativas racionais de explicação da Natureza vieram com os indianos e com os gregos antigos. Antes disso, fenômenos naturais e suas consequências eram explicados por deuses e deusas; Apolo, em sua carruagem, carregava a esfera brilhante, o Sol, de leste para oeste, todos os dias. A Filosofia Natural, como era conhecida a Física até tempos mais modernos, confundia-se com a Química e com certos aspectos da Matemática e Biologia, e pode ser considerada a disciplina acadêmica mais antiga, se for considerada a sua presença dentro da Astronomia.
Após ter visto um momento de esplendor na Grécia Antiga, tendo como nome principal Aristóteles, a Física entrou em declínio na Idade Média, tendo revivido apenas durante o Renascimento, durante a Revolução Científica. Galileu Galilei é considerado o primeiro Físico em seu sentido moderno, adotando a Matemática como ferramenta principal. Galileu é um dos primeiros a descrever o real objetivo de um cientista; sua função é apenas descrever os fenômenos em vez de tentar explicá-los. Já dotado de um método científico, a Física teve uma notável evolução com Isaac Newton, que realizou a primeira grande unificação da Física ao unir Céus e Terra sob as mesmas leis da Física, a gravitação universal.
Nos séculos XVIII e XIX surgiram os fundamentos da termodinâmica e do eletromagnetismo, destacando-se Rudolf Clausius, James Prescott Joule e Michael Faraday. James Clerk Maxwell realizou outra grande unificação da Física ao fundir eletricidade e magnetismo sob as mesmas descrições matemáticas, sendo que toda a Óptica pode ser derivada da teoria eletromagnética de Maxwell. No final do século XIX pensava-se que todos os fenômenos físicos poderiam ser explicados dentro das teorias correntes. Entretanto, certos “fenômenos rebeldes” fugiam do alcance dos cientistas. No início do século XX, ao tentar explicar matematicamente a radiação de corpo negro, Max Planck introduziu o conceito de quantum de energia. Em 1905, Albert Einstein apresentou, sob a forma de cinco artigos, as base da Relatividade e da Mecânica Quântica. Tais “fenômenos rebeldes” finalmente foram explicados, mas a ontologia determinista estrita e pontual, característica da mecânica newtoniana, foi abalada seriamente, que foi agravada após a publicação do Princípio da Incerteza de Werner Heisenberg e do princípio da complementaridade de Niels Bohr.
Desde então, a Física preocupa-se em explicar, sob o ponto de vista da Física Moderna, a natureza as quatro forças fundamentais da Natureza. O Modelo Padrão, apresentado na década de 70, descreve três das quatro forças. Trabalhos dentro do Grande Colisor de Hádrons (LHC), no CERN, e no Fermilab, procuram confirmar a existência do bóson de Higgs, a única partícula prevista pelo Modelo Padrão ainda não descoberta. Entretanto, a gravidade ainda carece de uma explicação teórico-experimental enraizada pela Física Moderna e é ainda um grande problema em aberto da Física.
As pessoas desde a Antiguidade sempre prestaram atenção nas regularidades da Natureza; o Sol nasce todo dia; um ciclo lunar é completado em aproximadamente 28 dias, praticamente o mesmo período de um ciclo menstrual; as estrelas ocupam a mesma posição no céu em um determinado momento a cada ano, um objeto sempre cai quando não é apoiado; as quatro estações do ano sempre estão ordenadas e se repetem anualmente.
Esta ordenação da Natureza precisava de explicações satisfatórias. Inicialmente, os povos antigos atribuíam tais fatos à mitologia e à metafísica; deuses e deusas que controlavam o mundo. Na Grécia Antiga, Gaia era a deusa Terra e Zeus controlava o poder dos relâmpagos. Apolo, com a sua carruagem flamejante do Sol, cruzava os céus uma vez por dia.
Basicamente, “Física” é uma tentativa de se obter explicações racionais sobre o mundo real, em contraste com explicações metafísicas, mitológicas, religiosas ou mágicas.
As primeiras tentativas do Ocidente em prover explicações racionais para os funcionamentos da Natureza vieram com os gregos, por volta do século VII a.C.
Aristóteles é descrito com frequência como sendo o grego que proveu as explicações mais compreensivas dentro destes princípios filosóficos. Ele acreditava na existência de quatro elementos básicos, a terra, a água, o ar e o fogo. Cada um tinha o seu lugar natural no Universo, determinado pelo seu peso. A terra é pesada e tenderia a permanecer no centro do Universo, a água tenderia a permanecer acima da terra e o ar, por sua vez, tenderia a permanecer na superfície terrestre. O fogo tenderia a escapar do centro do Universo. Haveria ainda um quinto elemento, perfeito, que não teria peso. As estrelas seriam formadas por esse quinto elemento, o éter.
Em seu livro, Física, Aristóteles descreveu o movimento de um corpo. Um corpo manteria seu estado de movimento apenas se estivesse em contato com o seu “movedor”. Caso contrário, a tendência de um corpo seria parar. Aristóteles explicou que o movimento de uma flecha após ser lançada seria causada pela “impulsão do ar”, uma tendência natural do ar fechar o “vácuo” formado pela flecha em seu rastro, já que, segundo Aristóteles, a “Natureza abomina qualquer forma de vácuo”.
O sistema esférico dos astros foi se complexificando com o aumento da precisão matemática. Hiparco, no século II a.C., utilizou registros gregos e babilônicos para prover dados mais precisos, e Ptolomeu, no mesmo século, já havia construído um sistema de esferas contendo mais de 80 elementos para explicar toda a periodicidade dos astros no céu, todos descritos em seu livro Almagesto.
Com a queda do Império Romano no século V, a maior parte da literatura grega se perdeu assim que a Europa entrou num período conhecido como a “idade das trevas”, onde o interesse pela obtenção do conhecimento e da própria educação praticamente desaparece.
Na primeira metade do século XIV, ressurge a teoria do ímpeto, que já havia sido iniciada por Hiparco e impulsionada por João Filopono, radicalmente modificada pelo persa Avicena e consagrada pelo francês Jean Buridan.
Tradições físicas e matemáticas importantes também existiam nas antigas ciências chinesas e indianas. Na filosofia indiana, Kanada foi o primeiro a desenvolver sistematicamente uma teoria do atomismo no século VI aC.
O Renascimento do conhecimento e da aprendizagem na Europa, que se seguiu à redescoberta dos conhecimentos gregos e árabes, afetou toda a sociedade europeia.
Em 1541, Nicolau Copérnico publica o livro De revolutionibus orbium coelestium, que marca o início da astronomia moderna.[36] Neste livro, Copérnico defende o heliocentrismo e o suporta matematicamente.A partir do século XVII, os filósofos naturais começam a montar um ataque sustentado contra o programa filosófico escolástico, que unia filosofia e teologia. Também propuseram que a descrição matemática de áreas como a Mecânica e Astronomia poderiam universalizar as características dos movimentos.
Um dos grandes nomes desta época é o italiano Galileu Galilei. Uma das maiores contribuições de Galileu foi reconhecer que o papel de um cientista não era explicar o “porquê” dos fenômenos, mas somente descrevê-los.Em um de suas obras, Discursos e Demonstrações Matemáticas acerca de Duas Novas Ciências Galileu levanta a questão de por que um objeto cai sem sustentação. Na réplica, Galileu diz que não explicou nada, apenas o descreveu.Galileu simplificou o papel de um cientista, sua função é apenas fazer uma descrição, sem procurar os “porquês” que ele mesmo não pode responder. Galileu foi um dos pioneiros a reconhecer na matemática uma ferramenta para descrever os fenômenos naturais e confirmá-los através de experimentações.

galileu_galilei
Galileu