6572 – Candidatos ao IgNobel – Barulho pode te deixar mais criativo


Pelo menos te faz pensar em um jeito de se livrar dele…

Quem diz são os pesquisadores da Universidade de Illinois, nos Estados Unidos. Eles fizeram o teste com voluntários em lugares diferentes, como cafeteria, escritórios com barulho de trânsito pesado, televisão ou construção. Em ambientes silenciosos (até 50 decibéis, equivalente ao som leve do ar condicionado), quando tiveram de completar tarefas que exigiam soluções criativas, os participantes não se saíram tão bem. Quando foram até outro ambiente em que o barulho chegava a 70 decibéis (barulho de gente falando alto, mas sem gritar), o resultado foi melhor. Mas, como esperado, acima de 85 decibéis (sabe o som de uma máquina de lavar perto de você? É por aí) o barulho prejudicava o trabalho criativo.
Segundo o estudo, um barulhinho de leve faz bem para o cérebro. “Ao invés de se enterrar numa sala silenciosa para encontrar uma solução, sair da zona de conforto e entrar em um ambiente relativamente barulhento pode fazer com que o cérebro pense de forma mais abstrata, e então gerar ideias criativas”, explica Ravi Mehta, líder da pesquisa.

Veja outra pesquisa maluca:
Falta de mulher faz homens gastarem mais dinheiro
A conclusão é de um estudo de universidades americanas. Pesquisadores analisaram dados financeiros de mais de 120 cidades dos Estados Unidos e conferiram quantos cartões de crédito, em média, tinham os moradores e quanto costumavam gastar. Resultado: quando a população masculina era superior à feminina, os homens tinham mais cartões e usavam mais crédito. Falta do que fazer? Pode ser.
Aí os pesquisadores fizeram outro teste para mostrar como eles realmente pensam de forma diferente quando estão solteiros. Eles pediram a 205 participantes para contar quantas pessoas, entre homens e mulheres, havia em algumas fotos – todos os fotografados eram supostamente recém-formados ou membros de um site local de encontros virtuais. Depois pediram a eles para escolher uma das situações: ganhar 35 dólares naquele dia ou 45 dólares no mês seguinte. Aqueles que contaram menos mulheres nas fotos preferiam pegar imediatamente o dinheiro.
“Num ambiente com mais homens, eles precisam competir mais para conquistar uma parceira. Como mostrar os recursos financeiros é importante para eles, consome e gastam mais. Por isso acreditamos que mudanças na razão entre homens e mulheres deveriam ser associadas ao desejo masculino por ganhos imediatos”, explica Vladis Griskevicius, líder da pesquisa.
Ou seja, além de gastarem mais, os homens ainda se tornam mais impulsivos.

6571 – Candidatos ao IgNobel – Mulheres bonitas emburrecem os homens


Dois testes, nos quais participantes interagiram com alguém do mesmo sexo ou do sexo oposto, demonstraram que a capacidade cognitiva do homem (mas não a da mulher) cai logo após uma conversa com o sexo oposto”, conta um estudo de pesquisadores da Universidade de Radboud, na Holanda. E, quanto mais atraente o cara considera a mulher em questão, maior o efeito dessa confusão mental – que é temporária e passa alguns minutos após o contato com a bonitona. É que, lembram os cientistas, os homens são mais motivados pelo acasalamento do que a mulher. São, por exemplo, mais propensos a procurar por sinais de interesse sexual no comportamento feminino e a superestimar o interesse dela numa conversa. O que, na hora da interação, dá uma embaralhada nos pensamentos e os deixa biologicamente confusos.
Em tempo: o estudo só examinou essa questão entre heterossexuais. “Entretanto, uma questão interessante para pesquisas futuras seria se, entre homossexuais, interações com pessoas atraentes do mesmo sexo seriam mais exigentes cognitivamente”.

6570 – Cineminha Ecológico – RJ recebe Festival Internacional de Audiovisual Ambiental


Se você for para o Rio de Janeiro a partir de 31 de agosto, a dica é boa: a cidade receberá a segunda edição do Filmambiente – Festival Internacional de Audiovisual Ambiental. Até 6 de setembro, serão apresentados 75 filmes de 17 países (Alemanha, Argentina, Brasil, Canadá, China, Coreia do Sul, Espanha, EUA, França, Grécia, Holanda, Inglaterra, Itália, Japão, Polônia, Sérvia e Suiça).
Além da competição, em que concorrem 13 longas e 17 curtas, seis mostras paralelas apresentarão filmes dentro de seis eixos temáticos: Água – contaminação, escassez e soluções, Panorama, Originários, Cotidiano de alto risco, Geração 92 e FamíliaEco.
A seleção foi feita entre mais de 300 títulos. A programação completa reúne produções nacionais e internacionais recentes e pretende “provocar debates e contribuir para ampliar o conhecimento e a consciência sobre as mudanças comportamentais necessárias, de governos, empresas e indivíduos, pela preservação da vida no planeta”.
Além das exibições, o Filmambiente terá a participação de vários diretores para debater com o público questões abordadas durante os filmes.

6569 – A Mecânica dos Fluidos


A pressão exercida por um líquido ou um gás em movimento faz funcionar as turbinas, máquinas hidráulicas que transformam a energia desses fluidos em força capaz de alimentar geradores elétricos e acionar motores.
Mecânica dos fluidos é a disciplina da física que estuda a reação dos gases e líquidos às forças exercidas sobre eles. Os gases, diferentemente dos líquidos, que apresentam forma variável e volume constante, têm variáveis essas duas características. Distinguem-se dos líquidos também por sua maior compressibilidade e grande capacidade de expansão e, em razão dessas propriedades, denominam-se fluidos elásticos. Quando submetidos a agitação térmica, contudo, os gases não obedecem às leis da mecânica dos fluidos.
Abordagem histórica. A primeira grande descoberta sobre o comportamento dos fluidos data do século III a.C., quando Arquimedes enunciou o princípio sobre o equilíbrio dos corpos flutuantes, segundo o qual todo corpo parcial ou totalmente imerso num fluido está sujeito à ação de uma força denominada empuxo, de direção vertical, sentido ascendente e equivalente, em módulo, ao peso do fluido deslocado pelo corpo.
As leis sobre o movimento, formuladas por Isaac Newton no século XVII, consolidaram as descobertas de Galileu no domínio da dinâmica e favoreceram o progresso dos conhecimentos sobre mecânica dos fluidos. Acrescentaram-se as experiências de Torricelli para medir a pressão atmosférica e com a enunciação do princípio de Pascal, com base no qual construíram-se máquinas como a prensa hidráulica.
No século XVIII, o suíço Daniel Bernoulli publicou os primeiros estudos sobre fluidos em movimento, que contribuiriam para a formulação da hidrodinâmica. O avanço experimentado pelo cálculo e pela análise matemática no século seguinte foi aplicado com êxito na elaboração de uma axiomática para a mecânica de fluidos. Nos séculos XIX e XX, a acumulação de dados e experiências e o próprio aperfeiçoamento das exposições teóricas foi sintetizado, em brilhantes tratados, por pesquisadores ilustres como os britânicos John William Rayleigh e Osborne Reynolds, e os alemães Hermann von Helmholtz e Ludwig Prandtl, que criaram importantes conceitos, como os de turbulência e viscosidade.
O nascimento da aviação estimulou o estudo das técnicas aerodinâmicas, com a criação de centros de simulação de vôo e a construção de protótipos de modelos reais. A impossibilidade prática de resolver, de acordo com os postulados teóricos conhecidos, os problemas complexos surgidos em condições naturais, transformou a mecânica dos fluidos numa ciência prática, em que as contribuições da técnica e da experimentação desempenham papel fundamental.
Do ponto de vista estritamente físico, os fluidos apresentam como característica mais importante a tendência a adotarem a forma do recipiente que os contém. A distinção entre gases, líquidos e sólidos, no que diz respeito a essa e a outras propriedades, como a elasticidade, a viscosidade etc., fundamenta-se na diferença de intensidade entre as forças de coesão e repulsão que mantêm unidas as moléculas das substâncias. O estudo da estrutura molecular, contudo, foge ao objetivo da mecânica dos fluidos. As propriedades físicas que interessam a esse ramo da ciência são analisadas em três áreas fundamentais: a hidrostática, a hidrodinâmica e a aerodinâmica.

A Hidrostática
A disciplina da mecânica que se encarrega do estudo dos fluidos em repouso denomina-se hidrostática e envolve o conhecimento de duas grandezas fundamentais: densidade e pressão. A densidade de um fluido se define como a razão entre sua massa total e seu volume. Como substância-padrão emprega-se a água, à qual atribui-se o valor de um grama por centímetro cúbico. A pressão do fluido, força que sua massa exerce por unidade de superfície, é variável em diferentes pontos e aumenta com a profundidade.
Os líquidos em repouso se comportam segundo duas leis da hidrostática enunciadas por Arquimedes e Pascal. A de Arquimedes foi incluída com êxito na doutrina mecanicista de Newton e fornece os princípios básicos para a solução dos problemas de flutuação relacionados com o projeto e a construção de barcos. A lei de Pascal empregou o princípio da variação da pressão com a profundidade para explicar o chamado paradoxo hidrostático, fenômeno segundo o qual a pressão que uma coluna de líquido exerce sobre o fundo de um recipiente independe da forma desse recipiente. Já se sabia que a pressão exercida sobre um fluido varia na razão direta da profundidade, de acordo com um fator de proporcionalidade igual ao produto da densidade do fluido pela aceleração da gravidade.
A partir desse resultado teórico, Pascal concluiu que a pressão aplicada a um fluido se transmite igualmente em todas as direções. Esse princípio foi aplicado na fabricação de diversas máquinas, especialmente a prensa hidráulica, e pode ser comprovado por meio de uma experiência em que, num balão de vidro com orifícios de mesmo tamanho, um líquido submetido à pressão de um êmbolo é projetado para fora em jatos de comprimento idêntico.

A Hidrodinâmica
A disciplina da mecânica dos fluidos que estuda as propriedades e o comportamento dos líquidos e gases em movimento denomina-se hidrodinâmica. Essa ciência emprega os conceitos de densidade, pressão e viscosidade e considera os fenômenos de turbulência no interior dos fluidos.

6568 – Física – A Lei da Gravidade


Os movimentos dos homens na Lua parecem filmados em câmara lenta e os astronautas flutuam no interior das naves espaciais. Ambos os fenômenos são curiosos exemplos dos efeitos da gravitação universal, cujos princípios foram formulados por Isaac Newton em 1687.
Gravitação é a força pela qual todos os corpos físicos se atraem uns aos outros. Aceleração gravitacional é aquela que a gravitação imprime ao corpo submetido a sua ação. Pelo fato de possuir uma quantidade de matéria, isto é, uma massa, duas partículas de matéria se atraem e adquirem uma aceleração produzida pela força de atração universal. A interação gravitacional é a menos intensa de todas as interações físicas conhecidas. Só quando envolve uma massa de grande volume, como a da Terra, por exemplo, essa força alcança valores mais significativos.

A magnitude da atração F é diretamente proporcional ao produto das massas m1 e m2 que se atraem, isto é, cresce na mesma medida em que cresce esse produto, e é inversamente proporcional ao quadrado da distância d entre as massas, ou seja, diminui à medida que aumenta essa distância. O valor fixo pelo qual se multiplica essa relação é a constante universal de gravitação G e seu valor numérico só depende das unidades em que se medem a força, a massa e a distância.
Elaborada com base nos trabalhos de Galileu Galilei e de Johannes Kepler, a primeira formulação quantitativa de Newton, expressa em sua Philosophiae naturalis principia mathematica (1687), ficou representada nos seguintes termos:
A determinação do valor da constante de gravitação constituiu um dos principais desafios para os físicos posteriores a Newton. Foi Lord Henry Cavendish quem, em 1798, determinou para ela o valor de 6,754 x 10-11 N.m2/kg2, ao medir o desvio de um raio luminoso refletido num espelho. O valor numérico de F é expresso em newtons, unidade de força do sistema internacional. Na experiência, o espelho encontrava-se apoiado numa barra horizontal, sustentada por um fio que experimentava torsão quando as massas dos extremos da barra eram atraídas por duas massas maiores, postas a pequena distância deles.
Mais recentemente, a constante gravitacional foi determinada com dispositivos de muito maior precisão e o valor encontrado, que registra uma diferença de centésimos em relação ao de Lord Cavendish, é da ordem de 6,670 x 10-11 N.m2/kg2. A fórmula revelou-se de máxima importância para a compreensão dos movimentos dos planetas e fez com que os cientistas da época aumentassem sua confiança na mecânica newtoniana. Essa confiança levou dois astrônomos, o francês Urbain Le Verrier e o inglês John Couch Adams, a explicarem as irregularidades observadas na órbita de Urano. Em 1845, os dois estudiosos defenderam a tese segundo a qual elas eram provocadas pela existência de um outro planeta, com órbita situada além de Urano. No ano seguinte, astrônomos alemães comprovaram a existência do astro, a que deram o nome de Netuno.

O Conceito de Gravitação Através da História
Os antigos filósofos gregos acreditavam que os movimentos dos corpos celestes e dos objetos situados na Terra eram independentes uns dos outros. Para Aristóteles, os corpos celestes possuíam um movimento natural próprio, enquanto que os corpos da Terra tendiam a mover-se, quando o faziam de forma natural, em direção ao centro da mesma. Essa teoria, somada a duas outras idéias aristotélicas – a que supõe que um corpo com movimento de velocidade constante requer uma força atuante contínua e a que postula que essa força deve atuar por contato – retardou o desenvolvimento da teoria da gravitação universal.
As teorias modernas sobre a gravidade da Terra começaram a ser elaboradas a partir dos trabalhos de Newton. O físico e matemático britânico supôs a existência de uma força de atração entre todos os corpos, que atuava também à distância. Afirmava que a Lua não caía sobre a Terra porque a força despendida em seu movimento circular compensava exatamente a atração da gravidade. Ao generalizar o princípio, considerou que os planetas eram mantidos de maneira análoga na órbita do Sol e que a atração era mútua e se estendia a toda a matéria.
A formulação original da lei de gravitação universal teve de ser modificada com a descoberta, em 1916, da teoria geral da relatividade, por Albert Einstein. Seus princípios sustentavam que o contínuo espaço-tempo de quatro dimensões experimenta uma curvatura em presença de matéria e gera um universo de geometria não-euclidiana. Em tal espaço, as geodésicas (curvas sobre superfícies tais que as perpendiculares a cada ponto coincidem com as normais da superfície) constituem as linhas de deslocamento dos corpos e correspondem às órbitas interpretadas por Newton como resultado de alguma força de atração.
Os princípios relativistas modificam as notações astronômicas registradas segundo a lei de gravitação universal somente em alguns casos, como por exemplo a medição de trajetórias na proximidade de massas de grande volume. Assim, a medição do periélio – o ponto de menor distância entre o Sol e um astro que gira em torno dele – dos planetas mais próximos do Sol, experimenta significativa diferença quando feita de acordo com o método clássico ou com o método relativista.

O Campo Gravitacional
A exemplo do que ocorre com os campos elétrico e magnético, uma massa grande como a da Terra cria a seu redor um campo gravitacional, estado especial do espaço que se manifesta quando, ao ingressar nele um corpo, este fica submetido a uma força de atração. O módulo e a direção de tal força dependem do ponto em que se encontra o corpo considerado e da massa deste. Diferentemente do que ocorre com as interações elétricas e magnéticas, essa força apresenta sempre um sentido de atração das duas massas – a da Terra e a do corpo – e nunca repulsão.
Um corpo situado num ponto qualquer próximo à superfície de um planeta, ou concentração de massa geradora de campo gravitacional, sofre uma aceleração constante. Tal valor, específico para cada ponto do espaço, corresponde à intensidade do campo ou intensidade de gravidade. No caso da Terra, a gravidade é maior nos pólos e ligeiramente menos intensa em regiões próximas ao equador, sendo o valor médio em torno de 9,8 m/s2. Na superfície da Lua, a gravidade é seis vezes menor que a da Terra, o que se explica pelo fato do satélite possuir uma massa menor que a da Terra.
Segundo as interpretações da física moderna, o campo gravitacional é dinâmico e pode sofrer transformações. Assim, é capaz de transmitir energia de maneira semelhante à radiação eletromagnética. Essa hipótese, relacionada à transmissão da energia gravitacional por uma forma especial de onda, a onda gravitacional, foi defendida pela primeira vez por Einstein na década de 1920. A comprovação prática da existência de tais ondas constitui um desafio e promete inaugurar uma nova área de estudos astronômicos.

6567 – Planeta Verde – Desnutridos, pinguins não resistem à ‘maratona’


Pinguins no aquário de Ubatuba, litoral norte de São Paulo

Fracos e desnutridos, ao menos 221 pinguins vindos da região da Patagônia, na Argentina, chegaram às praias do litoral norte de São Paulo e sul do Rio de Janeiro nos últimos dois meses.
A maioria foi encontrada morta ou morreu no primeiro dia de tratamento. As informações são do Aquário de Ubatuba e do Instituto Argonauta, responsáveis pelo resgate.
Os animais fazem uma migração natural. Saem da região da Patagônia e seguem para o Brasil, entre os meses de abril e setembro, em busca de alimentos. Porém, o número de aves marinhas encontradas mortas neste ano assusta os especialistas.
Do total de animais, 76 foram encontrados mortos, 98 morreram no primeiro dia de tratamento e somente 47 permanecem vivos. Estes estão em processo de reabilitação.
Para efeito de comparação, em 2011, 64 pinguins apareceram nas praias da região e 16 deles estavam mortos.
Para quem encontrar um animal desses pelas praias, o oceanógrafo Hugo Gallo, fundador do Aquário de Ubatuba e presidente do Instituto Argonauta, tem um conselho: é extremamente importante o acondicionamento correto dos animais para que o resgate tenha sucesso.
“Ao contrário do que a maioria acredita, esses animais estão com frio e precisam ser aquecidos”, diz ele.
“Portanto, deve-se colocar os animais em uma caixa de papelão envolto numa toalha ou jornal e esperar o resgate chegar”
Vale lembrar que o Aquário de Ubatuba e o Instituto Argonauta, que trabalham em parceria, são as únicas instituições que possuem licença do Ibama para resgatar aves e mamíferos marinhos no litoral norte.
Os pinguins também estão indo para o Guarujá. A veterinária Andrea Maranho, do Cram Reviva (Centro de Reabilitação de Animais Marinhos), estima que 60 deles chegaram neste inverno. Ela conta que a maioria apresentava sintomas de fome.
“Na autópsia, encontramos no estômago deles lixo e alimentos que não fazem parte do cardápio natural do pinguim, o que mostra que a espécie tem dificuldade para encontrar comida”, diz. “Os pinguins chegam às praias com desnutrição grave.

6566 – Tecnologias – A Iluminação


A lâmpada de gás, o sistema de iluminação com petróleo e a iluminação de incandescência foram as etapas intermediárias na evolução dos métodos de iluminação, desde a iluminação direta por meio de tochas até a invenção da lâmpada elétrica.
O termo iluminação designa tanto o efeito da radiação luminosa, seja ela natural ou produzida artificialmente, quanto o conjunto de dispositivos, fontes e focos de luz destinados a melhorar as condições de visibilidade num ambiente, dar destaque a objetos ou embelezar algum de seus aspectos. O termo designa também cada uma das técnicas que emprega lâmpadas e dispositivos artificiais para finalidades específicas, como iluminação teatral, iluminação fotográfica e outras.
Tipos e unidades de iluminação. Segundo seja destinada a cobrir áreas limitadas ou espaços inteiros, a iluminação pode ser geral ou localizada. De acordo com a maneira como incide sobre o ambiente ou objeto a iluminar, pode ser direta — em que os raios de luz vão diretamente da fonte ao objeto iluminado — ou indireta, em que os raios iluminam após refletir-se, difratar-se ou refratar-se.
A unidade de grandeza com que se mede a iluminação de um ambiente denomina-se lux. Equivale à iluminação de uma superfície de um metro quadrado sobre a qual incide um fluxo luminoso de um lúmen (unidade de fluxo), distribuído de maneira uniforme. O lux também se define como a iluminação de uma superfície cujos pontos se encontram à distância de um metro de uma fonte luminosa com intensidade de uma candela.
Nos sistemas de iluminação elétrica das ruas e praças de uma cidade, é importante distribuir corretamente as fontes de luz, de forma a obter o máximo de rendimento. As fachadas de estabelecimentos comerciais caracterizam-se pela iluminação abundante e colorida que, mais que iluminar, visa a chamar a atenção da clientela potencial. Assim, os centros comerciais urbanos utilizam a luz de tubos fluorescentes em que se empregam gases como o neon, o vapor de mercúrio etc. Nas discotecas, os jogos de luz formam conjunto com a música: as lâmpadas e refletores, controlados automaticamente, se acendem e apagam, piscando com grande rapidez ao ritmo da música. Para conseguir esse efeito, costuma-se empregar lâmpadas de sódio.
O crescimento do transporte rodoviário e o aumento do tráfego noturno exigem, modernamente, uma boa iluminação permanente nas rodovias e estradas de acesso aos centros populacionais. Os pontos de luz das estradas e vias de acesso são em geral de vapor de mercúrio e são instalados em postes muito altos a fim de evitar o ofuscamento e, ao mesmo tempo, iluminar longos trechos de estrada. Tanto nas cidades quanto nas rodovias, essas luzes se acendem e apagam automaticamente quando a luz natural escasseia ou ressurge, graças a uma célula fotoelétrica que atua também durante nevoeiros espessos e eclipses.
Pelo mesmo motivo, tornou-se necessário equipar os veículos com faróis de potência suficiente para permitir que o motorista perceba os obstáculos sem ofuscar os veículos que trafegam em sentido contrário. Os faróis dos automóveis podem iluminar abaixo do plano horizontal (farol baixo) ao cruzar com outros veículos, ou operar com feixe de luz mais aberto (farol alto), que se ativa quando não há movimento em sentido contrário.
A iluminação industrial está estreitamente relacionada com exigências de produtividade e segurança. As minas, os aeroportos e, em geral, todas as instalações em que o trabalho não se interrompe à noite, como refinarias, metalúrgicas, centrais elétricas etc., mantêm permanentemente iluminadas as zonas de atividade.
Progresso da iluminação artificial. Desde que o homem aprendeu a usar o fogo, descobriu que uma de suas mais úteis aplicações era poder prolongar as horas de luz além do pôr-do-sol. Inventaram-se numerosos artifícios destinados a iluminar grandes aposentos, alguns deles de notável engenhosidade. Leonardo da Vinci, por exemplo, idealizou uma complicada lâmpada que lhe permitia trabalhar à noite sem prejudicar a vista. No século XVIII a iluminação pública das cidades mais importantes começou a ser feita com lanternas ou lâmpadas de azeite, seguindo-se, pouco depois, o uso da iluminação à gás. Enquanto isso, as casas começavam a ser iluminadas por lampiões de acetileno.
Em 1879, a invenção da lâmpada incandescente por Thomas Edison revolucionou as técnicas de iluminação. Mesmo funcionando precariamente, se comparado aos modernos sistemas de iluminação, o invento de Edison teve aplicação imediata em muitas residências e locais de trabalho. No entanto, a iluminação por lâmpadas de filamento incandescente era excessivamente cara para as grandes cidades, que precisavam de muitos pontos de luz de grande potência. Para resolver o problema, na década de 1930 foram criados os tubos fluorescentes, capazes de proporcionar luz potente e praticamente branca, com consumo de eletricidade muito inferior ao das lâmpadas.
Com o emprego de novas tecnologias, produziram-se fontes de luz para usos específicos: focos de quartzo para fotografia, cinema e espetáculos; pequenos focos de luz usados em microcirurgia; e fontes de luz especiais, como os raios laser, ultravioleta e infravermelhos, além de lentes, refletores e outros dispositivos ópticos com que se amplia a capacidade do foco de luz.
Iluminação artificial de ambientes. A iluminação de residências, além de sua finalidade principal, constitui um elemento fundamental da decoração e contribui para que a casa se torne um ambiente agradável. Uma residência com luz natural abundante será mais valorizada que outra com pouca iluminação. Em locais de trabalho, dá-se mais atenção a critérios funcionais para determinar a iluminação adequada. Precisa-se de luz suficiente para o bom andamento das atividades, mas deve-se também considerar o custo de instalação e manutenção dos pontos de luz artificial, a fim de reduzir na medida do possível o consumo de energia. A solução mais freqüentemente adotada pela maioria das empresas é a instalação generalizada, a intervalos regulares, de tubos fluorescentes. Acrescenta-se eventualmente algum ponto de luz incandescente nos ambientes em que isso seja necessário.

6565 – Astrofísica – Os Raios Cósmicos


Raios Cósmicos, de onde eles vêm?

Originários do espaço interestelar, os raios cósmicos fornecem aos cientistas informações importantes sobre as condições físicas do sistema solar e do universo.
Raios cósmicos são partículas energéticas que se deslocam a velocidades próximas à da luz e invadem a atmosfera terrestre, vindas do espaço interestelar. Existem dois tipos básicos de raios cósmicos: primários e secundários. Os raios cósmicos primários são formados principalmente de prótons (núcleos de hidrogênio) e partículas alfa (núcleos de hélio), além de núcleos de elementos pesados e alguns elétrons. Embora se saiba que alguns raios cósmicos primários têm origem no Sol, um eficiente acelerador, a maioria provém de fontes distantes da Terra (possivelmente de violentas explosões de estrelas, as supernovas), e as de maior energia, do espaço exterior à Via Láctea. Ainda se desconhece, no entanto, o modo como essas partículas ganham energia.
Ao penetrarem na atmosfera terrestre, os raios cósmicos primários colidem com núcleos de oxigênio e nitrogênio e produzem raios cósmicos secundários, compostos de partículas subatômicas, como elétrons, pósitrons, mésons e neutrinos, além de minúsculos “pacotes” de energia eletromagnética chamados fótons. Os raios cósmicos secundários altamente energéticos podem interagir com outros núcleos na atmosfera e gerar mais raios secundários, num efeito conhecido como chuveiro.
Depois que Victor Francis Hess esclareceu, em 1912, que a radiação cósmica provinha do espaço extraterrestre, a busca de uma origem para essa radiação passou a ser a principal questão a ser respondida. Inicialmente, procuraram-se fontes discretas, isto é, bem localizadas e singularizadas no espaço, tal como estrelas, quasares e supernovas (que são fontes de radiação visível), além das emissões de rádio e de raios X.
Inicialmente, os astrônomos acreditavam que todos os raios cósmicos, com exceção daqueles mais energéticos, eram produzidos por explosões de supernovas. A hipótese foi posta em dúvida, porém, por trabalhos posteriores, que questionaram se as partículas poderiam realmente ser aceleradas para atingir tão altas energias unicamente a partir da explosão de uma supernova. Questionou-se também se essas partículas, ainda que aceleradas, conseguiriam se propagar através do meio interestelar para pontos muito distantes da explosão original — objeção válida também para outras possíveis fontes, como os pulsares. Após exaustivas pesquisas, a resposta aceita pela comunidade científica na última década do século XX era a de que não existem fontes discretas de raios cósmicos, exceto o Sol, que contribui ocasionalmente, quer modulando, quer injetando partículas que atingem a Terra.
Após a aceleração, os raios cósmicos se fragmentam em interações com o hidrogênio interestelar. Entre os fragmentos estão núcleos radioativos que permitem determinar que algumas das partículas menos energéticas levam até dez milhões de anos para viajarem de suas fontes até a Terra. A potência dessas fontes pode ser estimada a partir da idade das partículas, sua densidade energética e o volume de espaço no qual estiveram confinadas. Presumindo que esse volume seja nossa galáxia, a Via Láctea, então a energia da fonte de raios cósmicos é comparável à que é produzida por grandes explosões de estrelas, as supernovas. Os raios cósmicos podem ser, no entanto, acelerados por ondas de choque geradas subseqüentemente, no meio interestelar, pela explosão da supernova, e não acelerados pela própria explosão.

O estudo de raios cósmicos começou como uma busca de conhecimento a respeito do universo e de suas origens. A pesquisa, no entanto, levou a descobertas de interesse para outras áreas do conhecimento e chegou a gerar preocupação quanto aos efeitos da radiação cósmica sobre os seres vivos.
Além disso, as altas energias dos raios cósmicos fazem deles um instrumento para o estudo do interior do núcleo atômico e da estrutura das partículas subatômicas. Numa fase anterior à invenção dos aceleradores de partículas, as experiências com raios cósmicos secundários permitiram aos cientistas descobrir muitos tipos de partículas elementares.
Graças ao estudo dos raios secundários, foi possível obter as primeiras evidências da criação de pares de pósitrons e elétrons e ilustrar de várias maneiras o princípio da equivalência entre massa e energia proposto por Einstein. Além disso, as colisões nucleares dos raios cósmicos na atmosfera terrestre deixa em seu rastro um número substancial de átomos radioativos — não o bastante para modificarem de forma significativa a radioatividade natural terrestre, mas suficiente para fornecer uma fonte constante de elementos traçadores, que podem ser utilizados no estudo de vários processos de circulação, mistura e separação que ocorrem na Terra.
A primeira aplicação desses elementos traçadores foi descoberta em 1947 pelo químico americano Willard Libby e seus colaboradores, que utilizaram o isótopo radioativo mais abundante produzido pela radiação cósmica, o carbono 14, para fins de datação arqueológica e geológica.

6564 – Tecnologias – O Radar


Os morcegos, mamíferos voadores cujo sentido da visão é muito atrofiado, se guiam na escuridão da noite com a ajuda de um sistema natural de radar, que lhes permite transpor obstáculos com grande habilidade. Para isso, eles emitem ultra-sons cujo eco, refletido nos objetos, fornece informações precisas sobre as dimensões e distâncias do ambiente que os cerca.
Radar é um dispositivo eletromagnético usado para detectar e localizar objetos a distância e sob condições que impedem o uso de instrumentos ópticos. Ele permite medir com precisão as distâncias a que estão localizados os objetos, suas dimensões, bem como sua velocidade e direção de deslocamento.
O termo radar é formado pelas iniciais da expressão radio detecting and ranging (detecção e localização por meio de ondas de rádio). Um sistema de radar opera transmitindo ondas eletromagnéticas, geralmente na freqüência das microondas, na direção de um objeto, e registrando as ondas por estes refletidas. Embora com pequenas variações, segundo sua finalidade, os equipamentos de radar têm a mesma constituição básica. Um transmissor capaz de produzir microondas é provido de antena direcional para a focalização das ondas na direção desejada; um aparelho receptor utiliza a mesma antena do transmissor.
Cada vez que um sinal é enviado, o transmissor é desligado durante uma fração de segundo, para permitir a percepção dos sinais refletidos pelo objeto. Para essa operação, existe um tipo especial de interruptor, que apaga momentaneamente o transmissor, ligando-o logo em seguida para enviar o sinal seguinte. Esse processo de interrupção repete-se cerca de mil vezes por segundo.
As propriedades das ondas captadas, ou ecos, são amplificadas e analisadas por um processador de sinais. O processador de sinais converte os sinais em informação utilizável por um operador humano ou por um dispositivo controlado pela unidade de radar, como canhões antiaéreos. Geralmente a informação sobre um objeto detectado — por exemplo, distância, direção ou altitude — é mostrada na tela de um tubo de raios catódicos, que fornece uma imagem semelhante a um mapa da área varrida pelo feixe do radar.
Os radares podem distinguir entre um tipo de objeto e outro — como, por exemplo, um pássaro de um avião. Alguns sistemas são até mesmo capazes de distinguir diferentes classes de um mesmo objeto, como um avião comercial de um caça militar. Esse reconhecimento é possibilitado pela medição do tamanho e da velocidade do objeto e pela observação do objeto, em alta resolução, numa ou mais dimensões. Hélices ou motores a jato modificam a onda de radar refletida pela aeronave e podem ajudar no reconhecimento. Além disso, o bater das asas de aves durante o vôo produz uma modulação característica que pode ser usada para detectar a presença do animal e até mesmo para distinguir qual é o tipo de ave.
Existem vários tipos de sistemas de radar, diferenciados segundo o método de transmissão de sinais e o uso de propriedades das ondas refletidas. O tipo mais comumente usado é o radar de pulsos, que recebe esse nome porque o transmissor é regulado para enviar descargas ou pulsações eletromagnéticas com um intervalo relativamente longo entre os pulsos. O receptor capta as ondas refletidas pelos objetos mais próximos logo depois da transmissão do pulso, e pelos mais distantes, quase no final do intervalo entre os pulsos. Depois de transcorrido tempo suficiente para a recepção das ondas refletidas pelos objetos mais distantes, o transmissor envia outro pulso eletromagnético, e o ciclo se repete. O intervalo de tempo entre a transmissão de um sinal e a recepção de um eco se deve ao fato de as ondas de rádio viajarem à velocidade extremamente alta — mas finita — da luz (300.000km/s).
Outro tipo muito utilizado de radar é o de onda contínua. Nesse modelo, a antena transmite sinais de rádio continuamente. Como o eco contínuo produzido pelos sinais enviados não pode ser associado a uma parte específica da onda transmitida, não é possível obter informações sobre distância do objeto observado com esse tipo de radar.
O dispositivo pode ser usado, porém, para descobrir, com precisão, a velocidade do objeto, por meio da medição do efeito Doppler — uma deformação da freqüência da onda transmitida, causada pelo movimento do objeto. Um sinal transmitido a uma freqüência específica é enviado por uma antena capaz de transmitir e receber sinais simultaneamente. Quando o sinal transmitido for interrompido por um objeto em movimento, o sinal refletido terá sua freqüência alterada.
Um modelo mais sofisticado de radar é o de freqüência modulada. Nesse dispositivo, marca-se cada porção do sinal de rádio transmitido, de forma a torná-lo reconhecível no momento da recepção. A marcação é feita pela alteração contínua da freqüência da onda transmitida. Quando um eco é captado, sua freqüência difere da freqüência do sinal enviado pelo transmissor no mesmo momento. Se a taxa de mudança de freqüência for conhecida, a diferença de freqüência pode ser interpretada como a distância do radar ao objeto.
Outro tipo de radar é o lidar, ou laser radar, que transmite feixes estreitos de raios laser no lugar das ondas de rádio. O lidar opera em freqüências muito altas, cem mil vezes maiores do que as usadas pelos radares convencionais. A maioria dos sistemas de detecção por ondas de rádio usa freqüências que variam entre alguns megahertz e quarenta gigahertz.

Como foi desenvolvido
Começou com o trabalho do físico alemão Heinrich Rudolf Hertz. Na década de 1880, Hertz demonstrou que as ondas de rádio se comportam como se fossem ondas de luz, ou seja, podem ser refletidas por objetos, assim como a luz é refletida por um espelho.
O engenheiro alemão Christian Hülsmeyer foi o primeiro a aplicar as descobertas de Hertz. Em 1904, Hülsmeyer patenteou um sistema de navegação que usava os ecos produzidos por ondas de rádio. O aparelho despertou pouco interesse devido a suas grandes limitações. A possibilidade de usar o reflexo de sinais de rádio para detectar objetos só foi considerada depois que o engenheiro italiano Guglielmo Marconi elaborou seus princípios em 1922.
Na década de 1930, vários países, entre eles o Reino Unido, os Estados Unidos, a França, a Alemanha e o Japão, iniciaram pesquisas para produzir sistemas de radar capazes de detectar aviões e navios a grandes distâncias e sob baixas condições de visibilidade. Antes do início da segunda guerra mundial, o Reino Unido já possuía uma rede de estações de radar capaz de perceber a aproximação de aviões inimigos. No final de 1939, uma rede semelhante, chamada Freya, começou a ser implantada na Alemanha. Em poucos anos, os ingleses desenvolveram aparelhos de radar pequenos o bastante para serem instalados em aviões de caça. Ao mesmo tempo, nos Estados Unidos, eram criados equipamentos de radar capazes de controlar o disparo de canhões. Ao longo da segunda guerra mundial, o esforço conjunto de pesquisadores americanos e britânicos produziu equipamentos de radar de microondas de alta potência para uso militar.
Após a década de 1940, o desenvolvimento dos radares prosseguiu com o aperfeiçoamento dos componentes e circuitos, bem como com o uso crescente de dispositivos eletrônicos, como transistores e circuitos integrados. A aplicação de novos métodos de rastreamento e o emprego de computadores de alta velocidade para o processamento dos sinais também contribuíram de forma significativa para a eficiência e a confiabilidade dos equipamentos de radar.
Os avanços tecnológicos deram origem a um vasto campo de novas aplicações para o radar. Na área militar, transmissores de alta potência e receptores de grande sensibilidade possibilitaram a criação de uma rede de radares de alcance extremamente longo para detecção de mísseis balísticos intercontinentais. Nas últimas décadas do século XX, os Estados Unidos e o Canadá operavam em conjunto uma rede de radares conhecida como Spadats (iniciais de space detection and tracking system, que em português quer dizer “sistema de rastreio e detecção espacial”). A rede Spadats detecta e monitora os satélites artificiais postos em órbita ao redor da Terra.
Os radares também apresentam inúmeras aplicações civis. O equipamento tornou-se um importante elemento de segurança para a navegação aérea e marítima. Praticamente todos os grandes aeroportos contam com sistemas de radar de alta precisão para controlar e orientar o movimento de chegada e partida de aviões, de forma a evitar colisões. Com esses sistemas, os controladores de tráfego aéreo podem guiar os pilotos para um pouso seguro, mesmo quando as condições de visibilidade são ruins.
Grande número de embarcações, inclusive lanchas particulares e barcos pesqueiros, são equipados com unidades de radar para navegação costeira. Em muitos portos, sistemas de vigilância por radar foram instalados em terra firme para orientar os navios que se aproximam. O radar também é um instrumento muito útil para pesquisas astronômicas. Ele permite não só efetuar medidas mais exatas das distâncias, em relação aos sistemas ópticos de medição, como também estudar as características das superfícies dos planetas e satélites. Os astrônomos já empregaram radares para mapear a superfície da Lua, de Marte e de Vênus em detalhe.
A meteorologia é outro campo da ciência beneficiado pelo radar. Equipamentos de radar instalados no solo e em aviões ajudam a fazer previsões de tempo a curto prazo. Eles podem localizar e rastrear temporais que se aproximam, a centenas de quilômetros, captando os ecos de sinais de radar produzidos por gotas, cristais de gelo e granizo no interior das nuvens.
A contínua miniaturização dos circuitos e de equipamentos auxiliares permitiu projetar unidades portáteis de radar cada vez menores. Os equipamentos usados pela polícia para detectar veículos em alta velocidade são um exemplo desse tipo de dispositivo. Uma unidade ainda menor foi desenvolvida para ser empregada em bengalas para cegos.

6563 – Física – A Termodinâmica


A descoberta de meios para utilização de fontes de energia diferentes da que os animais forneciam foi o que determinou a possibilidade da revolução industrial. A energia pode se apresentar na natureza sob diversas formas, mas, exceto no caso da energia hidráulica e dos ventos, deve ser transformada em trabalho mecânico por meio de máquinas, para ser utilizada pelo homem. A termodinâmica nasceu justamente dessa necessidade, e foi o estudo de máquinas térmicas que desenvolveu seus princípios básicos.
Termodinâmica é o ramo da física que estuda as relações entre calor, temperatura, trabalho e energia. Abrange o comportamento geral dos sistemas físicos em condições de equilíbrio ou próximas dele. Qualquer sistema físico, seja ele capaz ou não de trocar energia e matéria com o ambiente, tenderá a atingir um estado de equilíbrio, que pode ser descrito pela especificação de suas propriedades, como pressão, temperatura ou composição química. Se as limitações externas são alteradas (por exemplo, se o sistema passa a poder se expandir), então essas propriedades se modificam. A termodinâmica tenta descrever matematicamente essas mudanças e prever as condições de equilíbrio do sistema.
No estudo da termodinâmica, consideram-se alguns tipos particulares de transformações. A transformação isotérmica é a que se processa sob temperatura constante, enquanto a isobárica é aquela durante a qual não há variação de pressão do sistema. A transformação isométrica se caracteriza pela constância do volume do sistema, a adiabática pela ausência de trocas térmicas com o exterior e a politrópica pela constância do quociente entre a quantidade de calor trocado com o meio externo e a variação de temperatura. Conhecem-se ainda mais dois tipos de transformação — a isentálpica e a isentrópica — nas quais se observa a constância de outras propriedades termodinâmicas, respectivamente a entalpia (soma da energia interna com o produto da pressão pelo volume do sistema) e a entropia (função associada à organização espacial e energética das partículas de um sistema).

Existem muitas grandezas físicas mensuráveis que variam quando a temperatura do corpo se altera. Em princípio, essas grandezas podem ser utilizadas como indicadoras de temperatura dos corpos. Entre elas citam-se o volume de um líquido, a resistência elétrica de um fio e o volume de um gás mantido a pressão constante.
A equação de estado de uma substância sólida, líquida ou gasosa é uma relação entre grandezas como a pressão (p), a temperatura (t), a densidade (s) e o volume (v). Sabe-se, experimentalmente, que existem relações entre essas grandezas: em princípio, é possível obter uma função do tipo f (p, t, s, v) = 0. Nos casos mais gerais, essas funções são bastante complicadas. Uma forma de estudar as substâncias é representar graficamente a variação de uma grandeza com outra escolhida, estando todas as demais fixas.
Para gases a baixa densidade, podem-se obter equações de estado simples. Nesse caso, observa-se um comportamento geral, que é expresso pela relação
PV = nRT
em que P é a pressão do gás, V o volume por ele ocupado, T a temperatura, n o número de moles do gás e R uma constante igual a 8,3149 J/kg.mol.K. Para gases de densidades mais elevadas, o modelo do gás ideal (ou perfeito) não é válido.

As principais definições de grandezas termodinâmicas constam de suas leis: a lei zero é a que define a temperatura; a primeira lei (calor, trabalho mecânico e energia interna) é a do princípio da conservação da energia; a segunda lei define entropia e fornece regras para conversão de energia térmica em trabalho mecânico e a terceira lei aponta limitações para a obtenção do zero absoluto de temperatura.

Lei zero. Embora a noção de quente e frio pelo contato com a pele seja de uso corrente, ela pode levar a avaliações erradas de temperatura. De qualquer forma, é da observação cotidiana dos corpos quentes e frios que se chega ao conceito de temperatura. Levando em conta essas observações, assim postulou-se a lei zero: se A e B são dois corpos em equilíbrio térmico com um terceiro corpo C, então A e B estão em equilíbrio térmico um com o outro, ou seja, a temperatura desses sistemas é a mesma.

Primeira lei. A lei de conservação de energia aplicada aos processos térmicos é conhecida como primeira lei da termodinâmica. Ela dá a equivalência entre calor e trabalho e pode enunciar-se da seguinte maneira: “em todo sistema quimicamente isolado em que há troca de trabalho e calor com o meio externo e em que, durante essa transformação, realiza-se um ciclo (o estado inicial do sistema é igual a seu estado final), as quantidades de calor (Q) e trabalho (W) trocadas são iguais. Assim, chega-se à expressão W = JQ, em que J é uma constante que corresponde ao ajuste entre as unidades de calor (usada na medida de Q) e Joule (usada na medida de W). Essa constante é empregada na própria definição de caloria (1 cal = 4,1868J).

Segunda lei. A tendência do calor a passar de um corpo mais quente para um mais frio, e nunca no sentido oposto, a menos que exteriormente comandado, é enunciada pela segunda lei da termodinâmica. Essa lei nega a existência do fenômeno espontâneo de transformação de energia térmica em energia cinética, que permitiria converter a energia do meio aquecido para a execução de um movimento (por exemplo, mover um barco com a energia resultante da conversão da água em gelo).
De acordo com essa lei da termodinâmica, num sistema fechado, a entropia nunca diminui. Isso significa que, se o sistema está inicialmente num estado de baixa entropia (organizado), tenderá espontaneamente a um estado de entropia máxima (desordem). Por exemplo, se dois blocos de metal a diferentes temperaturas são postos em contato térmico, a desigual distribuição de temperatura rapidamente dá lugar a um estado de temperatura uniforme à medida que a energia flui do bloco mais quente para o mais frio. Ao atingir esse estado, o sistema está em equilíbrio.

6562 – Física – O Eletromagnetismo


Conta uma lenda grega que o pastor Magnes se surpreendeu ao ver como a bola de ferro de seu bastão era atraída por uma pedra misteriosa, o âmbar (em grego, elektron). A história demonstra como é antigo o interesse pelos fenômenos eletromagnéticos.
Denomina-se eletromagnetismo a disciplina científica que estuda as propriedades elétricas e magnéticas da matéria e, em especial, as relações que se estabelecem entre elas.

A existência de forças naturais de origem elétrica e magnética fora observada em contextos históricos independentes, mas só na primeira metade do século XIX um grupo de pesquisadores conseguiu unificar os dois campos de estudo e assentar os alicerces de uma nova concepção da estrutura física dos corpos.
No final do século XVIII Charles-Augustin de Coulomb e Henry Cavendish haviam determinado as leis empíricas que regiam o comportamento das substâncias eletricamente carregadas e o dos ímãs. Embora a similaridade entre as características dos dois fenômenos indicasse uma possível relação entre eles, só em 1820 se obteve prova experimental dessa relação, quando o dinamarquês Hans Christian Oersted, ao aproximar uma bússola de um fio de arame que unia os dois pólos de uma pilha elétrica, descobriu que a agulha imantada da bússola deixava de apontar para o norte, orientando-se para uma direção perpendicular ao arame.
Pouco depois, André-Marie Ampère demonstrou que duas correntes elétricas exerciam mútua influência quando circulavam através de fios próximos um do outro. Apesar disso, até a publicação, ao longo do século XIX, dos trabalhos do inglês Michael Faraday e do escocês James Clerk Maxwell, o eletromagnetismo não foi – nem começou a ser – considerado um autêntico ramo da física.

Os fenômenos eletromagnéticos são produzidos por cargas elétricas em movimento. A carga elétrica, assim como a massa, é uma qualidade intrínseca da matéria e apresenta a particularidade de existir em duas variedades, convencionalmente denominadas positiva e negativa. A unidade elementar da carga é o elétron, partícula atômica de sinal negativo, embora sua magnitude não resulte em entidade suficiente para cálculos macroscópicos normais. Como unidade usual de carga usa-se então o coulomb; o valor da carga de um elétron equivale a 1,60 x 10-19 coulombs.
Duas cargas elétricas de mesmo sinal se repelem, e quando de sinais contrários se atraem. A força destas interações é diretamente proporcional a sua quantidade de carga e inversamente proporcional ao quadrado da distância que as separa. Para explicar a existência dessas forças adotou-se a noção de campo elétrico criado em torno de uma carga, de modo que a força elétrica que vai atuar sobre outra carga distanciada da primeira corresponde ao produto da quantidade de carga desta primeira por uma grandeza chamada intensidade de campo elétrico. A energia que este campo transmite à unidade de carga chama-se potencial elétrico e geralmente se mede em volts.
Uma das variáveis magnéticas fundamentais é a indução magnética, intimamente relacionada com a intensidade do campo magnético. A indução representa a força magnética exercida sobre um corpo por unidade de carga elétrica e de velocidade. A unidade de indução magnética é o tesla, que equivale a um weber por metro quadrado; o weber é uma medida de fluxo magnético (grandeza que reflete a densidade dos campos magnéticos). Tanto a intensidade de campo elétrico e magnético quanto a indução magnética apresentam um caráter vetorial e, por conseguinte, para descrevê-las adequadamente devem-se definir, para cada uma, sua magnitude, direção e sentido.
Por correlacionar a eletricidade e o magnetismo, adquiriu função especial no campo da física a noção de corrente elétrica, entendida como a circulação de cargas livres ao longo de um material condutor. Sua magnitude é determinada pela intensidade da corrente, que é a quantidade de cargas elétricas livres que circulam pelo condutor em um tempo determinado. Chama-se ampère a unidade de intensidade de corrente resultante da passagem em um condutor de um coulomb de carga durante um segundo. Essa unidade tornou-se a mais importante do ponto de vista eletromagnético, levando o sistema internacional de unidades a ter a notação MKSA: metro, quilograma, segundo, ampère.

A Indução Eletromagnética
No decorrer do século XIX, as experiências de Örsted e Ampère demonstraram a influência que as correntes elétricas exercem sobre os materiais imantados, enquanto Faraday e Joseph Henry determinaram a natureza das correntes elétricas induzidas por campos magnéticos variáveis no espaço.
Os resultados de suas pesquisas, fundamento da indução eletromagnética, constituem a base do eletromagnetismo. Outros postulados enunciam a existência de dois pólos elétricos, positivo e negativo, independentes e separados, e de dois pólos magnéticos inseparáveis de nomes diferentes (norte e sul). Ampère, estimulado pelas descobertas de Örsted, aprofundou-se na pesquisa das forças magnéticas provocadas nas proximidades de uma corrente elétrica e demonstrou que esses impulsos se incrementam na razão direta da corrente e na razão inversa da distância ao fio pelo qual ela circula. Comprovou, além disso, que as forças induzidas estão em grande medida condicionadas pela orientação do fio condutor.
Ao aproximar-se um ímã de uma pilha elétrica observa-se uma variação em sua força eletromotriz, que é a medida da energia fornecida a partir de cada unidade de carga elétrica nela contida. Essa alteração é interrompida quando se imobiliza o ímã, e adquire sinal contrário quando este é afastado. Deduz-se daí que os campos magnéticos produzem correntes elétricas em um circuito e que o sentido de seu fluxo tende a compensar a perturbação exterior, com a indução simultânea de um campo magnético oposto ao inicial.
Analogamente, uma corrente elétrica que circula em um condutor gera um campo magnético associado que, como efeito derivado, induz no condutor uma corrente de sentido contrário ao da inicial. Esse fenômeno é conhecido como auto-indução, e a relação entre o campo magnético e a intensidade da corrente induzida por ele é fornecida por um coeficiente denominado indutância, que depende das características físicas e geométricas do material condutor. A unidade de medida de indução é o henry, definido como a grandeza gerada entre dois circuitos dispostos de forma tal que quando num deles a intensidade varia em um ampère por segundo seja induzida no outro uma força eletromotriz de um volt.

Desde o advento das idéias inovadoras de Isaac Newton, estabeleceu-se uma interpretação causal do universo segundo a qual todo efeito observado obedeceria a forças exercidas por objetos situados a certa distância. Nesse contexto histórico nasceu a teoria eletromagnética, segundo a qual as atrações e repulsões elétricas e magnéticas resultavam da ação de corpos distantes.
Era preciso, pois, encontrar a verdadeira causa final dessas forças, buscando-se uma analogia com a massa gravitacional de Newton e, simultaneamente, explicar de forma rigorosa os mecanismos de interação eletromagnética entre os corpos. Coube a Ampère, a partir de seus trabalhos sobre correntes elétricas, expor a teoria da existência de partículas elétricas elementares que, ao se deslocar no interior das substâncias, causariam também os efeitos magnéticos. No entanto, em suas experiências, ele não conseguiu encontrar essas partículas.
Por outro lado, Faraday introduziu a noção de campo, que teve logo grande aceitação e constituiu um marco no desenvolvimento da física moderna. Concebeu o espaço como cheio de linhas de força — correntes invisíveis de energia que governavam o movimento dos corpos e eram criadas pela própria presença dos objetos. Assim, uma carga elétrica móvel produz perturbações eletromagnéticas a seu redor, de modo que qualquer outra carga próxima detecta sua presença por meio das linhas do campo. Esse conceito foi desenvolvido matematicamente pelo britânico James Clerk Maxwell, e a força de seus argumentos acabou com a da idéia de forças que agiam sob controle remoto, vigente em sua época.
Os múltiplos trabalhos teóricos sobre o eletromagnetismo culminaram em 1897, quando Sir Joseph John Thomson descobriu o elétron, cuja existência foi deduzida do desvio dos raios catódicos na presença de um campo elétrico. A natureza do eletromagnetismo foi confirmada ao se determinar a origem das forças magnéticas no movimento orbital dos elétrons ao redor dos núcleos dos átomos.

As Ondas Eletromagnéticas
Os múltiplos trabalhos teóricos sobre o eletromagnetismo culminaram em 1897, quando Sir Joseph John Thomson descobriu o elétron, cuja existência foi deduzida do desvio dos raios catódicos na presença de um campo elétrico. A natureza do eletromagnetismo foi confirmada ao se determinar a origem das forças magnéticas no movimento orbital dos elétrons ao redor dos núcleos dos átomos.

Uso Prático
A teoria eletromagnética é muito usada na construção de geradores de energia elétrica, dentre estes destacam-se os alternadores ou geradores de corrente alternada, que propiciam maior rendimento que os de corrente contínua por não sofrerem perdas mediante atrito. A base do alternador é o eletroímã, núcleo em geral de ferro doce e em torno do qual se enrola um fio condutor revestido de cobertura isolante. O dispositivo gira a grande velocidade, de modo que os pólos magnéticos mudam de sentido e induzem correntes elétricas que se invertem a cada instante. Com isso, as cargas circulam várias vezes pela mesma seção do condutor. Os eletroímãs também são utilizados na fabricação de elevadores e instrumentos cirúrgicos e terapêuticos. Seu uso abrange diversos campos industriais, uma vez que os campos que geram podem mudar de direção e de intensidade.

6561 – História – Império Otomano, um Império em Pedaços


Durante o século 19 e início do século 20, o Império Otomano e várias regiões adjacentes se desagregaram em um grande número de unidades políticas.

A Albânia era uma província otomana até a independência no final de 1912, após violentos combates.

Armênia – Região à oeste do Império Otomano e a leste da Pérsia; região oriental, ocupada pela Rússia, 1804; brevemente República Unida Independente, 1918-20; autonomia prometida, porém, não concedida, devida a não-ratificação do Tratado de Savres de 1920, subsequentemente absorvida pela Turquia e pela URSS.

Arzebaijão – Principalmente sob o domínio persa, até o início do século 19, parcialmente ocupada pela Rússia, 1803-28, brevemente independente, 1918-20, depois incorporado pela Rússia; turcos de língua arzebaijão divididos, entre a URSS e Pérsia.

Bósnia -Herzegóvina – Otomana; administração austríaca desde 1878, incorporada ao império Áustro-Hungaro, 1908; região da Iogoslávia após 1918, hoje independente.

Bulgária – Província otomana desde o século 14, levante nacionalista malogrado, 1875-6; autonomia concedida, porém, dividida em 1878; unida à Romênia Oriental, 1885; Reino Independente,1908, ganhou a Macedônia e a Trácia Ocidental, 1913.

Creta – Província otomana desde 1669; independente em 1898.

Grécia – Domínio otomano desde o século 14; país independente após as revoltas de 1821, 1833; ampliada pelos acréscimos de Creta (1913) e Macedônia;

Iêmen – Governantes locais pertencentes à seita Zaidi, nominalmente incorporada ao Império Otomano, 1517; ocupada pela Grã-Bretanha, 1839, declaração de independência em 1918.

Iraque – Formado a partir de 3 antigas províncias otomanas de Basra, Bagdá, Monsul, 1920,unificado como Reino sob a Monarquia Hachemita; 1921-58 sob mandato britânico, 1920-32;

Kuait – Governo autônomo de xeques sob a família As-Sabah desde 1756; Tratado de Proteção com a Grã-Bretanha, 1899-1961.

Líbano – Conquista otomana, 1516-17;MOnte Líbano, regime privilegiado concedido após a guerra civil de 1860. Regime republicano concedido sob mandato francês.

Demais países do grande bloco otomano:
Palestina, Pérsia, Quatar, Romênia, Sérvia, Síria, Transjordânia e Tunísia. Após a 1ª Guerra Mundial, os aliados, pelo Tratado de Sévres de 1920, propuseram desmembrar a Túrquia. A oposição nacionalista cristalizou-se ao redor do único general não-derrotado do país, Mustafa Kemal, e expodiu após a ocupação grega de Esmirna de 1920. A resistência turca, sediada em Ancara, não conseguiu no início, opor-se ao avanço grego em direção à Anatólia Central. Os turcos, porém, se reagruparam e repeliram o inimigo após 2 batalhas em Iono. Em 1922, as forças turcas voltaram a ocupar Esmirna, massacrando grande parte da população grega.

O Império Otomano começou a nascer no século 11, quando tribos turcas nômades se fixaram na Anatólia, região que hoje é parte da Turquia. Tais tribos ajudaram a difundir a religião muçulmana em terras que até então estavam sob o domínio de outro império, o Bizantino. “O termo otomano deriva do nome Osman, ou, em árabe, Uthman”, diz o historiador inglês Malcolm Yapp, da Universidade de Londres. Osman, ou Otman I (1258-1324), foi um chefe turco que transformou essas tribos nômades em uma dinastia imperial. Durante os séculos 15 e 16, o Império Otomano tornou-se um dos estados mais fortes do mundo, englobando boa parte do Oriente Médio, do Leste Europeu e do norte da África. Além do poderio militar, o que ajudou a garantir essa expansão foi a tolerância dos otomanos com as tradições e as religiões dos povos conquistados.
“A Igreja Ortodoxa cristã, que predominava nas terras bizantinas, foi mantida. Os judeus perseguidos pelos cristãos na península Ibérica também encontraram refúgio nos territórios otomanos”, diz a historiadora Giulia Crippa, da Universidade de São Paulo (USP), em Ribeirão Preto (SP). O império começou a decair no século 17. As atividades econômicas dos povos conquistados eram conduzidas por iniciativa deles próprios, o que fez com que a economia geral do império fosse se desintegrando lentamente. A instabilidade política aumentava cada vez mais até que, em 1909, o sultão – como eram chamados os líderes otomanos – Abdul Hamid II foi deposto por uma rebelião. Essa mudança deu início à modernização do império, bastante influenciada pela Alemanha, ao lado de quem os turcos lutaram na Primeira Guerra Mundial (1914-1918). A derrota no confronto tumultuou ainda mais o já dilacerado império, que foi abolido pouco depois, em 1923, quando foi proclamada a República da Turquia.

Em 1453, o Império Otomano conquista a cidade de Constantinopla, que passa a se chamar Istambul. A vitória marca a supremacia definitiva dos turcos sobre o Império Bizantino, com quem lutavam desde o século 11.
Em 1453, o Império Otomano conquista a cidade de Constantinopla, que passa a se chamar Istambul. A vitória marca a supremacia definitiva dos turcos sobre o Império Bizantino, com quem lutavam desde o século 11.
Entre 1853 e 1856, o Império Otomano trava com a Rússia a Guerra da Criméia. Em jogo, territórios onde hoje ficam a Romênia e a península da Criméia, na Ucrânia. Com o apoio da França e da Inglaterra, os turcos vencem.
Os aliados da Guerra da Criméia viram inimigos na Primeira Guerra. É que, na busca pela modernização, os otomanos se aproximam da Alemanha. Ao lado desse país, os turcos são derrotados no grande conflito mundial.
Palestina

6560 – Bioquímica e Fisiologia – Isolada a Proteína Irisina


Trata-se de uma proteína que é quebrada em três partes, onde uma delas a Irisina entra na corrente sanguínea, entrando em contato com a gordura ruim, deixando-a com cor Marrom, onde sua queima e mais acelerada.
Exemplo do uso da palavra Irisina:
Proteína muscular, que e quebrada em três partes, uma delas a irisina, hormônio que queima a gordura do corpo.
Hipócrates observou que, “caminhar é a melhor medicina do homem”, e assim descobriu os benefícios do exercício físico para a saúde. Após dois milênio de anos, os benefícios da atividade física sobre a saúde e longevidade tem sido muito bem documentada. Atualmente os cientistas estão começando a entender os benefícios para a saúde a nível molecular, e começando a considerar a musculatura esquelética como um órgão endócrino, capaz de se comunicar com outros tecidos através das miocinas, nas quais são liberadas na circulação durante a realização de atividade física. Num recente estudo, Boström et al. (Nature 2012, 481:463-468), identificou uma nova miocina, Irisina, na qual é liberada na circulação durante a realização de exercício físico e estimula a transformação de células adiposas brancas em células adiposas com um fenótipo similar as células adiposas marrom, fenômeno conhecido como “browning”.
Foi verificado que o PGC-1α também está envolvido com processos patológicos associados com desordens relacionada com a obesidade, tal como diabetes, doença cardiovascular e neurodegeneração. Por outro lado, camundongos transgênicos portando a forma constitutivamente ativa da PGC-1α na musculatura esquelética, são resistentes a obesidade e ao diabetes relacionados com a idade, além de apresentarem uma aumentada expectativa de vida. Um achado que sugere que o PGC-1α associado aos seus efeitos na musculatura esquelética pode regular o metabolismo em outros tecidos, em especial, o tecido adiposo branco.

O objetivo do estudo foi identificar o sinal que realiza um crosstalk entre a musculatura esquelética que expressa o PGC-1α e o tecido adiposo. Ao comparar os genes que são expressos na musculatura esquelética de camundongos controles (wild-type) com os transgênicos, eles observaram uma maior expressão de muitos genes codificados por certos produtos proteicos, incluindo a conhecida proteína contendo o domínio 5 da fibronectina do tipo 3 (FNDC5 – fibronectin type III domain containing 5). Os pesquisadores observaram que a FNDC5 é proteoliticamente clivavada em um produto, o qual foi chamada de Irisina “Irisin”, nome decorrente da deusa Grega Iris, e que sua expressão é aumentada na musculatura esquelética com o exercício tanto em camundongos como em humanos. Em humanos, foi observado que as concentrações de irisina no plasma aumentam após 10 semanas de treinamento regular com execício físico.
Além disso, os pesquisadores injetaram em camundongos obesos, adenovírus expressando FNDC5, o qual resultava em níveis que eram de 3 a 4 vezes maiores do que os níveis observados no animais injetados com as partículas de adenovírus contendo o gene controle. O tecido adiposo de camundongos com maiores níveis de irisina no plasma, apresentavam maiores níveis de expressão da proteína desacopladora 1 (UCP1 – uncoupling protein 1), o qual é uma característica do tecido adiposo marrom.
A visão de que humanos possuem tecido adiposo marrom agora é bem aceita. Além do mais, recentes evidências mostram que o metabolismo do tecido adiposo marrom é aumentado quando humanos adultos são expostos ao frio. Portanto, os achados de Boström et al. é que o exercício, através da irisina, tem a capacidade de ativar um fenótipo similar ao do tecido adiposo marrom, que provavelmente teria um significado clínico importante para o metabolismo em humanos. O que mais suporta esta conclusão é que a irisina de camundongos e humanos são proteínas idênticas, embora, seja necessário verificar se a irisina em humanos tem o mesmo efeito no tecido adiposo branco como ela faz em camundongos.
Diante dos efeitos anti-obesidade e anti-diabético da formação de tecido adiposo marrom em camundongos, é possível que pacientes que sejam incapazes de se exercitar devido a condições musculoesqueléticas ou cardiovasculares severas, pudessem se beneficiar diretamente pela descoberta da irisina. No entanto, devido ao fato de o exercício orquestrar uma inter-relação de inúmeras proteínas secretadas e não secretas, e assim, beneficiar de maneira direta ou indireta órgãos como o cérebro ou o sistema cardiovascular, é improvável que uma “pílula do exercício”, irá trocar os efeitos totais de uma boa prática regular de exercícios.

Um Pouco+
Esta semana, cientistas da universidade de Harvard e do Instituto Dana-Farber encontraram mais um bom motivo para abandonar a preguiça.
Os pesquisadores descobriram um novo hormônio que é liberado no nosso organismo quando fazemos atividades físicas. Batizado pelos cientistas de irisina, ele acelera a queima de calorias e atua no nosso corpo mesmo depois que o exercício foi concluído.
Os testes feitos com ratos em laboratórios mostraram que quando o músculo é exercitado uma proteína é liberada e partida em vários pedaços. Um deles é a irisina. Através da corrente sanguínea, esse hormônio chega à gordura comum, também chamada de gordura branca, que armazena calorias. A irisina transforma a gordura branca em marrom, onde a queima de calorias é muito mais rápida.
Segundo o doutor Christhopher Buetttner, professor da escola de medicina do hospital Mount Sinai, a descoberta deste novo hormônio é importante e um medicamento feito à base dele poderia ajudar pessoas com obesidade mórbida e as que correm risco elevado de desenvolver diabetes. Mas é preciso entender ainda como isso vai funcionar em seres humanos.
Esse hormônio pode ajudar as pessoas a queimarem mais energia, mas quando isso acontece as pessoas tendem a comer mais também, você fica com mais fome. É preciso fazer mais testes, alerta o médico.

6559 – Cinema – O Vingador do Futuro – Remake


Volte logo pra Marte, volte logo pra Marte…

Mais ação com menos humor, esta é a principal característica do remake.
Vinte e dois anos depois de “O Vingador do Futuro”, ficção científica estrelada por Arnold Schwarzenegger e dirigida por Paul Verhoeven, surge um remake da história — que parte igualmente de um conto do renomado autor Philip K. Dick, “Lembramos Para Você A Preço de Atacado”, e é dirigido por Len Wiseman (“Anjos da Noite”).
Desta vez, o protagonista é o ator irlandês Colin Farrell, vivendo o operário Doug Quaid, atormentado por uma rotina massacrante e um pesadelo recorrente: ele se vê fugindo de uma intensa perseguição, acompanhado por uma bela mulher que não conhece.
Se o cenário futurista é parecido com o filme de 1990, sumiu pelo menos uma referência importante — Marte. É com o astro vermelho o sonho repetido do operário vivido por Schwarzenegger. Agora, o planeta nem sequer é mencionado. Repete-se na trama atual a procura, por Quaid, da empresa Rekall para implantar uma memória mais emocionante do que lhe parece sua vida cotidiana — exceto pelo casamento com Lori (Kate Beckinsale), aparentemente feliz.
Sem contar nada a Lori, Quaid procura a Rekall, pensando implantar em sua memória as vivências de um agente secreto. Mas, quando se prepara para receber o pacote, algo dá muito errado — porque, para dar certo, a fantasia não pode ter qualquer base na realidade. E Quaid não é nada do que pensava, embora não se lembre. Num instante, a Rekall é invadida por soldados com aparência de RoboCop, que vêm combater Quaid — que, sem saber como, mostrou-se capaz de imobilizar um batalhão deles. A descoberta de suas habilidades continua a surpreendê-lo e vem a calhar, até porque ele tem que fugir dali, para salvar a própria vida.
Mantendo um detalhe presente também no filme original, a mulher de Quaid tem um bocado de segredos escondidos. E o conflito entre os dois, que são agentes secretos, ultrapassa muito os limites de uma guerra conjugal. Carregam a trama cheia de adrenalina as fugas de Quaid — que na verdade é Carl Hauser –, seu encontro com a mulher que via no sonho, Melina (Jessica Biel), e sua dúbia relação com o movimento rebelde que tenta mudar uma ordem autoritária nesse mundo sombrio do futuro vislumbrado por Philip K. Dick.
Diretor mais afeito a filmes de terror e ação do que ficção científica, Wiseman enfatiza as sensacionais escapadas do protagonista, em sequências que visam provocar vertigens, em saltos de altos prédios e a bordo de naves espaciais. Lori, a mulher de Quaid, é boa de briga. Não é mole ser páreo para ela, assim como acontecia com Schwarzenegger diante de Sharon Stone em 1990.
A história original, aliás, faz parte da coletânea “Realidades Adaptadas: Os Contos de Philip K. Dick”, livro que reúne o conto que deu origem aos dois filmes e outras histórias do escritor adaptadas para o cinema como “Os Agentes do Destino” e “Minority Report”.

Curiosidade – A Mulher de 3 seios que fez sucesso no 1° filme, reaparece, embora não haja mutantes na Terra.

6558 – Nasa recebe fotos coloridas do jipe em Marte visto da órbita



A primeira imagem em cores feita por uma sonda em órbita de Marte do jipe Curiosity mostra detalhes das rochas da cratera Gale. A região será investigada pelo aparelho, que chegou ao planeta no dia 6 de agosto.
Imagens anteriores, sem cores, haviam mostrado o momento do pouso do jipe, quando seus paraquedas estavam abertos. A nova foto foi tratada para ter suas cores exageradas e destacar as diferenças entre as rochas e o ponto onde o jipe desceu, que aparece em azul.
Enquanto isso, o Curiosity terminou uma transição que levou quatro dias e adaptou seus computadores para se movimentar pelo planeta e usar os instrumentos em seu braço robótico.
Enquanto ainda estava no fim de sua viagem até Marte e ainda durante a descida, o jipe usou um software específico para essas tarefas. Agora, essas funções não são mais necessárias.
De acordo com o Laboratório de Propulsão a Jato da Nasa, o primeiro passeio do jipe deve ocorrer dentro de uma semana, e vai incluir trajetórias para frente e para trás e uma virada. O Curiosity tem um motor em cada uma de suas seis rodas. Antes do primeiro uso, os controles do motor serão testados.
Depois, o braço robótico será testado.
Os pesquisadores estão analisando as imagens feitas pelo Curiosity para identificar alvos a serem investigados perto de onde o jipe está e na região do monte Sharp.
De acordo com um comunicado da Nasa, a chegada até as camadas de rocha sedimentar do monte Sharp, alvo principal da missão do jipe, deve consumir o primeiro ano da operação.
O objetivo principal é saber se Marte tem os ingredientes básicos da vida e condições ambientáveis favoráveis à existência de micróbios.
O jipe é duas vezes mais comprido e cinco vezes mais pesado que os anteriores Spirit e Opportunity, de 2003.
Observações feitas da órbita mostraram a possibilidade de ter existido água no planeta.