14.165-Ecossistemas Aquáticos


cadeiaeteiaalimentar5e611638
Os ecossistemas aquáticos são classificados conforme as características de: temperatura, salinidade, movimentação da água, profundidade e incidência de raios solares.
Os ecossistemas marinhos incluem os mares e oceanos, os quais cobrem aproximadamente 71% da superfície terrestre.
Eles podem ser classificados de acordo com a profundidade da água da seguinte forma:

Zona litoral: região entre os limites das marés, ficando exposta periodicamente.
Zona nerítica: região do mar sobre a plataforma continental que se estende até 200 m de profundidade, sendo iluminada pela luz solar.
Zona oceânica: região entre 200 a 2000 m de profundidade, não há iluminação da luz solar e os animais tornam-se mais escassos.
Zona bêntica: corresponde ao fundo do mar habitado por algumas espécies.
Os mares e oceanos também são classificados conforme as zonas que recebem ou não os raios solares:
Zona fótica: região que recebe luz do sol suficiente para a fotossíntese dos seres produtores aquáticos.
Zona afótica: região sem incidência de raios solares e habitada apenas por seres heterotróficos.
Os ecossistemas de água doce englobam os córregos, lagos, lagoas, geleiras, reservatórios subterrâneos e rios.

Eles são ser classificados nas seguintes zonas:
Zona úmida ou alagados: áreas de solo saturado com água e que abrigam uma vegetação característica. São exemplos os pântanos e brejos. Quando associado ao ambiente marinho temos os manguezais.
Zona lêntica: áreas de água com pouco fluxo ou paradas, como lagos, lagoas, poças e reservatórios subterrâneos.
Zona lótica: área com água doce corrente a exemplo dos rios, córregos e riachos.
Existem ainda os estuários encontrados na foz dos rios e que unem-se aos mares. Eles apresentam como característica principal a mistura da água doce com a salgada.
Pelo fato de receberem nutrientes do rio e do mar, os estuários são ecossistemas aquáticos de alta produtividade.
A cadeia alimentar corresponde ao caminho da matéria e da energia que inicia com os seres produtores e termina nos decompositores.
O fitoplâncton é um importante produtor primário dos ecossistemas aquáticos, representando a base da cadeia alimentar e servindo de alimento para outros organismos.
Importância e Ameaças
Os ecossistemas representam a unidade básica do estudo da Ecologia. Além disso, é nele que se desenvolvem todas as relações ecológicas entre as espécies e a interação destas com os fatores do ambiente.
Porém, as atividades humanas modificam drasticamente os ecossistemas aquáticos. Um exemplo é a eutrofização, um processo que adiciona matéria orgânica aos ambientes aquáticos em decorrência do escoamento de esgotos ou resíduos industriais.
Essa condição altera o funcionamento da cadeia alimentar, provocando um desequilíbrio ao ecossistema e contaminando a água.
A poluição da água é outro fator que pode ocasionar a destruição de ecossistemas aquáticos e desaparecimento de espécies.

14.164 – Biologia – Reino dos Invertebrados


Os animais invertebrados são aqueles que não possuem crânio, nem coluna dorsal.

Em muitos casos, possuem corpo mole, entretanto, há alguns, como os artrópodes, que são conhecidos por possuírem um exoesqueleto associado às funções do esqueleto interno dos vertebrados, que por sua vez tem o objetivo de sustentação, oferecendo maior facilidade para locomoção, bem como o de proteção.

O exoesqueleto está associado às funções do esqueleto interno dos vertebrados, com o objetivo de sustentação, maior facilidade para locomoção, bem como o de proteção.
Os animais invertebrados apresentam características que podem ser dividida em duas categorias, podendo ser de acordo com sua estrutura óssea e com o local em que vivem

Segundo a estrutura corpórea dos animais invertebrados, suas principais características são:

Características Descrição
Aeróbicos Retiram o oxigênio do ar ou da água conforme o meio em que vivem (há diversos tipos de sistema respiratório).
Pluricelulares Possuem o corpo formado por muitas células.
Eucariontes Suas células tem núcleo envolvido por membrana.
Heterótrofos Necessitam ingerir outros seres vivos, uma vez que não possuem clorofila e não são capazes de produzir o próprio alimento.
Reprodução Sexuada A maioria se reproduz de forma sexuada, ou seja, através de gametas, embora haja espécies que se reproduzem de forma assexuada.
Presença de tecidos e órgãos Possuem essas estruturas, com exceções dos filos mais simples como os Poríferos.
Simetria bilateral A maioria possui simetria bilateral, ou seja, duas metades do corpo simétricas. Todavia, os equinodermos têm simetria radial (vários planos longitudinais a partir do centro do corpo) e as esponjas não têm nenhuma simetria.
Segundo o local em que vivem, os animais invertebrados podem ser classificados em:
Classificação Descrição
Invertebrados terrestres como formigas, caracóis e minhocas; outros possuem a capacidade de voar, como moscas, joaninhas e gafanhotos.
Invertebrados aquáticos que vivem tanto de água doce como salgada, como o camarão, siri, polvo e estrela do mar.
Além disso, alguns vivem no corpo humano e de outros animais, como são chamados os parasitas (pulga e piolho).
Os animais invertebrados são divididos em diversos filos, são eles: poríferos, cnidários, platelmintos, nematelmintos, moluscos, anelídeos, artrópodes e equinodermos.
Conheça a seguir as principais características e exemplos de cada filo.
Os poríferos, popularmente chamados de esponjas-do-mar, são conhecidos por serem invertebrados aquáticos e que vivem grudados em algum tipo de substrato.
Sua principal característica é a presença de poros pelo corpo, daí surge seu nome. Ele pode apresentar vários formatos, tamanhos e cores, dependendo da qualidade da água e das substâncias que ele absorve.
Os cnidários, também conhecidos como Ctenóforos, são organismos pluricelulares e em sua maioria aquáticos e marinhos.
Eles possuem um tipo específico de célula nos tentáculos, que contém um filamento com espinho e um líquido urticante.
Este espinho possibilita que o animal injete uma substância tóxica na presa ou ainda como forma de defesa. Nos seres humanos costuma causar queimaduras.
Os exemplos mais populares deste filo são as águas-vivas e anêmonas-do-mar.

Platelmintos
Os platelmintos são os vermes com corpo achatado e pouca espessura. São animais que se desenvolvem na água, porém apresentam vida livre, ou seja, podem viver na terra.
Este animal invertebrado possui poucos centímetros de comprimento, sendo que na cabeça estão localizadas as estruturas sensoriais. Apresenta um sistema digestivo incompleto.
Os exemplos mais comuns deste tipo de animal invertebrado são a tênia e esquistossomos.
Nematelmintos
Os nematelmintos, ou nematódeos, são os vermes com corpo cilíndrico. Seu desenvolvimento se dá na água e podem viver em terra, desde que o solo seja úmido.
É conhecido por ser o transmissor de diferentes doenças, como ascaridíase, amarelão, elefantíase e bicho-geográfico.
O exemplo mais comum de nematelminto é a lombriga.

Anelídeos
Os anelídeos são os vermes divididos em “anéis”, como as minhocas e os sanguessugas. Sua principal característica é o corpo mole, alongado, cilíndrico e segmentado, parecendo uma divisão por anéis.
Este tipo de animal invertebrado pode ser encontrado tanto em água doce quanto em água salgada, ou ainda em solos úmidos.
Os moluscos são animais invertebrados que apresentam corpo mole. Dependendo da espécie podem ser envoltos por uma concha, que exercem a função de proteção do corpo e para evitar perda de água.
Podem ser encontrados em ambientes aquáticos marinhos, de água doce ou em solo úmido.
Como exemplo de moluscos podemos citar polvos, lulas, lesmas, caramujos, ostras, mariscos e mexilhões.
Os equinodermos são animais invertebrados exclusivamente marinhos. Seu corpo é simétrico e suas partes são distribuídas em forma de circunferência.
O formato e tamanho são variados, vivem isoladamente e fixos a um substrato.
Alguns exemplos de equinodermos são os pepinos-do-mar, estrelas-do-mar e ouriços-do-mar.

Artrópodes
Os artrópodes são um filo muito diverso, representam cerca de 99% do reino animal. Suas principais características são as patas articuladas, o exoesqueleto (esqueleto externo) e corpo segmentado.
São divididos nos diferentes grupos: insetos, aracnídeos, miriápodes e crustáceos.

Insetos
Os insetos representam o grupo com maior diversidade entre os animais, possuindo cerca de 900 mil espécies.
Seu corpo possui 3 pares de patas, 2 pares de antenas e 1 ou 2 pares de asas.
Os animais que compõem o grupo dos insetos são: cigarras, borboletas, gafanhotos, percevejos, besouros, formigas, abelhas, libélulas, cupins, baratas, moscas, traças, pernilongos, pulgas, baratas.
Os aracnídeos são os animais invertebrados que representam as aranhas, escorpiões, ácaros, carrapatos.
Eles não apresentam antenas e mandíbulas, porém possuem quelíceras, que nos escorpiões são pinças preensoras e nas aranhas são os ferrões. Além disso, os aracnídeos possuem 4 pares de patas.

Aranha armadeira
Aranha-marrom
Aranha caranguejeira
Aranhas venenosas
Miriápodes
Os miriápodes são também conhecidos como unirremes, pois não apresentam apêndices ramificados. Seu corpo é formado por um par de antenas, cabeça e tronco alongados, sua mandíbula não é articulada e possui diversas pernas.
São animais exclusivamente terrestres, não havendo espécies que vivem em ambiente aquático.
Como exemplo de miriápodes, destacam-se as centopeias e lacraias.
Os crustáceos são animais invertebrados que vivem, em sua maioria, em ambiente aquático marinho ou de água doce.
Desempenham um importante papel ecológico, formando a base da cadeia alimentar nos ecossistemas marinhos.
Seu corpo é segmentado, possui 2 pares de antenas que desempenham função sensorial e de equilíbrio, mandíbulas e maxilas, além de apêndices locomotores.
Como exemplos de crustáceos destacam-se os caranguejos, lagostas, camarões, siris e cracas.
A maioria dos animais do planeta são invertebrados, representando 97% das espécies, o que dá um total de cerca de 1,5 milhão de espécies.
No processo de evolução, os cientistas não tem uma conclusão sobre como os invertebrados surgiram. Duas teorias são mais populares, sendo uma considerando que foi originário de um ancestral unicelular primitivo; já a outra teoria é que eles tiveram diferentes origens.

poriferos-0-cke

cnidarios-0-cke

minhoca

14.159 – Geopolítica – História da Argentina


argentina
A região que hoje corresponde à Argentina era habitada por querandis, quíchuas, charruas e guaranis até a chegada dos conquistadores espanhóis em 1516, liderados por Juan Díaz de Solís.
Sua independência só foi conquistada em 1816, após a revolução que derrubou o vice-rei espanhol em 1810. Proclamou sua primeira Constituição em 1853, a qual ainda é vigente, mas com pequenas modificações ocorridas em 1994.
A metade do século XIX foi marcada por conflitos internos entre liberais civis e conservadores militares, destacando-se o início do movimento peronista ao final da Segunda Guerra Mundial.

Entre 1955 e 1983, houve uma alternância muito grande no poder, com inúmeros presidentes militares e civis, além de golpes frequentes e instalação de ditaduras violentas.
– De acordo com estudos arqueológicos, a região da atual Argentina recebeu os primeiros habitantes há 13 mil anos, aproximadamente. A hipótese mais aceita sobre a chegada do homem ao continente americano refere-se a passagem da Ásia para a América, através do Estreito de Bering.

– Antes da chegada dos espanhóis a região, no começo do século XVI, o norte da Argentina fazia parte do Império Inca e a região dos pampas era habitada por nações indígenas.
– Em 1516, o navegador espanhol Juan Diaz de Sólis realiza navegações no estuário do rio da Prata e oficializa a conquista do território para os espanhóis. Começa a colonização espanhola na região.

– Em 1534 é fundada a atual capital da Argentina, Buenos Aires.

– Durante o século XVI, os espanhóis dão início a explora de prata na região. Este metal estava em grande quantidade com os indígenas, que foram, aos poucos, conquistados e dizimados pelos europeus.

– Em 1561, foi fundada a cidade de Mendoza por Pedro de Castillo.

– O século XVII foi marcado pela exploração da prata, onde os espanhóis utilizaram a mão de obra indígena. Cresce a mestiçagem da população, entre indígenas e espanhóis. Neste século foi grande a quantidade de contrabando e pirataria (holandeses e franceses), principalmente, na região do Rio da Prata.

– Ainda no século XVII intensifica-se a formação das missões jesuíticas, cujo objetivo era catequizar os índios guaranis argentinos.

– Em 1776, a Espanha criou o Vice-Reinado da Prata (capital em Buenos Aires). Começa a luta de soldados espanhóis e índios guaranis para expulsar os portugueses da região do Rio da Prata.
– Em 1767, a coroa espanhola expulsa da Argentina a Companhia de Jesus.

– Em 1806, os ingleses invadem e tomam a cidade de Buenos Aires. Começa a resistência Argentina ao invasor inglês. Em 1807, a coroa inglesa envia à região um reforço de 11 mil soldados para combater a resistência.
– A campanha de Independência da Argentina foi liderada por San Martin, sendo conquistada em 1816.

– A Primeira Constituição da Argentina foi promulgada em 1853.
– Entre 1865 e 1879, a Argentina uniu-se ao Brasil e Uruguai para lutar contra as forças do paraguaio Solano Lopez, na Grande Guerra do Paraguai. A tríplice Aliança saiu vencedora e o Paraguai derrotado e arrasado.
– No final do século XIX tem início a imigração para a Argentina, principalmente de italianos. Este processo, dura até as primeiras décadas do século XX.
– Entre 1916 e 1930 é o período da História da Argentina conhecido como “Os Governos Radicais”. Período marcado pela recuperação da ética e valorização do federalismo.
– Entre 1946 e 1955 é o período do Peronismo. A Argentina foi governada pelo presidente populista Juan Domingos Perón. Período marcado por forte crescimento econômico, criação de direitos sociais e trabalhistas, investimentos em saúde e educação e nacionalização de serviços públicos.
– As décadas de 1960 e 1970 foram marcadas por grande instabilidade política. Os presidentes eleitos foram derrubados por golpes militares.

– Os governos militares terminaram somente em 1983, quando a Argentina volta a ser governada por um civil, Raul Afonsin. Volta o respeito aos direitos humanos e fortalecimento do sistema democrático.
– Afonsin governou a Argentina até 8 de julho de 1989, quando renuncia em favor do presidente eleito, o peronista, Carlos Menem. Menem governou de 1989 até 1999 (dois mandatos democráticos).

14.156 – Geólogos e arqueólogos determinam idade correta da civilização mais antiga do mundo


De acordo com o novo estudo, publicado na revista Scientific Reports, a cultura do Vale do Indo, tem pelo menos 8000 anos de idade, ao contrário dos 5500 estimados anteriormente.
Segundo as novas estimativas, a referida civilização supera o Antigo Egito e Mesopotâmia em antiguidade.
Os cientistas conseguiram determinar a idade da cultura do Vale do Indo, após terem submetido os fragmentos e ossos encontrados na localidade de Bhirrana a várias análises, entre elas à datação por carbono 14.
Além de precisar a idade, as observações desmentiram a teoria de que a queda da civilização de Harappa se possa ter devido a uma abrupta mudança climática. No entanto, a mudança da estratégia agropecuária associada à seca terá contribuído para a desurbanização e declínio gradual das cidades.
Um homem vestindo hábito maia passa na frente da pirâmide Kukulcan, no parque arqueológico Chichen Itzá, em 20 de dezembro de 2012
A cultura do Vale do Indo se situava no delta do rio Indo e tinha um grande nível de desenvolvimento cultural. Suas cidades contavam com canalização e banheiros públicos. No entanto, essa civilização começou decaindo no início do século XVII a.C.
Entre as teorias sobre o seu desaparecimento figura a versão da mudança climática, assim como a das invasões dos antepassados dos persas e indianos modernos.

14.155 – Quais os Países Formam o Reino Unido?


mapa-reino-unido
Reino Unido é um termo usado para descrever a Inglaterra, Irlanda do Norte, Escócia e País de Gales. Estes quatro países, juntos, formam o Reino Unido da Grã-Bretanha e Irlanda do Norte, o qual é um Estado soberano. Os termos alternativos “nações constituintes” e “Home Nations” também são utilizados, este último principalmente para fins esportivos. Enquanto “países” é o termo descritivo mais comumente usado,devido à ausência de uma constituição britânica formal e a longa e complexa história da formação do Reino Unido, os países do Reino Unido não tem uma denominação oficial. Como consequência, Inglaterra, Irlanda do Norte, Escócia e País de Gales não são subdivisões formais do Reino Unido e vários termos são usados para descrevê-los.
Como um Estado soberano, o Reino Unido é a entidade que é usada em organizações intergovernamentais e como representante e Estado-membro da União Europeia e das Nações Unidas, bem como sob a lei internacional, visto que a Inglaterra, Irlanda do Norte, Escócia e o País de Gales não estão na lista de países da Organização Internacional para Padronização (ISO). No entanto, Inglaterra, Escócia e País de Gales têm organismos nacionais separados em muitos esportes, o que significa que eles podem competir individualmente em competições esportivas internacionais; em contextos esportivos, Inglaterra, Irlanda do Norte (ou toda a Irlanda), Escócia e País de Gales são referidos como Home Nations.
O parlamento e o governo do Reino Unido lidam com todos os temas relacionados à Irlanda do Norte e Escócia e todas as questões não-transferidas para o País de Gales, mas não interfere em temas que têm sido atribuídos à Assembleia da Irlanda do Norte, ao Parlamento escocês e à Assembléia galesa. A Inglaterra continua a ser da inteira responsabilidade do Parlamento do Reino Unido, que é centralizado em Londres.
As Ilhas do Canal e a Ilha de Man são dependências do Reino Unido, mas não fazem parte do Reino Unido ou da União Europeia. Colectivamente, o Reino Unido, as Ilhas do Canal e a Ilha de Man são conhecidos na lei britânica como as Ilhas Britânicas. A República da Irlanda é um estado soberano formado a partir da parte da Irlanda, que se separou do Reino Unido em 1922. Embora geograficamente a Irlanda seja parte das Ilhas Britânicas, não é mais uma parte do Reino Unido.

14.148 – A Terra já era habitada há 3,5 bilhões de anos


Vida-na-Terra-1
Uma região na Austrália Ocidental, conhecida como Pilbara, é famosa pela descoberta de estromatólitos que datam de cerca de 3,5 bilhões de anos atrás. Esses seriam os primeiros vestígios de vida na Terra? Agora, quatro décadas após a descoberta, cientistas finalmente conseguiram provar que sim.
“Pela primeira vez, somos capazes de mostrar que esses estromatólitos contêm vestígios de matéria orgânica e extraordinariamente bem preservados, além disso! ” Disse Raphael Baumgertner, geólogo da Universidade de New South Wales (Austrália). Essa é uma prova irrefutável de que houve a presença de uma forma de vida microbiana na Terra há pelo menos 3,5 bilhões de anos atrás.
Isso abre possibilidade para vida em outros planetas?
Embora os estromatólitos estudados geralmente venham da superfície e estejam, portanto, muito alterados, os geólogos fizeram uma amostragem mais profunda. Eles submeteram as amostras a uma bateria de testes e técnicas microanalíticas avançadas.
Como resultado, os estromatólitos são essencialmente compostos de pirita – um mineral que é mais conhecido como ouro dos incrustados de poros nanoscópicos. Como resultado dessas analises os pesquisadores encontraram inclusões de matéria orgânica nitrogenada e filamentos de matéria orgânica que se assemelham a restos de biofilmes formados por colônias microbianas.
Esses trabalhos trazem novas respostas à pergunta: como a vida apareceu na Terra? Sim, eles também permitem imaginar como isso poderia ter aparecido em outros planetas. Pesquisadores da NASA estudaram recentemente o Pilbara para aprender um pouco mais sobre assinaturas geológicas que podem indicar a presença de estromatólitos. Eles pretendem aplicar esse conhecimento na busca por traços de vida em Marte.

14.139 – O que é a Teoria Quântica?


teoria-quantica
As verdadeiras revoluções científicas são aquelas que além de ampliar os conhecimentos existentes, se fazem também acompanhar de uma mudança nas idéias básicas sobre a realidade. Um exemplo célebre foi a revolução do polonês Nicolau Copérnico, no século XVI, que derrubou o conceito segundo o qual a Terra estava imóvel no centro do Universo, afirmando em vez disso que nosso planeta gira em torno do Sol. Depois, o inglês Isaac Newton suplantou o conceito de espaço absoluto e dois séculos mais tarde o alemão Albert Einstein aposentou também a ideia do tempo absoluto. Embora importantes, nenhuma dessas grandes revoluções na ciência pode rivalizar com o impacto da revolução quântica. A partir dela, os físicos foram forçados a abandonar não apenas os conceitos do homem sobre a realidade – mas a própria realidade. Não admira que a Física Quântica tenha adquirido a reputação de algo bizarro ou místico. Tanto que o dinamarquês Niels Bohr, um dos criadores da nova ciência, chegou a afirmar certa vez que só não se escandalizou com a Física Quântica quem não a entendeu.
O ponto de partida para chegar às idéias quânticas é o átomo, já conhecido dos filósofos gregos, na Antigüidade. Eles acreditavam que toda matéria era constituída por minúsculos fragmentos indestrutíveis. Ora, o domínio da Física Quântica é formado justamente pelos fragmentos desses fragmentos. Desde 1909, de fato, o inglês Ernest Rutherford estabeleceu que os átomos, aparentemente indivisíveis, são compostos por um núcleo ao redor do qual giram outras partículas, os elétrons. Segundo esse modelo, o núcleo podia ser comparado ao Sol, enquanto os elétrons seriam os planetas orbitando a sua volta. E importante salientar a ideia de que os elétrons seguiam trajetórias bem definidas, de tal modo que a qualquer momento seria possível determinar a sua posição e a sua velocidade.
O problema é que, ao contrário dos planetas, os elétrons não seguem um trajeto claro e inequívoco quando se movem. Seus caminhos caprichosos só seriam revelados anos depois do modelo atômico proposto por Rutherford. O primeiro sinal de que a visão “planetária”não funcionava surgiu em 1911, quando Bohr escreveu uma nova fórmula sobre a emissão de energia pelos átomos. Para surpresa geral, a fórmula mostrava que havia lugares proibidos para o átomo – regiões inteiras, em torno do núcleo atômico, onde os elétrons não podiam girar. Podiam saltar de uma órbita mais distante a outra mais próxima, mas não podiam ocupar diversas órbitas intermediárias. E, nesse caso, emitiam um pacote inteiro de energia – nunca menos de certa quantidade bem definida, desde então chamada quantum de energia.
Era estranho, já que os planetas podiam girar a qualquer distância do Sol e mudar de órbita alterando o seu nível energético em qualquer quantidade, sem limite. Apesar disso, a fórmula de Bohr explicava com precisão os fatos conhecidos sobre a emissão de luz pelos átomos, de modo que a nova Física do quantum acabou se impondo com firmeza. Dez anos mais tarde, o enigma das órbitas proibidas foi resolvido de uma maneira que afastou ainda mais do átomo a ideia de um sistema solar em miniatura. Desde a década de 20, com efeito, as órbitas dos elétrons passaram a ser vistas como algo semelhante às ondas sonoras que compõem as notas de um instrumento musical: portanto. uma imagem muito distante dos corpos sólidos girando em torno do Sol.
O primeiro passo na direção das ondas eletrônicas surgiu em experiências nas quais um feixe de elétrons atravessava um cristal e se espalhava mais ou menos como a luz ao formar um arco-íris. O físico francês Louis de Broglie mostrou que o comprimento dessas inesperadas ondas podia ser relacionado com a velocidade dos elétrons. Segundo De Broglie, elétrons em alta velocidade se comportam como ondas curtas e elétrons em baixa velocidade, como ondas longas. Assim, tornou-se possível transformar uma característica dos movimentos mecânicos – a velocidade – em um traço típico dos fenômenos ondulatórios, o comprimento de onda.
Essa foi a deixa que o alemão Erwin Schrodinger aproveitou para criar a imagem musical do átomo mostrando que ela desvelava o enigma das órbitas proibidas. Basta ver que, ao vibrar, uma corda de violão produz uma nota fundamental, como o mi por exemplo, e diversas outras notas geralmente inaudíveis, que enriquecem o som mais forte.
São os chamados harmônicos, cujas vibrações são sempre múltiplos inteiros da vibração principal: pelo menos duas vezes mais rápidas do que esta, mas nunca 2,5 vezes, ou 3.5 vezes. O mesmo ocorre no átomo, imaginou Schrodinger: nesse caso, o elétron só gira onde o tamanho da órbita lhe permite formar ondas inteiras, excluindo as órbitas que, para serem completadas, exigiriam uma fração de onda.
O resultado confirmava a fórmula intuitiva de Bohr. dando início a uma nova teoria física, daí para a frente chamada Mecânica Quântica. Sua grande marca foi a introdução do conceito de onda de maneira tão fundamental quanto a noção de partícula. Coube ao alemão Max Born, outro dos grandes pioneiros do século, explicar como um elétron podia ser ao mesmo tempo onda e partícula. Para ele, a onda não era nenhum tipo de substância material, mas um meio de avaliar certas medidas, como a velocidade ou a posição de uma partícula, “Onda eletrônica”, na verdade, seria uma expressão com o mesmo sentido que se atribui à expressão “onda de criminalidade”. Assim, quando há uma onda de crimes numa cidade, há grande probabilidade de um crime ocorrer nessa cidade, a qualquer momento.
A onda descreve um padrão estatístico, dizendo em que período de tempo, ou em que locais, os crimes são mais prováveis. Da mesma maneira, a onda associada a um elétron descreve a distribuição estatística dessa partícula, determinando onde é mais provável que ela esteja. A ondulação nada tem a ver com a substância do elétron, mas em cada ponto do espaço diz qual a probabilidade de que ele se encontre ali. Essa interpretação de Max Born poderia parecer frustrante para quem esperasse ver as ondas ligadas a algum segredo sobre a natureza da matéria, mas é uma dramática mudança na própria ciência. Até então, havia grande convicção de que o Universo fosse estritamente determinístico e de que, portanto, sempre se poderia conhecer com precisão a posição de um corpo. Para a Mecânica Quântica, porém, o Universo é inerentemente não-determinístico, uma idéia que Albert Einstein nunca aceitou. “Deus não joga dados com o Universo”, respondia ele aos que argumentavam em favor da probabilidade quântica. Mas existe um método poderoso para tentar adivinhar os lances dos dados divinos: trata-se do célebre Princípio da Incerteza, enunciado pelo físico Wemer Heisenberg, em 1927.
Sua base é uma fórmula para medir pares de valores, como por exemplo velocidade e posição. O princípio diz que, se a posição for medida com grande precisão, é possível ter uma certa ideia do valor da velocidade. Se, em vez disso, se medir a velocidade com precisão, a posição pode ser avaliada dentro de certos limites. A regra vale para outros pares de valores, como tempo e energia. Muitas vezes, o princípio tem sido explicado como uma interferência do medidor sobre o objeto medido: para saber a posição de um elétron é preciso agir sobre ele, por meio de um raio de luz, por exemplo. O raio incide sobre o alvo e, dependendo do desvio que sofra permite avaliar a posição do alvo.
É o mesmo procedimento que se usa para ver um objeto grande, como um carro, e determinar onde está. É claro que o levíssimo impacto de um ponto de luz não tem nenhum efeito mensurável sobre o movimento do carro, enquanto no caso do elétron o choque é devastador, perturbando a medição. Em conseqüência, haveria uma incerteza inerente a toda medição em escala microscópica. Na realidade, segundo a concepção moderna, não há sentido dizer que um elétron tem ao mesmo tempo posição e velocidade bem definidas. A incerteza seria inseparável da própria natureza dos corpos quânticos.
É mais fácil imaginar que um elétron tem duas caras – como um ator desempenhando dois papéis em um filme. Ao medir sua posição, se estará observando O “elétron-em-posição”, um dos papéis do ator. O “elétron-em-velocidade ” entra em cena quando se faz uma medida de velocidade. No primeiro caso, o elétron se assemelha mais a uma partícula, já que a imagem que temos é a de um corpo bem localizado no espaço. Quando a medida mais precisa é a da velocidade e o corpo não tem uma posição definida – há diversos lugares com igual probabilidade -, então surge com mais força a sua característica de onda.
A experiência que melhor ressalta a dupla face dos elétrons é a das fendas de interferência, inicialmente realizada com luz pelo inglês Thomas Young, no início do século XIX. A comparação com a luz é importante. Um raio luminoso é dirigido para uma tela com uma estreita fenda de modo a projetar uma imagem difusa em uma segunda tela colocada atrás da primeira. Se a primeira tela tiver duas fendas em vez de uma, surgirão duas imagens difusas, mais ou menos circulares, que se sobreporão parcialmente. Mas as imagens sobrepostas não se tornam uma simples soma de luzes: em vez disso, aparecem diversas faixas intercaladas de luz e sombra. São as chamadas franjas de interferência.
O mesmo efeito é obtido se, em lugar de luz, se usar um feixe de elétrons. A franja eletrônica, desenhada em uma tela de TV, é uma demonstração da natureza ondulatória do elétron. As faixas “claras”, nesse caso, representam as posições onde é mais provável encontrar os elétrons. É impossível explicar a interferência de elétrons por meio da noção tradicional de partícula mecânica. E claro que um elétron não pode passar pelas duas fendas ao mesmo tempo, pelo menos enquanto se mantiver apenas como uma partícula, à maneira antiga. Mas a interferência é uma combinação daquilo que acontece nas duas fendas ao mesmo tempo. Então, se o elétron passa por uma única fenda, como será que a existência da outra fenda, por si só, pode criar as franjas claras e escuras?
A resposta é que a partícula está se comportando como uma onda. Mesmo quando só um elétron é atirado contra as fendas, o padrão de interferência surge na tela, interferindo, por assim dizer, consigo mesmo. Segundo o princípio da incerteza é possível fazer uma medida precisa da posição do elétron e decidir em qual das duas fendas ele está, mas o preço a pagar é uma perda de precisão sobre o rumo que ele tomará em seguida. De modo que se terá apenas uma vaga idéia de seu movimento entre uma placa e outra: a maior probabilidade é de que na segunda placa se formará uma imagem difusa e aproximadamente circular.
Não é possível avaliar a precisa distribuição de claros e escuros das franjas de interferência. Caso se queira medir diretamente esse padrão, será preciso abandonar qualquer pretensão de saber por qual fenda o elétron passou: é igualmente provável que tenha passado por qualquer uma delas, o que significa uma incerteza sobre sua posição. Um meio de entender tudo isso é imaginar que existam dois mundos, de tal forma que em um deles o elétron passe pela primeira fenda e no outro, pela segunda. Os dois mundos coexistem, misturando suas realidades, até o momento em que se faça uma medida direta da posição do elétron. Nesse caso, as franjas de interferência – formarão uma realidade bem definida apenas enquanto não se medir a posição do elétron em uma ou outra fenda.
O fato é que os pesquisadores podem escolher o que querem ver – uma outra face do elétron – e por isso se costuma dizer que a natureza do elétron depende do homem. Nem todos os físicos levam a sério a ideia de duas realidades existindo uma ao lado da outra, mas é possível puxar pela imaginação e penetrar ainda mais profundamente nos seus paradoxos. No caso do experimento com as franjas de interferência, o que aconteceria se o feixe de elétrons dirigido para as fendas alcançasse a segunda tela, sem que ninguém observasse o resultado? A tela poderia ser fotografada e a foto, arquivada, para que não fosse vista. Assim, algo teria acontecido, mas, como não foi observado, não poderia existir como realidade concreta – até que alguém finalmente se decidisse a lançar um olhar criador para o fantasma perpetuado no filme.
Trata-se de um célebre quebra-cabeça criado por Erwin Schrodinger e desde então apelidado “paradoxo do gato”.
Esse experimento mental, como dizia o físico, funciona da seguinte forma: um gato é aprisionado numa caixa junto com uma garrafa selada contendo gás venenoso. Sobre a garrafa pende um martelo pronto para quebrá-la. O gatilho dessa armadilha é uma substância radioativa que emite partículas a alta velocidade. Em 1 minuto, há uma chance de 50% de que a substância emita radiação e solte o martelo. fazendo quebrar a garrafa e liberar o gás venenoso. Assim, ao cabo de 1 minuto, coexistem dois mundos possíveis. Num deles, o gatilho foi acionado e o gato está morto; no outro, não houve emissão de radiação e o gato está vivo. Enquanto não se abrir a caixa, nenhuma das duas possibilidades poderá ser considerada real e o gato não será muito diferente dos mortos-vivos das histórias de terror. Ele permanece numa fantasmagórica superposição de realidades, entre a vida e a morte.
O físico inglês Anthony Leggett imagina que os enigmas quânticos não valem para os gatos – eles são complexos demais, do ponto de vista físico, para ficarem suspensos entre dois mundos-fantasmas. A mecânica probabilística está definitivamente confinada ao universo das partículas fundamentais, as formas mais simples da matéria. Leggett. dessa maneira, propõe que existem duas Físicas diferentes regendo o mundo, uma delas com leis para as partículas, individualmente, outra com leis para os vastos conjuntos de átomos que compõem os seres vivos e os objetos macroscópicos.
O físico americano Eugene Wigner, por sua vez, criou uma especulação radical segundo a qual é a mente do físico que cria toda a realidade. Seria a consciência do homem que filtra a confusão quântica do Universo e gera uma realidade bem definida. Roger Penrose é outro cientista a imaginar um entrelaçamento entre a mente e a realidade. Ele pensa que os mecanismos mentais do raciocínio estão submetidos às flutuações quânticas, dando origem, por exemplo, às inexplicáveis explosões criativas dos músicos ou dos matemáticos. Muitos pensadores, como Fritjof Capra, supõem além disso um paralelo entre a realidade quântica e as concepções místicas das religiões orientais.
Todas essas especulações indicam como são profundos os paradoxos que, há quase 1 século, entraram para os livros de Física por meio da Mecânica Quântica. O fato de continuarem sendo debatidos por tanto tempo pode não impressionar aqueles cientistas para os quais as teorias servem apenas como instrumento de trabalho. Mas poucos adotariam a opinião radicalmente cética de Einstein que, nas suas próprias palavras, enterrou a cabeça na areia “de medo do temível quantum”.
O sim, o não e o talvez

O uso da probabilidade nos cálculo da Física deu excelente resultado, levando a uma formidável ampliação dos horizontes do conhecimento e a inventos como a TV e o raio laser. Mas a probabilidade também tem as suas limitações e, quando aplicada a uma teoria fundamental, como é o caso da Mecânica Quântica, provoca certa inquietação. Uma coisa, por exemplo, é alguém olhar um carro e dizer: “A velocidade daquele carro é de 100 quilômetros por hora”. Outra, bem diferente, é dizer: “Aquele carro não tem velocidade definida; é provável que seja 100 quilômetros por hora, mas também pode ser 80 ou 120”.

Nas duas situações, existem informações básicas sobre o carro – calcular a velocidade é um dado absolutamente fundamental para qualquer teoria física. Mas, na primeira, a informação é inequívoca: um único número. Em lugar disso, a resposta probabilística fornece um conjunto de números, como se o carro pudesse desenvolver diversas velocidades ao mesmo tempo. Do ponto de vista científico, as respostas múltiplas da Mecânica Quântica significam apenas isso: a teoria, em certos casos, oferece um conjunto de resultados mais ou menos prováveis para determinado cálculo. Qualquer interpretação além disso é simples exercício de imaginação. Um problema é que, no caso de um corpo como o carro, a Física sempre dá uma resposta única e taxativa – a probabilidade só afeta os corpos microscópicos.

Esse fato força uma divisão do mundo físico em duas partes, numa das quais valem leis probabilísticas e deterministas, e no outro, apenas leis probabilísticas. Atualmente, a grande maioria dos cientistas aceita, sem preconceito e sem versões mirabolantes, as equações probabilísticas. O que nem todos aceitam é o casamento da nova Física com a religião. “Na minha opinião, não tem cabimento associar o misticismo à Mecânica Quântica”, pondera o professor Henrique Fleming, físico teórico da Universidade de São Paulo. Isso causa uma certa confusão entre o que é ciência e o que está mais próximo da religião ou da Filosofia, acabando por não esclarecer nem uma coisa nem outra.

14.138 -Mega Cientistas – Max Planck


max-planck
Max Karl Ernst Ludwig Planck, cientista alemão nascido em Kiel no dia 23 de abril de 1858, abriu caminho para o que hoje conhecemos como teoria quântica.
Pertencendo a uma família de grande tradição acadêmica, Planck estudou nas Universidades de Munique e Berlim, onde teve aulas com Helmholtz e Kirchhoff, e recebeu seu doutorado, em 1879. Até o contato com esses dois grandes cientistas, ainda tinha dúvidas entre seguir a carreira musical ou a científica.
Ele foi Professor em Munique de 1880 a 1885, em seguida, Professor Associado de Física Teórica, em Kiel, até 1889. Com a morte de Kirchkoff, assumiu a Cátedra de Física Teórica da Universidade de Berlim (1887), onde foi posteriormente reitor. Permaneceu trabalhando nesta Universidade até sua aposentadoria em 1926. Mais tarde ele se tornou presidente da Sociedade para a Promoção da Ciência Kaiser Wilhelm (hoje Sociedade Max Planck), um posto que ocupou até 1937. A Academia Prussiana de Ciências o nomeou membro em 1894 e Secretário Permanente, em 1912.
Os primeiros trabalhos de Planck foram sobre termodinâmica. Também publicou trabalhos sobre a entropia, termoeletricidade e na teoria das soluções diluídas.
Ao mesmo tempo, também os problemas da radiação envolveram sua atenção. A partir desses estudos, foi levado para o problema da distribuição de energia no espectro de radiação total. Levando em conta as teorias clássicas, a Energia emitida por um corpo que não reflete luz (objeto teórico conhecido como Corpo Negro) deveria variar na mesma proporção da temperatura. Na prática, não era isso que acontecia. Planck foi capaz de deduzir a relação entre a energia e a frequência da radiação. Em um artigo publicado em 1900, ele anunciou essa relação:
E=h.f
Onde E é energia, f é frequência e h é uma constante universal, hoje conhecida como Constante de Planck. Esta constante foi baseada na ideia revolucionária de que a energia emitida por um corpo negro só poderia assumir valores discretos conhecidos como quanta (palavra vinda do latim). Um quantum seria um pacote de energia emitido e quanta é plural de quantum.
Essa descoberta foi determinante para a física atômica, pois fundamentou o modelo atômico de Niels Bohr (1913) e abriu caminho para a teoria de Einstein que explica o efeito fotoelétrico. A introdução do conceito de descontinuidade contrariou o princípio do filósofo alemão Wilhelm Leibniz, “Natura non facit saltus” (a natureza não dá saltos), que dominava todos os ramos da ciência na época, tornando-se a teoria quântica, na grande revolução que levou à Física Moderna do século XX. Foi o ponto de partida de uma nova lógica nas várias pesquisas sobre a estrutura do átomo, radiatividade e ondulatória e rendeu a Max Planck o Prêmio Nobel de Física de 1918.
Planck enfrentou um período conturbado e trágico de sua vida durante o governo nazista na Alemanha, quando sentiu que era seu dever permanecer em seu país, mas era abertamente contrário a algumas das políticas do Governo, principalmente quanto à perseguição dos judeus. Nas últimas semanas da guerra sofreu grandes dificuldades após a sua casa ter sido destruída por um bombardeio.
Era venerado pelos seus colegas, não só pela importância de suas descobertas, mas também por suas qualidades pessoais. Foi um pianista talentoso, daí ter cogitado seguir carreira como músico durante a juventude.
Planck foi casado duas vezes. Após a sua nomeação, em 1885, para Professor Associado em sua cidade natal Kiel casou-se com uma amiga de infância, Marie Merck.

14.137 – IA – Algoritmos Controlam Tudo


algoritmo
Quando você procura por um novo par de sapatos online, escolhe um filme na Netflix ou solicita um aluguel de carro, provavelmente um algoritmo tem sua palavra para dizer no resultado.
Algoritmos estão sendo experimentalmente usados para escrever novos artigos de dados brutos, enquanto a campanha presidencial de Donald Trump foi feita por profissionais de marketing comportamental que usaram um algoritmo para localizar as maiores concentrações de “eleitores persuasíveis”.
Mas, embora tais ferramentas automatizadas possam introduzir uma certa dose de objetividade em decisões antes subjetivas, os temores estão aumentando em relação à falta transparência que algoritmos podem acarretar, com pressão crescente para aplicar padrões de ética ou “responsabilização”.
A cientista de dados Cathy O’Neil adverte para não “confiar cegamente” em fórmulas para determinar um resultado justo.

“Algoritmos não são inerentemente justos, porque a pessoa que desenvolve um modelo define êxito em alcançar o resultado desejado”, disse ela.

Aumentando as desvantagens
O’Neil argumenta que, embora alguns algoritmos possam ser úteis, outros podem ser nefastos. Em seu livro de 2016, “Weapons of Math Destruction”, ela cita alguns exemplos preocupantes nos Estados Unidos:
– Em 2010 , as escolas públicas em Washington DC despediram mais de 200 professores – incluindo vários professores respeitados – com base nas pontuações de um algoritmo com uma fórmula que avaliava seus desempenhos.

– Um homem diagnosticado com transtorno bipolar foi rejeitado para um emprego em sete grandes varejistas após um teste de “personalidade” de terceiros o considerar um grande risco baseado em sua classificação algorítmica.

– Muitas jurisdições estão usando “policiamento preditivo” para transferir recursos para prováveis “áreas perigosas”. O’Neil diz que dependendo em como os dados são alimentados no sistema, isso poderia levar a revelar mais crimes menores e gerar um “ciclo contínuo” que estigmatiza comunidades pobres.

– Alguns tribunais contam com fórmulas classificadas por computadores para determinar sentenças de prisão e liberdade condicional, o que pode discriminar minorias ao levar em conta fatores de “risco”, como seus bairros, amigos ou familiares ligados ao crime.

– No mundo das finanças, os corretores coletam dados de fontes online e outras fontes como novas formas de tomar decisões sobre crédito ou seguro. Isso muitas vezes amplifica o preconceito contra os menos favorecidos, argumenta O’Neil.
Suas descobertas foram repercutidas em um relatório na Casa Branca ano passado alertando que sistemas algorítmicos “não são infalíveis – eles contam com entradas imperfeitas, lógica, probabilidade e pessoas que os planejam”.
O relatório observou que sistemas de dados podem, de forma ideal, ajudar a eliminar o viés humano, mas alerta contra algoritmos que “desfavorece sistematicamente certos grupos”.

Rastros digitais
Zeynep Tufekci, um professor da Universidade da Carolina do Norte que estuda tecnologia e sociedade, disse que decisões automatizadas são frequentemente baseadas em dados coletados sobre pessoas, algumas vezes sem o conhecimento delas.
“Estes sistemas computacionais podem deduzir todo tipo de coisa sobre você a partir de seus rastros digitais”, Tufekci disse em uma palestra no TED recentemente.
“Eles podem concluir sua orientação sexual, seus traços de personalidade, suas tendências políticas. Eles têm um poder preditivo com altos níveis de precisão”.
Estas percepções podem ser úteis em certos contextos, como ajudando médicos profissionais a diagnosticar depressão pós-parto, mas injustas em outros, ele disse.
Parte do problema, ele disse, vem do fato de pedir para computadores responder questões que não tem uma única resposta certa.
“São questões subjetivas, abertas e carregadas de valores pessoais, perguntando quem a empresa deve contratar, qual atualização de qual amigo deve ser mostrada, qual condenado é mais provável de reincidir”.

14.132 – Seu cérebro faz de tudo para não lidar com a morte, segundo estudo


morte cerebral
Os cientistas descobriram que nosso cérebro associa a morte como algo que ocorre com os outros, não com nós mesmos. “Temos esse mecanismo primordial que indica que, quando o cérebro obtém informações que se vinculam à morte, algo nos diz que não é confiável, por isso não devemos acreditar”, afirmou Yair Dor-Ziderman, coautor do estudo, ao jornal britânico The Guardian.
Para os especialistas, evitar pensamentos sobre nossa morte pode ser crucial para vivermos o presente. Esse “escudo” provavelmente é criado na infância, assim que a criança se dá conta de que pode morrer um dia. De acordo Ziderman, imaginar a própria morte “vai de encontro a toda a nossa biologia, o que está nos ajudando a permanecer vivos”.
Os pesquisadores fizeram as análises por meio de um teste que avaliou o que acontecia com o sistema nervoso dos voluntários quando eram apresentados a determinados assuntos. O experimento foi feito assim: a atividade cerebral dos participantes era monitorada enquanto eles assistiam a uma tela que mostrava diversos rostos (incluindo os deles mesmos), intercalados com palavras. Metade das palavras era relacionada com morte, como “funeral” ou “enterro”.
Os resultados mostraram que, quando a face do próprio voluntário aparecia perto de termos mórbidos, o cérebro desligava seu sistema responsável por prever o futuro. Segundo Avi Goldstein, principal autor da pesquisa, esse seria um mecanismo para nos protegermos contra ameaças ou mesmo contra a ideia de que vamos morrer.
Para contornar esses pensamentos, a central de comando do nosso corpo foca nesse risco sobre sendo dos outros – e não de nós mesmos. “Não podemos negar racionalmente que vamos morrer, mas pensamos nisso mais como algo que acontece com outras pessoas”, acrescenta Ziderman.

14.127 – Mega de ☻lho no Nobel 2019


Nobel 2019
Embora possam parecer completamente díspares, notei nos Nobel de ciências deste ano – William G. Kaelin Jr, Sir Peter J. Ratcliffe e Gregg L. Semenza pela descoberta dos mecanismos moleculares pelos quais as células monitoram e se adaptam à disponibilidade de oxigênio, em Medicina ou Fisiologia; a incomum divisão do prêmio de Física por dois temas não diretamente relacionados, com James Peebles pela sua teoria sobre a natureza da Radiação Cósmica de Fundo e Michel Mayor e Didier Queloz pela descoberta do primeiro planeta extrassolar orbitando uma estrela na sequência principal; e John B. Goodenough, M. Stanley Whittingham e Akira Yoshino pelo desenvolvimento das baterias de íons de lítio, no de Química – um traço comum de revolução na forma como a Humanidade vê a si mesma e seu lugar no Universo.
Em todos estes casos, são a genética e a fisiologia mostrando a evolução pela seleção natural, a teoria revolucionária lançada por Charles Darwin no século XIX, em ação os seres humanos modernos no tempo relativamente curto da saída de nossa espécie, o Homo sapiens, de seu berço na África, por volta de 100 mil anos atrás.

Já os prêmios de Física são mais minha seara. No caso de Peebles, o arcabouço teórico que ele ajudou a criar deu fonte e “função” à Radiação Cósmica de Fundo, o “eco” do Big Bang, abrindo caminho para observação e análise de pequenas diferenças nela, as chamadas anisotropias, que influenciaram a emergência e concentração da matéria “comum” (bariônica) no Universo na forma das atuais estrelas, galáxias e filamentos de gás intergalático, a chamada “rede cósmica”, que preenchem nosso Universo.
Mais do que isso, no entanto, este arcabouço, unido às observações em terra e de satélites como COBE, WMAP e, mais recentemente, o Planck, mostraram que esta matéria bariônica responde por apenas cerca de 5% de tudo que existe, com os restantes 95% compostos pelas misteriosas, e de natureza desconhecida, matéria e energia escuras, forçando a Humanidade a um humilde e socrático “só sei que (quase) nada sei” sobre do que é feito Universo que nos cerca.

14.120 – História da Eletrônica – O Tubo de Raios Catódicos


tubo
Um tubo de raios catódicos ou cinescópio (também conhecido pelo acrónimo CRT, derivado da expressão inglesa cathode ray tube) é um tipo de válvula termiônica contendo um ou mais canhões de elétrons e um ecrã fluorescente utilizado para ver imagens. Seu uso se dá principalmente em monitores de computadores e televisores (cinescópios de deflexão eletromagnética) e osciloscópios (cinescópios de deflexão eletrostática). Foi inventado por Karl Ferdinand Braun em 1897.
Foi em um tubo de raios catódicos que, em 1897, o físico J. J. Thomson verificou a existência do elétron.
As primeiras experiências com raios catódicos são creditadas a J. J. Thomson, físico inglês que, em seus três famosos experimentos, conseguiu observar a deflexão eletrostática, uma das funções fundamentais dos tubos de raios catódicos modernos. A primeira versão do tubo de raios catódicos foi inventada pelo físico alemão Ferdinand Braun em 1897, tendo ficado conhecida como tubo de Braun.
EM 1907, o cientista russo Boris Rosing usou um tubo de raios catódicos na extremidade receptora de um sinal experimental de vídeo para formar uma imagem. Ele conduziu o experimento para mostrar formas geométricas simples na tela. Foi a primeira vez em que a tecnologia de tubo de raios catódicos foi usada para o que agora conhecemos como televisão.
O primeiro tubo de raios catódicos a usar cátodos quentes foi desenvolvido por John B. Johnson e Harry Weiner Weinhart, da Western Electric, tendo se tornado um produto comercial em 1922.[citation needed]
O primeiro televisor comercializado com tubo de raios catódicos foi fabricado pela Telefunken, na Alemanha, em 1934.
A máscara de sombra, formada por uma chapa de aço com cerca de 150 micros de espessura e com cerca de 350 mil furos é conformada em uma fôrma convexa em prensas, lavada e passa por um processo de enegrecimento. Esta chapa é fixada em um anel metálico para dar rigidez e que é fixado à tela por molas.
A camada fotossensível (camada de fósforo) é aplicada na parte interna da tela usando um processo fotoquímico. O primeiro passo é um pré-tratamento da superfície seguido do recobrimento com uma suspensão de fósforo verde. Depois de seca, a máscara é inserida na tela e o conjunto é exposto a uma luz UV que reage na parte exposta pelos furos da máscara. Os raios de luz são emitidos de tal forma que as linhas de fósforo estejam no mesmo ponto que o feixe de elétrons colidirá. Então a máscara é removida da tela e a área não exposta à luz é lavada. Nas áreas que foi exposta, o fósforo adere à tela como resultado de uma reação fotossensível. Na sequência as outras duas cores (azul e vermelho) seguem no mesmo processo.
Para os tubos que utilizam a tecnologia de matriz, linhas de grafite são colocadas entre as linhas de fósforos antes do processo Flowcoating em um processo similar chamado de processo Matrix.
Toda a região da tela é coberta posteriormente com uma camada de alumínio, este alumínio conduz os elétrons e também reflete a luz emitida para trás (efeito espelho).
Em paralelo ao Processamento de Telas, a parte interna do cone de vidro foi recoberta com uma camada de material condutivo. Uma pasta de esmalte é aplicada à borda do cone que após o forno se funde com a tela. A partir do forno o cone e a combinação tela/máscara, incluindo o cone metálico que serve de blindagem magnética, são fundidos no esmalte em alta temperatura.
O canhão eletrônico é inserido e selado no pescoço do cone, o vácuo é formado no interior do bulbo, o qual em seguida é fechado. Neste momento o bulbo se torna um tubo. Um “getter” (elemento químico com alta capacidade de combinação com gases não inertes), montado em uma fase anterior do processo, é evaporado por meio de aquecimento com alta frequência, para que se combine com possíveis átomos residuais de gases, através de reações químicas.
A parte externa do cone do cinescópio é recoberta por uma camada condutiva e uma cinta metálica é colocada na borda do painel através de um processo que envolve o aquecimento da cinta, a sua aplicação à borda do painel, seu resfriamento e consequente contração, para proteger o tubo contra possíveis riscos de implosão.
Alguns cinescópios, dependendo do modelo e fabricante podem possuir metais nobres e até valiosos, tal como paládio, platina e eventualmente ouro, além de terras raras, algumas delas inclusive com pequeno potencial radioativo. Miligramas ou mesmo gramas desses metais e terras raras podem ser encontrados nos catodos e nas grades de difusão ou máscaras.
Dependendo de estudos de viabilidade, a extração desses metais pode compensar o custo de tratamento do descarte e da reciclagem, como já ocorre com os chips recobertos por filmes de ouro e entre outros, determinados conectores e soquetes utilizados em placas de circuito impresso, contatos de relés e etc.
Existem ainda alguns tubos de altíssima luminosidade que podem, apesar de não ser absolutamente certo isso – por estar entre os segredos de fabricação (vide referências) – conter diminutas quantidades de material radioativo pesado, tal como o tório, utilizado no endurecimento e aumento de resistência ao calor dos componentes do canhão eletrônico, tornando o negócio de reciclagem no mínimo desaconselhável para leigos e no pior caso exigindo inclusive disposição especial em áreas especialmente preparadas para recebê-los, para evitar graves contaminações, possivelmente cumulativas, no meio ambiente.
Lembrando que, ainda hoje no Brasil e em outros países, dispositivos mais simples tecnologicamente, mas submetidos a grande calor durante a operação, tal como “camisas de lampião”, são banhadas em material radioativo para permitir às cerdas das mesmas atingirem altas temperaturas sem romperem-se facilmente – o mesmo principio de tratamento por tório, costumava ser utilizado nos cátodos de alguns cinescópios.
Já os televisores mais antigos, aqueles com válvulas termiônicas, contêm algumas delas com cátodos compostos com terras raras, porém em diminutas quantidades. Apesar de encontrarem-se diversas dessas válvulas eletrônicas com informações relativas ao uso de terras raras radioativas nos cátodos, não se sabe exatamente se possuem ou não radioatividade inerente suficiente para causar danos, porém nos recicladores o contato constante com esses materiais poderá ser mais um fator para que não sejam reciclados em ambientes não controlados.
O que torna o assunto da reciclagem de componentes eletrônicos e válvulas termiônicas algo um tanto delicado e que exigiria sempre a presença de um técnico especializado para avaliar o impacto ao meio ambiente e para realizar o descarte seguro desses componentes.
Aparelhos antigos podem conter maior quantidade desses componentes.
Seria irresponsável dizer às pessoas que simplesmente os atirem ao lixo, mas também é irresponsável dizer que leigos poderiam cuidar desse assunto – mesmo descartando-os em Ecopontos como os muitos mantidos pela prefeitura em grandes cidades de São Paulo.

14.117 – História – O Que a Cerveja Tem a ver com o Conhecimento Humano?


cerveja antiga
Em 2016, pesquisadores britânicos descobriram uma placa com símbolos cuneiformes — uma das primeiras técnicas de escrita desenvolvidas pela humanidade — em uma região do Iraque onde viveu a civilização Assíria há mais de 5 mil anos. O objeto arqueológico revelava uma particularidade curiosa: na placa estavam registradas as palavras equivalentes a “cerveja” e a “holerite”, o que levou os cientistas à conclusão de que a bebida alcoólica era o pagamento dos trabalhadores da época.

Nada como um happy hour animado após um dia duro de labuta. Mais do que uma ode às alegrias (e às tragédias) vividas pela humanidade, entender a relação das primeiras civilizações com a cerveja é também uma maneira de estudar como o conhecimento humano foi capaz de desenvolver tecnologias que solidificaram as relações econômicas, sociais e culturais ao longo da História.
Obtido por meio da fermentação de açúcares, o álcool etílico acompanha a humanidade há pelo menos 10 mil anos: pesquisadores descobriram vestígios da bebida em jarros encontrados no Irã. A data coincide com o advento da agricultura, quando a humanidade passou a dominar a terra e conseguir produzir em larga escala as matérias-primas que dariam origem a alimentos como o pão e à cerveja.

No Egito Antigo, consumir o “pão líquido” era uma questão de pura necessidade. De acordo com o especialista Michael Klutstein, da Universidade de Jerusalém, todos bebiam cerveja, até mesmo as crianças. “A água era contaminada e imprópria para consumo. Cada pessoa ingeria entre 3 e 6 litros de cerveja por dia na época”.
Klutstein faz parte da equipe israelense que recriou a “cerveja dos Faraós”, de 5 mil anos de idade. O feito foi possível porque os pesquisadores descobriram uma levedura da época utilizada no processo de fermentação da bebida, o que lhes permitiu atingir um resultado parecido com a gelada feita no passado. “Degustadores profissionais descreveram o gosto como ‘frutado’ e ‘caseoso’”, conta.
Para quem não está acostumado com a linguagem gourmet, caseoso significa uma aparência ou um gosto similar ao de um queijo (e você pensando que as cervejas artesanais diferentonas eram exclusividade do século 21). Klutstein também explica que a produção de cervejas era vital para a sociedade egípcia daquele período, mais importante até que a fabricação de pães.

Tal particularidade, entretanto, não era exclusiva dos povos que viviam naquela região do planeta. Um time de arqueólogos dos Estados Unidos publicou, no início de 2019, um estudo que revela a importância do consumo da bebida local, conhecida como chicha, para o fortalecimento de traços culturais e a estabilidade política do império Tiauanaco-Huari. Esse povo viveu nas montanhas de Cerro Baúl, ao sul do Peru, estabelecendo seu poder na região entre 500 d.C e 1000 d.C. De acordo com as análises realizadas, as mulheres da elite local eram responsáveis pela preparação da bebida — que provavelmente só era consumida por pessoas da mesma classe social e em comemorações.
Segredo medieval
Enquanto ditava costumes e castigava os fiéis que fugiam da retidão moral apregoada durante a Idade Média, a Igreja Católica produzia litros e mais litros de cerveja em suas abadias na Europa. Detentores do conhecimento, os monges eram responsáveis por criar receitas para a produção de cervejas de boa qualidade (a bebida era considerada mais segura do que a água infectada dos castelos e vilarejos).

A tradição se manteve com o passar dos séculos (veja abaixo). Em maio de 2019, monges de uma abadia na Bélgica encontraram um caderno recheado de receitas para fermentação alcoólica. Segundo Michael Parker-McCrory, porta-voz da abadia, os registros foram escondidos por padres em 1798, quando o templo foi incendiado.
Encontrar o livro motivou os membros da cervejaria belga Grimbergen a lançar uma edição especial da bebida dos monges, que será vendida em uma rede de mercados na Europa. “A nova microcervejaria apresentará a fabricação de cervejas de volta ao seu ponto de partida medieval”, relatou McCrory. A ideia, diz, é “combinar a tradição com técnicas modernas”. Isso porque, sem a utilização de ingredientes contemporâneos, o sabor da cerveja seria literalmente parecido com o de um “pão líquido”. Afinal de contas, nem sempre aquilo que é retrô é necessariamente gostoso.

Cervejarias antigas que ainda estão na ativa

WEIHENSTEPHAN
Fundada em 1040 em um mosteiro alemão na região da Baviera. É considerada a cervejaria mais antiga do mundo ainda em operação.

WELTENBURG
Instalados em um convento alemão desde o século 7, os monges iniciaram a produção da cerveja em 1050.

AUGUSTINER-BRÄU
É a cervejaria mais antiga da cidade de Munique: foi fundada em 1328 na terra do Oktoberfest.

GROLSCH
Cervejaria criada em 1615 na cidade holandesa de Groenlo, passou pelo controle de diferentes famílias e hoje faz parte do grupo japonês Asahi.

SMITHWICK’S
Fundada na Irlanda em 1710, utiliza uma receita típica da região para produzir uma cerveja mais “encorpada” em relação ao gosto brasileiro.

14.113 – O Gás Hilariante


joseph-priestley

óxido nitroso (N2O) também conhecido como gás hilariante ou gás do riso, foi descoberto pelo cientista Inglês Joseph Priestley em 1772, que em um dos seus experimentos estava aquecendo nitrato de amônia em presença de limalha de ferro,e, em seguida passou o gás que saiu (NO) através da água,para remover os subprodutos tóxicos, produzindo assim o óxido nitroso.Sendo a seguinte reação observada.

 

2NO + H2O + Fe → N2O + Fe(OH)2

14.106 – Estudo revela segredo de conservação dos Manuscritos do Mar Morto


manuscritos
Manuscritos com textos bíblicos

Um estudo publicado no jornal Science Advances revelou a “tecnologia” de conservação que estaria por trás da incrível preservação dos Manuscritos do Mar Morto, um conjunto de textos hebraicos de mais de 2 mil anos achados entre as décadas de 1940 e 1950, por pastores que estavam à procura de suas cabras na região das cavernas de Qumran, atualmente localizado em território palestino, na Cisjordânia.
Um total de 900 documentos são o que sobraram dos manuscritos — para o estudo, os pesquisadores analisararam o chamado “Pergaminho do Templo”, o mais longo dos Manuscritos do Mar Morto, que mede mais de 7,5 metros.
O material do Pergaminho do Templo é um dos mais finos entre os manuscritos — a grossura dele é de apenas um décimo de um milímetro — mas é o documento que está mais limpo para se escrever e é provavelmente o mais bem conservado, segundo os cientistas.
Os pesquisadores recolheram um fragmento de 2,5 centímetros do Pergaminho do Templo e o investigaram com técnicas especiais para determinar a sua composição com o uso de um microscópio.
Havia no papel desse pergaminho específico ainda elementos químicos como sódio, cálcio e enxofre em proporções diferentes conforme a superfície. Os cientistas descobriram também que o documento é feito de uma mistura de sais com evaporitos — rochas sedimentares formadas por reações químicas feitas pelo contato de sais com a água.
O papel de todos os Manuscritos do Mar Morto foram feitos de pele animal limpa e colocada em uma solução para ser tratada. Por último, o material era seco e muitas vezes era esfregado no sal.
Segundo o co-autor do estudo, Ira Rabin, da Universidade de Hamburgo, na Alemanha, o estudo que revelou a composição do pergaminho pode ter implicações que vão muito além dos Manuscritos do Mar Morto, podendo servir para identificar outros documentos que podem ser estudados por historiadores. “Esse estudo mostra que no amanhecer dos manuscritos do Oriente Médio, várias técnicas estavam em uso, o que contrasta com a única técnica usada na Idade Média”, afirmou Rabin.
Encontrado por pastores que percorriam as cavernas de Qumram, no final da década de 1940, os Manuscritos do Mar Morto contam com uma série de fragmentos da Bíblia Hebraica, além de livros apócrifos e os preceitos dos essênios, antigo grupo judaico que vivia de modo reservado em Qumram.

14.103 – Como se formam os raios?


raios
Para que surjam raios, é necessário que, além das gotas de chuva, as nuvens de tempestade tenham em seu interior três ingredientes: cristais de gelo, água quase congelada e granizo. Tais elementos se formam na faixa entre 2 e 10 quilômetros de altitude, onde a temperatura fica entre 0 ºC e -50 ºC. Com o ar revolto no interior da nuvem, esses elementos são lançados pra lá e pra cá, chocando-se uns contra os outros. Com isso, acabam trocando carga elétrica entre si: alguns vão ficando cada vez mais positivos, e outros, mais negativos. Os mais pesados, como o granizo e as gotas de chuva, tendem a ficar negativos.

Por causa da gravidade, o granizo e as gotas de chuva se acumulam na parte de baixo, que vai concentrando carga negativa. Mais leves, os cristais de gelo e a água quase congelada são levados por correntes de ar para cima, deixando o topo mais positivo. Começa a se formar um campo elétrico, como se a nuvem fosse uma grande pilha.
Essa dupla polaridade da nuvem é reforçada ainda por dois fenômenos físicos externos a ela. Acima, na região da ionosfera, os raios solares interagem com moléculas de ar, formando mais íons negativos. No solo, por outro lado, diversos fatores contribuem para que a superfície fique eletricamente positiva. Essa polarização da nuvem cria um campo elétrico descomunal: se as redes de alta tensão têm cerca de 10 mil W (watts) de potência, no céu nublado a coisa chega a 1000 GW (gigawatts)! Tamanha tensão começa a ionizar o ar em volta da nuvem – ou seja, ele passa de gás para plasma, o chamado quarto estado da matéria.

Começa então a se formar um caminho de plasma em direção ao solo. Por ter elétrons livres, o plasma é um bom condutor de eletricidade. Com isso, acaba fazendo a ponte até a superfície para que a tensão da nuvem possa ser descarregada. Enquanto o tronco principal desce rumo ao solo, surgem novos ramos tentando abrir passagem.
Quando um tronco principal está próximo do solo, começa a surgir uma massa de plasma na superfície. Essa massa vai subir até se conectar com o veio que desce e, então, fechar o circuito. É por isso que, se alguém estiver perto de onde o fenômeno está rolando, vai perceber os pelos do corpo se eriçando. Quando o caminho se fecha, rola uma troca de cargas entre a superfície e a nuvem e – zap! – temos o relâmpago. A espetacular faísca é fruto do aquecimento do ar, enquanto o ribombar do trovão vem da rápida expansão da camada de ar. Do surgimento do tronco de plasma até rolar o corisco, se passa apenas cerca de 0,1 segundo.
É verdade que um raio não cai duas vezes no mesmo lugar?

Não, isso é mito. Quando o tronco principal de um raio alcança o solo, todas as suas ramificações tentam usar esse caminho aberto e, às vezes, caem no local exato do primeiro relâmpago. Já foram observadas até 32 descargas no mesmo lugar!

Pessoas com metais no corpo têm mais chances de serem atingidas?
Outra lorota. Os metais que porventura trazemos no corpo – como próteses, pinos e aparelho dentário – são muito pequenos para que o raio os considere como um atalho para o solo. Agora, árvores, sim, são bons atalhos. Ou seja, não fique perto de uma durante um toró!

É perigoso nadar durante uma tempestade?
Sim, pois a água conduz bem a eletricidade. Se você estiver no mar e um raio cair a menos de 50 metros, você tem grande risco de receber toda a força da descarga. Em piscinas é ainda pior, pois o choque também pode chegar pelas tubulações metálicas

O que acontece quando é alguém é atingido?
Se o raio cair exatamente em cima do sujeito, é quase certo que ele seja reduzido a um toquinho carbonizado: o corisco gera um aquecimento de quase 30 mil graus Celsius! Caso ele caia a até 50 metros de distância, é grande o risco de rolar parada cardíaca e queimaduras.

É perigoso falar ao telefone durante um temporal?
Se for um telefone com fio, é. Assim como um raio pode atingir um poste e se propagar pela fiação elétrica da casa, queimando eletrodomésticos, ele pode viajar pela linha telefônica até fritar a orelha da pessoa. Telefones sem fio e celulares não correm esse risco.

14.096 – Cinema – O novo Exterminador do Futuro


O trailer do novo longa da série iniciada em 1984, O Exterminador do Futuro, traz uma novidade interessante além daquela que é mais difundida, a presença de Linda Hamilton como Sarah Connor e Arnold Schwarzenegger como Terminator. Trata-se de uma continuação do filme mais famoso da série, O Exterminador do Futuro 2: O Julgamento Final (1991), de James Cameron.

Essa volta a uma sequência interrompida em 2003, com o ótimo O Exterminador do Futuro 3: A Rebelião das Máquinas, de Jonathan Mostow, e não mais retomada nos dois longas seguintes, o bom O Exterminador do Futuro: A Salvação (McG, 2009) e o sofrível O Exterminador do Futuro: Genesis (Alan Taylor, 2015), é a desculpa para continuar a franquia que não precisava de desculpa para continuar, já que a própria premissa (uma volta ao passado para impedir um acontecimento futuro) permite qualquer tipo de desenvolvimento nos próximos longas.
Mas é certo que essa volta ganha um novo e poderoso estatuto: está mais próxima de um desenvolvimento “oficial” ou fidedigno da trama que se desenrolou nos dois primeiros longas (excelência do terceiro à parte). A presença de James Cameron como produtor, após quase 30 anos, é um ótimo exemplo dessa ligação mais forte com as origens.

Este sexto longa da série, terceiro com o selo de qualidade de Cameron (também diretor nos dois primeiros), é dirigido por Tim Miller, cineasta de pouca experiência que estreou com Deadpool (2016) e chega agora ao segundo longa. Cameron seria o nome ideal para a empreitada, mas ele está concentrado nas continuações de Avatar (2009), previstas para lançamento a partir de 2021.

Uma coisa é (quase) certa. Cameron não produziria uma continuação da sua série consagrada se não confiasse naquele que estará atrás das câmeras. Se Tim Miller não mostrou muita força em seu Deadpool, principalmente por causa de muitas ideias desiguais, a força da franquia Terminator deve mantê-lo comportado o suficiente para fazer valer o trabalho dos normalmente bons roteiristas David S. Goyer e Billy Ray, que estreiam na escrita da série acompanhados de Justin Rhodes.
Em certas produções, o melhor a se fazer na direção é o feijão com arroz, sob o risco de afundar um bom roteiro e boas atuações. A não ser que o diretor se chame James Cameron ou Jonathan Mostow.

14.095 – Mega Curiosidades – Os países mais ricos e mais pobres do mundo


Você já deve ter ouvido falar no PIB, o Produto Interno Bruto. Ele serve para medir todas as riquezas produzidas num país. Entram nessa conta a renda da padaria, da farmácia, do banco, dos serviços de médico, advogado, enfim, toda a renda de um país. E, claro, os PIBs variam de país para país. Os maiores do mundo são Estados Unidos (que, por isso, é considerado o país mais rico), o da China e o do Japão. O Brasil possui o 9º maior PIB do mundo. Mas, embora o PIB determine a riqueza do país, ele não consegue mostrar uma série de outras informações relevantes para medir o nível de desenvolvimento, como por exemplo, a taxa de analfabetismo e a expectativa de vida.

Decidimos trazer alguns dados sobre os 10 países mais ricos e mais pobres do mundo de acordo com alguns dados específicos. Infelizmente, na lista dos 10 mais pobres, todos ficam no continente africano. Entre os mais ricos, alguns são países da Europa, outros, países do Oriente Médio beneficiados pela renda do petróleo — como Qatar, Kuwait e Emirados Árabes. Veja como os contrastes são impactantes.

Importante destacar que o  índice de Analfabetismo refere-se ao porcentual da população alfabetizada. Assim, por exemplo, na Noruega, 99% da população é alfabetizada (sabe ler e escrever), enquanto na República da Guiné, somente 29,5% das pessoas (menos de 1/3) sabem ler e escrever.

ranking

 

9 lugar

8 lugar

moc x irlanda

 

mala kuait

niger

liberia

burundi

congoquatar

14.094 – Vem aí a Comida de Laboratório


carne-de-laboratoio-225x300
Se hoje somos 7,7 bilhões de pessoas no planeta, em 2050, seremos 10 bilhões, segundo a Organização das Nações Unidas para Alimentação e Agricultura (FAO). A produção de comida terá de ser 70% maior e, de preferência, prejudicando o mínimo possível o meio ambiente. Para isso, precisamos rever como nos alimentamos. O último Relatório do Painel Intergovernamental sobre Mudanças Climáticas (IPCC) das Nações Unidas, divulgado em agosto, estabelece que precisamos reduzir o consumo de carnes para mitigar os efeitos das mudanças climáticas. O documento destaca que dietas baseadas em proteína animal contribuem com o desmatamento de importantes biomas do mundo, como a Amazônia, e defende uma alimentação rica principalmente em vegetais.

A grande aposta da indústria nesse sentido é desenvolver carnes à base de plantas ou de células de animais — com sabor, textura e qualidade nutricional iguais aos da carne de um bicho. “É um mercado ainda em desenvolvimento, mas não tem volta”, diz Jayme Nunes, biólogo da Merck, empresa alemã de ciência e tecnologia que investiu, no ano passado, 7,5 milhões de euros na startup Mosa Meat, fundada pelo cientista Mark Post.
Em 2013, Post apresentou o primeiro hambúrguer de laboratório do mundo, criado a partir de células de uma vaca. Para elaborar o disco de carne sem matar o animal, o professor da Universidade de Maastricht (Holanda) desenvolveu um método que usa células-tronco retiradas do músculo bovino. O resto do processo acontece no laboratório: em um biorreator, as células-tronco se transformam em células musculares. O resultado é uma pasta de carne que pode ser moldada.

A produção do primeiro hambúrguer de Post custou US$ 325 mil. Hoje, o valor fica entre US$ 9 mil e U$S 10 mil — e o preço promete cair ainda mais nas próximas décadas. “A tendência é de que custe US$ 50 em 2030, quando a carne deve estar disponível em restaurantes do guia Michelin”, estima Nunes. Ele acredita que, em 2050, a carne de células será vendida por US$ 20 o quilo, diretamente ao consumidor.

Enquanto as opções conhecidas como cell-based (baseado em células, em tradução livre) ainda engatinham, já é possível comprar hambúrgueres plant-based (à base de plantas) a preços acessíveis. Nos EUA, duas empresas se destacam: a Beyond Meat foi a primeira a ter seu hambúrguer de óleo de coco, romã e beterraba nos supermercados do país, em maio de 2016; já a Impossible Foods, que lançou um hambúrguer de plantas em julho do mesmo ano, inovou ao fazer a peça “sangrar”. Na lista de ingredientes estão proteína isolada de soja, proteína de batata e óleos de coco e de girassol. O sabor e o aspecto vermelho vêm da leghemoglobina de soja, uma proteína encontrada na raiz de leguminosas. Assim como a hemoglobina, presente no sangue de animais e humanos, ela é composta de glóbulos vermelhos — a responsável, portanto, pelo tom avermelhado.
O uso da leghemoglobina chamou a atenção da Food and Drug Administration (FDA), agência norte-americana que regula alimentos e remédios, pelo alto potencial alergênico. No dia 31 de julho, porém, a FDA concluiu que a proteína é segura para consumo e autorizou a venda do Impossible Burger em mercados a partir de 4 de setembro. O produto já era comercializado em restaurantes desde 2016, e tem se popularizado cada vez mais.

Em agosto, o Burger King anunciou nas lojas dos EUA uma versão do sanduíche Whopper feita com o Impossible Burger. No dia 10 de setembro, a novidade desembarca no Brasil. Aqui, no entanto, o hambúrguer vegetal da rede de fast-food será da Marfrig, gigante brasileira da indústria da carne que acaba de entrar para o time dos fabricantes de produtos plant-based.

14.093 – Audiotecnologia – Como Funciona um Alto Falante


alto falantes 1
Graças aos nossos ouvidos conseguimos ouvir sons produzidos por diversos dispositivos como buzinas, campainhas, bumbos, alto-falantes, etc. Os alto-falantes hoje estão em diversos aparelhos eletrônicos, sendo muito utilizados para incrementar carros de sons, como mostra a figura acima.
Podemos simplificar a definição de alto-falantes como sendo componentes que transformam sinais elétricos de uma corrente elétrica em oscilações de pressão no ar, em forma de onda sonora. Caso observemos bem de perto um alto-falante, poderemos verificar que seus componentes básicos são um ímã permanente, preso na armação do alto-falante, e uma bobina móvel, que está fixa no cone de papel.
Quando aplicamos uma corrente elétrica variável na bobina, esta é repelida ou atraída pelo campo magnético do ímã permanente. Desta forma, o conjunto bobina-cone é movido para frente e para trás, empurrando o ar em sua volta, criando uma onda de compressão e rarefação no ar, ou seja, uma onda sonora.
Por exemplo, aplicando uma corrente oscilante de 440 Hz na bobina, o cone do alto-falante vai se mover para frente e para trás com esta mesma frequência, produzindo uma onda sonora de 440 Hz.
A bobina, presa ao cone, é movida para frente e para trás por meio da força magnética, quando ela é percorrida por uma corrente elétrica.