13.777 – Os efeitos do café no corpo humano


Café é energia, mas também traz um monte de outros benefícios para o seu corpo. Isso porque o principal componente do café é a cafeína. Ao ser absorvida pelo corpo, passa pela corrente sanguínea, que a leva até o cérebro.
Nesse processo, as moléculas de cafeína impedem a recepção da adenosina, substância responsável pela sensação de sono. Mas a bebida não combate apenas o sono: o café tem propriedades vasoconstritoras, ou seja, tem efeito analgésico.
Além disso, traz outros benefícios para a sua saúde, como no rim e para as vias respiratórias. Quer saber outros benefícios da bebida para a sua saúde?

Confira o ☻Mega Vídeo a seguir e descubra:

13.776 – Aproveitando a energia das estrelas


sol
Somos todos parasitas do Sol, por mais que pouca gente tenha aderido à onda dos aquecedores solares para o chuveiro. Toda a comida que você consome, toda a energia que você gasta e o mero fato de que você tem um planeta onde morar – essas coisas são dádivas da nossa estrela mãe. Dá para fazer muita coisa com esse uso secundário da energia solar, como podemos comprovar simplesmente olhando para o mundo ao nosso redor. Mas que tal se a gente fosse direto à fonte? E se a nossa espécie usasse o Sol e/ou outras estrelas galáxia afora como gigantescas tomadas?
A ideia pertence à fronteira entre a ficção e a pesquisa de verdade, mas foi proposta pela primeira vez numa das mais importantes revistas científicas do mundo, a americana Science, há 50 anos. Seu principal mentor, o físico e matemático britânico Freeman Dyson, empresta seu nome ao conceito, que é conhecido como “esfera Dyson”.
Na publicação original, feita nas páginas da Science, Dyson partiu de um raciocínio simples: ao longo da história, a humanidade tem aumentado exponencialmente seu consumo de energia, da queima de poucas toneladas de gravetos por ano na Pré-História à construção de gigantescas usinas elétricas no século 20. Ora, se os seres humanos realmente se espalharem pelo sistema solar e pelos sistemas estelares vizinhos no futuro, vão precisar de quantidades ainda mais alucinadas de energia para sobreviver. Portanto, nada melhor do que organizar sistemas que captem diretamente a radiação estelar para o nosso uso.

Casca, bolha ou enxame?
O ponto em comum em todas as variantes já imaginadas é o uso de um grande conjunto de painéis solares, voltados na direção da estrela-tomada, os quais, de preferência, cobririam a totalidade, ou pelo menos a maior parte, do astro. Fora isso, o desacordo impera entre os teóricos.
O que parece quase certo é que seria absurdamente complicado construir uma esfera sólida em torno da coitada da estrela. O problema não é nem o calor, já que os proponentes dessa versão falam numa casca com raio de 1 UA (uma unidade astronômica, ou seja, a distância atual entre a Terra e o Sol). O que acontece é que uma estrutura desse naipe não teria interação gravitacional significativa com a estrela em seu interior – ou seja, precisaria de motores que a mantivessem no lugar o tempo todo, senão correria o risco de trombar com o astro. Por essas e outras, acredita-se que o melhor jeito de realizar o sonho da estrela-tomada envolva o uso de um arquipélago de satélites e estações espaciais, cobertos com sofisticados coletores de energia solar. Uma vez obtida a energia, ela poderia ser transmitida de um satélite para outro, e também para pontos distantes do espaço, por meio de potentes emissões de laser, digamos. Essa versão da ideia é conhecida como “enxame de Dyson”, mas ela tem outra desvantagem séria. A interação gravitacional entre o grande número de satélites poderia levar a frequentes trombadas, difíceis de evitar. Por isso, um terceiro conceito, a “bolha de Dyson”, propõe equipar os satélites em torno da estrela com gigantescas velas (isso mesmo, como as de barcos), as quais seriam impulsionadas pelo “vento” de partículas que a estrela sopra através do espaço. Com isso, os coletores de energia ficariam sempre na mesma posição. Se você está achando Dyson doidão, saiba que ele propôs a ideia, originalmente, como forma de buscar civilizações ETs avançadas, que já teriam feito suas esferas Universo afora.

13.775 – História – A Formação dos Reinos Bárbaros


barbaroscivi
A decadência do Império Romano do Ocidente foi acelerada pela invasão de povos bárbaros. Bárbaros era a denominação que os romanos davam áqueles que viviam fora das fronteiras do Império e não falavam o latim. Dentre os grupos bárbaros destacamos os:
Germanos: de origem indo-européia, habitavam a Europa Ocidental. As principais nações germânicas eram: os vigiados, ostrogodos, vândalos, bretões, saxões, francos etc.
Eslavos: provenientes da Europa Oriental e da Ásia, compreendiam os russos, tchecos, poloneses, sérvios, entre outros.
Tártaro-mongóis: eram de origem asiática. Faziam parte deste grupo as tribos dos hunos, turcos, búlgaros, etc.

Os Germanos
Entre os povos bárbaros, os germanos foram os mais significativos para a formação da Europa Feudal.
A organização política dos germanos era bastante simples. Em época de paz eram governados por uma assembléia de guerreiros, formada pelos homens da tribo em idade adulta. Essa assembléia não tinha poderes legislativos e suas funções se restringiam à interpretação dos costumes. Também decidia as questões de guerra e de paz ou se a tribo deveria migrar para outro local.
Em época de guerra, a tribo era governada por uma instituição denominada comitatus. Era a reunião de guerreiros em torno de um líder militar, ao qual todos deviam total obediência. Esse líder era eleito e tomava o título de Herzog.
Os germanos viviam de uma agricultura rudimentar, da caça e da pesca. Não tendo conhecimento das técnicas agrícolas, eram seminômades, pois não sabiam reaproveitar o solo esgotado pelas plantações. A propriedade da terra era coletiva e quase todo trabalho era executado pelas mulheres. Os homens, quando não estavam caçando ou lutando, gastavam a maior parte de seu tempo bebendo ou dormindo
A sociedade era patriarcal, o casamento monogâmico e o adultério severamente punido. Em algumas tribos proibia-se até o casamento das viúvas. O direito era consuetudinário, ou seja, baseava-se nos costumes.
A religião era politeísta e adoravam as forças da natureza. Os principais deuses eram: Odim, o protetor dos guerreiros; Tor, o deus do trovão; e Fréia, a deusa do amor. Acreditavam que somente os guerreiros mortos em combate iriam para o Valhala, uma espécie de paraíso. As Valquírias, mensageiras de Odin, visitavam os campos de batalha, levando os mortos. As pessoas que morriam de velhice ou doentes iriam para o reino de Hell, onde só havia trevas e muito frio.

Os Reinos Bárbaros
Devido à expansão do Império, a partir do século I, os romanos mantinham contato pacífico com povos bárbaros, principalmente os germanos. Muitos desses povos migraram para o Império Romano e chegaram a ser utilizados no exército como mercenários.
Porém, no século V, os germanos foram pressionados pelos belicosos hunos.
Os hunos, de origem asiática, deslocaram-se em direção à Europa e atacaram os germanos, levando-os a fugir. Estes, acabaram por invadir o Impéio Romano, que enfraquecido pelas crises e guerras internas, não resistiu às invasões e decaiu. No antigo mundo romano nasceram vários reinos bárbaros.
“(…) Não têm eles (os hunos) necessidade de fogo nem de comidas temperadas, mas vivem de raizes selvagens e de toda espécie de carne que comem meio crua, depois de tê-la aquecido levemente sentando-se em cima durante algum tempo quando estão a cavalo. Não têm casas, não se encontra entre eles nem mesmo uma cabana coberta de caniço. Vestem-se panos ou peles de ratos do campo. (…) Nenhum cultiva a terra nem toca mesmo um arado. Sem morada fixa, sem casas, erram por todos os lados e parecem sempre fugir com as suas carriolas. Como animais desprovidos de razão, ignoram inteiramente o que é o bem e o que é o mal; não têm religião, nem superstições; nada iguala sua paixão pelo ouro.”
Dos reinos bárbaros que se formaram na Europa, os principais foram:
Reinos dos Visigodos: situado na península ibérica, era o mais antigo e extenso. Os visigodos ocupavam estrategicamente a ligação entre o Mar Mediterrâneo e o oceano Atlântico, que lhes permitia a supremacia comercial entre a Europa continental e insular.
Reino dos Ostrogodos: localizam-se na península Itálica. Os ostrogodos se esforçaram para salvanguardar o patrimônio artistico-cultural de Roma. Restauraram vários monumentos, para manter viva a memória romana. Conservaram a organização político-administrativa imperial, o Senado, os funcionários públicos romanos e os militares godos.
Reino do Vândalos: o povo vândalo atravessou a Europa e fixou-se no norte da África. Nesse reino houve perseguição aos cristãos, cujo resultado foi a migração em massa para outros reinos, provocando falta de trabalhadores, e uma diminuição da produção.
Reino dos Suevos: surgiu a oeste da península Ibérica e os suevos viviam da pesca e da agricultura. No final do século VI, o reino foi absorvido pelos visigodos, que passaram a dominar toda península.
Reino dos Borgúndios: os borgúndios migraram da Escandináva, dominaram o vale do Ródano até Avinhão, onde fundaram o seu reino. Em meados do século VI, os borgúndios foram dominados pelos francos.
Reino do Anglo-Saxões: surgiu em 571, quando os saxões venceram os bretões e consolidaram-se na região da Bretanha.
No processo de invasão e formação dos reinos bárbaros, deu-se ao mesmo tempo, a “barbarização” das populações romanas e a “romanização” dos bárbaros. Na economia, a Europa adotou as práticas econômicas germânicas, voltada para a agricultura, ode o comércio era de pequena importância.
Apesar de dominadores, os bárbaros não tentaram destruir os resquícios da cultura romana; ao contrario, em vários aspectos assimilaram-na e revigoraram-na. Isso se deu, por exemplo, na organização política. Eles que tinham uma primitiva organização tribal, aodtaram parcialmente a instituição monárquica, além de alguns mecanismos e normas de administração romana. Muitos povos bárbaros adotaram o latim com língua oficial. Os novos reinos converteram-se progressivamente ao catolicismo e aceitaram a autoridade da Igreja Católica, à cabeça da qual se encontrava o bispo de Roma.
Com a ruptura da antiga unidade romana, a Igreja Católica tornou-se a única instituição universal européia. Essa situação lhe deu uma posição invejável durante todo o medievalismo europeu.

13.774 – Mega Techs – Avanços na Nanotecnologia


nanotecnologia (1)
Os nanorobôs

Pesquisadores da universidade de Berkeley, na Califórnia, criaram um tipo de semicondutor nanolaser (os chamados spasers) que promete fazer parte de novas tecnologias em alguns anos. O grande diferencial no projeto de Berkeley é que ele suporta a temperatura ambiente sem qualquer problema.
Até agora, spasers só poderiam ficar em ambientes com temperatura inferior a 250° C, o que impedia sua aplicação comercialmente. O projeto é um grande avanço para a nanotecnologia e abre portas para que o laser seja integrado em chips eletrônicos.
Isso permite que sejam criados equipamentos cada vez menores e com qualidade superior aos existentes no mercado atualmente, como sensores biométricos de alta precisão e circuitos óticos com velocidade até cem vezes maior que a atual.

13.773 – Quem disse que japonês só pensa em trabalhar?


japones
Japão quer criar uma folga por mês nas segundas-feiras de manhã
Aquela tristeza que bate no domingo à noite, após o jantar, já anuncia: a temida segunda-feira está chegando. Voltar para a rotina de trabalho depois do final de semana pode ser um pesadelo, mas o Japão quer aliviar um pouco essa barra para a sua população.
O Ministério da Economia, Comércio e Indústria anunciou recentemente um projeto chamado “Segunda Brilhante”, que propõe que, uma vez por mês, os funcionários tenham uma manhã de segunda-feira de folga. Já houve uma proposta em fevereiro para que as pessoas saíssem mais cedo na última sexta-feira do mês, mas como o período é atarefado para as empresas, quase ninguém conseguiu aproveitar.

13.772 – Como Surgiu a Força de Gravidade?


gravitons
De todas as forças do universo, a gravidade é aquela que se estuda há mais tempo e, paradoxalmente, a menos conhecida. Qualquer aluno que tenha estudado um pouco de física lembra-se da história de Galileu soltando bolas de chumbo, madeira e papel do alto da torre de Pisa, na Itália, na tentativa de entender como agia essa força estranha que atrai as coisas em direção ao centro da Terra. Bem antes, Aristóteles havia proposto que isso ocorria por nosso planeta ser o centro do universo, o lugar onde, pela própria natureza, as coisas deveriam estar. Quando surgiu o heliocentrismo, com Copérnico, o enfoque mudou e tornou-se necessária a revisão das leis sobre a queda dos corpos. Mais tarde, novas observações e teorias levaram à lei da gravitação universal formulada por Isaac Newton.
O grande passo seguinte só foi dado quase três séculos depois, graças a Albert Einstein, com sua Teoria Geral da Relatividade, de 1916 – trabalho pelo qual recebeu o Nobel de Física em 1921. As ondas gravitacionais são filhas naturais da teoria da gravitação proposta por Einstein, mas só existem no papel. De onde vêm e qual é sua importância são perguntas ainda sem resposta comprovada, já que nunca foram detectadas.
Segundo Einstein, planetas e estrelas curvam o espaço à sua volta pelo simples fato de estarem ali presentes – por seguirem a curvatura do espaço é que corpos celestes giram, gravitam em torno uns dos outros, como a Terra ao redor do Sol e a Lua em volta da Terra. Imagine então a ocorrência de um evento violento, como a explosão de uma estrela massiva que chegou ao fim da vida – uma supernova. Ou a fusão de duas estrelas de nêutrons, astros particularmente densos, ou de dois buracos negros com seu poder esmagador. Acontecimentos dessa magnitude provocam poderosas acelerações da matéria que interferem no campo gravitacional em volta. São como uma pedra jogada na água: formam ondulações, deformando o espaço. Se o pensamento é correto, poderemos detectar essas ondas no momento em que atingem a Terra após terem viajado até nós à velocidade da luz.
Durante muito tempo astrônomos duvidaram da existência das ondas gravitacionais. Desde a década de 1960, porém, físicos se empenham em provar que elas existem, confiando em que a Teoria Geral da Relatividade esteja correta, já que só tem colecionado acertos. Sua comprovação seria como abrir uma porta especial para o conhecimento do universo, que tem sido estudado por radiações eletromagnéticas, ou luz, com bandas de radiação diferentes, como de rádio, raios gama, raios X, ultravioleta e infravermelhos. Ocorre que radiações eletromagnéticas não são suficientemente seguras para nos dar determinadas informações. É o caso de eventos em buracos negros, pois eles não deixam a luz escapar. Já as ondas gravitacionais cruzam o espaço sem sofrer alterações e podem chegar até nós com dados desconhecidos sobre fenômenos do universo. Os mais otimistas anteveem até a possibilidade de observar um “fóssil”, a desconhecida radiação gravitacional gerada pelo Big Bang. Estaríamos inaugurando um novo tipo de astronomia, como nunca antes se imaginou.
As ondas gravitacionais, muito mais fracas que as eletromagnéticas, são dificílimas de detectar. O instrumental utilizado para isso é de extrema sensibilidade e qualquer evento, como o som de um avião nos arredores, pode produzir sinais capazes de confundir os pesquisadores. O problema é que tudo, ou quase, é mais forte que uma onda gravitacional. Em 2007, o Observatório de Ondas Gravitacionais por Interferômetro Laser (Ligo), aparelho norte-americano de captação de ondas gravitacionais, juntou-se aos europeus Virgo (franco-italiano) e Geo (alemão), bem como aos observatórios espaciais Lisa e Lagos, num esforço de observação. Espera-se ampliar a chance de detecção, que hoje não passa de apenas uma por ano.
Virgo, construído na cidade italiana de Cascina, na Toscana, perto de Pisa, onde Galileu fez suas experiências sobre gravidade, é um imenso interferômetro de ondas gravitacionais. Tem produzido dados de qualidade comparável aos de Ligo e Geo. O observatório é formado por um laser cujo facho de luz se divide e percorre os dois gigantescos braços de Virgo, de 3 quilômetros de comprimento, colocados em ângulo reto.
No interior dos túneis abrigados nos braços de Virgo, em um ambiente próximo ao vácuo, os raios lasers alinhados, de alta potência, são refletidos por múltiplos espelhos e percorrem incessantemente os espaços, indo e voltando.
O objetivo dos físicos é detectar uma ínfima defasagem entre os lasers, o que indicaria uma variação no comprimento dos braços, já que, teoricamente, a passagem de ondas gravitacionais deve alongar um dos braços e contrair o outro. Tal acontecimento indicaria que alguma onda gravitacional estaria atravessando o dispositivo. Espera-se que o sistema acuse o evento com uma precisão de um bilionésimo de átomo.

Um longo caminho
A construção de Virgo exigiu cuidados especiais. É uma das áreas mais planas da Itália, o que é bom. Mas há o inconveniente da instabilidade do solo, como resultado da retirada constante de água destinada à agricultura. Basta lembrar a torre de Pisa para ter uma ideia do problema.
Os túneis de Virgo deslocam-se até um milímetro por mês em alguns pontos, exigindo fiscalização regular e a compensação imediata de qualquer desvio. Os espelhos foram fabricados em Lyon (França), num laboratório especialmente criado para isso, e sua refletividade é das maiores do mundo – aproximadamente 99,995%. Cada túnel é protegido por um sistema de isolamento sísmico superespecial, que preserva os espelhos dos movimentos do solo e de grande parte das vibrações ambientais. A aparelhagem é tão sensível que pode até mesmo parar de funcionar se houver fortes vibrações. É tão complicado que os dirigentes até pensam em suspender a vigilância noturna, feita de carro, para não perturbar o sistema. Ruídos e vibrações afetam a pesquisa e torna-se muito difícil isolar um sinal possivelmente significativo da grande quantidade de sinais parasitas. Seria como tentar ouvir um sussurro perto de uma banda de rock estridente.
Na sala de controle, técnicos monitoram os acontecimentos nas telas dos computadores. Atualmente, a chance de detectar uma onda gravitacional é rara: apenas uma por ano. E detectar algo que possivelmente seja um evento dessa natureza deve ser confirmado com análises do CD de dados, cujos resultados poderão demorar meses a sair. Acontecimentos de vulto podem ser mais fáceis de registrar. O jeito é esperar pela oportunidade de ocorrer uma fusão de estrelas de nêutrons bem próxima da Terra, com sinal muito forte, e avaliar o que será registrado nas horas seguintes. Tudo fica ainda mais difícil, como os físicos já observaram, aperfeiçoando seus modelos teóricos, porque estrelas agonizantes enviam bem menos ondas gravitacionais do que se pensava. Eles reconhecem que estão longe de surpreender uma supernova em vias de explodir, perto ou longe da Via Láctea.
É de se louvar esse esforço técnico-científico, diante da possibilidade de ampliar e modificar o conhecimento atual muito além do sonhado. Trata-se não apenas de ver os astros, como na astronomia ótica, ou de entendê-los, como na radioastronomia. A astronomia gravitacional colocará em nossas mãos a inimaginável beleza de “sentir” os astros, como se ganhássemos, assim, uma percepção extra. É esperar para ver.

Glossário da pesquisa gravitacional
Lei da gravitação universal – Diz que dois objetos se atraem gravitacionalmente por meio de uma força que é proporcional à massa de cada um deles e inversamente proporcional ao quadrado da distância que os separa.

Teoria Geral da Relatividade – É a teoria do espaço-tempo. Diz que as forças gravitacionais decorrem da curvatura do espaço-tempo ocasionada pela presença de massas. O espaço-tempo é plano onde não há forças gravitacionais e nele os corpos se movem em linha reta.

Espaço-tempo – Conceito elaborado por Einstein dentro da Teoria Geral da Relatividade. É o tecido do universo, em que o espaço tridimensional e o tempo formam um todo de quatro dimensões. O tempo não flui sempre de modo uniforme, como se imaginava. A matéria pode atuar sobre ele.
Onda gravitacional – É a que transmite energia por meio de deformações no espaço-tempo. A Teoria Geral da Relatividade diz que corpos massivos em aceleração podem causar o fenômeno, que se propaga à velocidade da luz.
Ano-luz – É a unidade de distância igual a 9,467305 x 10¹² km, que corresponde à distância percorrida pela luz, no vácuo, durante um ano.
Sinais – Joseph Taylor e Russell Hulse, astrofísicos norte-americanos, observaram indícios da existência de ondas gravitacionais ao estudar a movimentação de duas estrelas de nêutrons que apresentavam desaceleração correspondente à energia que, em tese, deviam perder com a emissão de ondas gravitacionais. Receberam o Nobel de Física em 1993.
Interferometria – Ciência e técnica da sobreposição de duas ou mais ondas, cujo resultado é uma nova e diferente onda. É usada em diferentes campos, como astronomia, oceanografia, sismologia, metrologia óptica, fibras ópticas e mecânica quântica.

13.771 – Instrumentos Musicais – Compre um Stradivarius e faça um estrago no bolso


stradivarius
Stradivarius é o nome dado por antonomásia, aos instrumentos de corda, principalmente violinos, construídos por membros da família Stradivari, sendo os mais reputados aqueles construídos pelo luthier Antonio Stradivari (1644–1737) entre os séculos XVII e XVIII. Durante os últimos três séculos luthiers e cientistas estudaram os instrumentos do construtor italiano sem chegar a nenhuma conclusão concreta sobre a razão de os violinos soarem tão bem. Hoje em dia a palavra “Estradivário” é também associada à excelência de qualidade, chamando-se o “Estradivário” de qualquer área ao melhor do que nela há. Estima-se que Stradivari construiu 1116 violinos após 1666, dos quais cerca de 500 estão ainda em circulação.
Dependendo do ano de construção, da condição e de outros fatores como, por exemplo, a quem pertenceu, os violinos Stradivari atingem diferentes valores, todos eles astronômicos.
Os violinos da década de 1680 e do chamado período do “Padrão Longo”, entre 1690 e 1699, são os menos ruins com valores compreendidos entre centenas de milhares e alguns milhões de euros. O famoso “Molitor”, construído em 1697, foi vendido por 3,6 milhões de dólares em 2010 à violinista Anne Akiko Meyers num dos leilões online da Tarisio, um recorde na altura.
Já os violinos construídos entre 1700 e meados da década de 1720, o chamado “Período de Ouro”, podem valer dezenas de milhões de euros. Uma das mais famosas vendas de um violino deste período foi a do “Lady Blunt” (apelidado após 30 anos sob a posse de Anne Blunt, neta do poeta inglês Lord Byron), efectuada em Junho de 2011 num leilão promovido pela Fundação de Música Japonesa. O instrumento foi vendido a um licitante anónimo por 15,9 milhões de dólares, e a receita reverteu a favor das vítimas do tsunami do Japão.
As madeiras primárias utilizadas na construção de violinos, violoncelos e violas são o abeto para o tampo superior; e o bordo para o tampo inferior, as partes laterais e o braço. A estrutura é reforçada interiormente com salgueiro, e para as cravelhas e o ponto é utilizado ébano. Era com estes materiais que Antonio Stradivari construía os seus instrumentos.
Especula-se sobre o tratamento que o luthier dava à madeira que utilizava; contudo, provas científicas mostram que elementos químicos como fluoreto, bórax, crômio e sais de ferro estão presentes na composição da mesma. O verniz aplicado nos instrumentos resultava de uma mistura de borracha solúvel em óleo, com boa qualidade de secagem, e substâncias corantes. Para a construção dos violinos o mestre italiano usava uma forma a partir da qual construía o violino exteriormente. 1685 foi um ano revolucionário na manufacturação dos violinos, pois Estradivário aumentou as medidas padrão para um valor semelhante àquelas utilizadas pelo seu ensinante Nicola Amati, influenciando assim a produção de som. A meticulosidade do design utilizado na cravelhas, ponto, rebordo e cavalete também distingue o construtor.

13.770 – Filósofos Contestam a Exatidão das Ciências Exatas


ciencia exata
Argumentos em que se baseiam:
“De tão caricatural, a separação entre exatas e humanas está se tornando tóxica. Rende bons memes, mas traz uma imagem errada sobre o papel de cada uma das ciências e da urgente integração entre elas. Exatidão, assim como precisão, rigor ou objetividade, são noções cujos significados mudaram ao longo da história.
Para Descartes, por exemplo, eram exatos procedimentos que permitiam construir curvas por meio de equações algébricas. Ao invés de fazer um círculo geometricamente, usando o compasso, tornou-se possível construir essa figura por meio da equação . Essa noção de “exatidão”, como mostra o historiador da matemática Henk Bos em Redefining Geometrical Exactness: Descartes’ Transformation of the Early Modern Concept of Construction (NY, Springer, 2001), era típica do século 17. Surgiu no contexto de matemáticos-filósofos tentando ampliar os métodos de construção de curvas geométricas, que também serviam à ótica.
Bem mais tarde, em meados do século 19, a ciência viu-se às voltas com a ideia de objetividade. Observar o mundo e enxergar relações implícitas, não observáveis à primeira vista, era tarefa dos “homens de ciência” – a expressão é da época, pois a tarefa era mesmo considerada atribuição dos homens mais do que das mulheres. Como cientistas são humanos, tendem a projetar valores e afetos em suas observações, o que pode comprometer as conclusões. Para que isso não acontecesse, quem praticava a ciência precisava segurar a onda. Tinha que limitar suas tendências mais íntimas – sua subjetividade – e treinar o corpo e o olhar para garantir a objetividade de suas observações. No livro Objectivity (NY, Zone Books, 2007), Lorraine Daston e Peter Galison, renomados historiadores da ciência, mostram que a objetividade tornou-se, assim, uma virtude científica.
Seria possível dar inúmeros outros exemplos, mas a moral da história é que predicados como exatidão e objetividade, atribuídos hoje a certos ramos do conhecimento, foram inventados para ampliar os procedimentos aceitos ou para limitar traços humanos que pudessem prejudicar a observação científica. Hoje, as ciências ditas exatas são aquelas que usam a matemática. O modelo mais bem acabado é o da física. Esses saberes foram construídos como exatos, em contextos específicos, para lidar com as possibilidades e os limites humanos para conhecer.”
Ciências Exatas ou Naturais?
A Filosofia da Ciência possui um papel extremamente importante para a evolução dos diversos ramos da ciência. Quando se fala em ciências o que vem a mente é justamente métodos e análises precisamente matemáticas pautadas na exatidão e pesquisadores usando laboratórios, vidrarias e roupas brancas. Erroneamente o termo ciências acaba se restringindo apenas as ditas Ciências Exatas. Porém, muito se tem questionado se realmente existe uma ciência exata. Exata na forma literal da palavra. Atualmente os ramos da Física, Química, Biologia e até mesmo a própria Matemática preferem a alcunha de Ciências da Natureza em detrimento de Ciências Exatas.
Isso se deve principalmente pela evolução da própria Ciências Naturais. Queda de Leis, paradigmas, teorias, conceitos fizeram com que cientistas percebessem que até mesmo as ciências ditas exatas como Física, Química, Astronomia, Matemática, Biologia, etc. Deveriam ser constantemente reformuladas. Prova disto está na evolução da teoria atômica (Química), da queda do lamarkismo para o evolucionismo (Biologia), da mecânica clássica para a mecânica quântica (Física), do universo estável e infinito para instável e finito (Astronomia).
Com o desenvolvimento da história, as Ciências Naturais percebeu que o nome de “exatas” não lhe cabia mais. Perceberam o quanto as Ciências Naturais estava tão próxima das Ciências Humanas e Sociais. Na Química isso fica mais evidente ainda com as diversas descobertas em relação ao atomismo. A evolução do átomo que vem desde John Dalton, passando por Thomson, Rutherford, Bohr e culminando em Schrödinger é uma prova cabal de que Ciências Exatas não existe. O que existe é Ciência. Seja ela da Natureza, Social, Médica, Engenharia, Computacional, Humana, Filosófica ou Teológica. O que temos é a Ciência.

13.769 – Pelo Menos Tire as Galochas – De Onde Surgiu a Expressão Chato de Galochas?


chato-galochas-400x355

Não se sabe exatamente, mas acredita-se que a expressão tenha se originado a partir do costume que os homens da década de 50 tinham de usar galochas, calçados de borracha que eram colocados por cima dos sapatos e os protegiam em dias de chuva.
Desta forma, o termo popular surgiu a partir da imagem de uma pessoa que não retirava as galochas para entrar em casa, sujando todo o chão de barro e lama: “o chato de galochas”.
Chato de galocha é uma expressão idiomática da língua portuguesa muito usada no Brasil. É usada para descrever uma pessoa que é muito chata e inconveniente.
O dito chato de galocha é o indivíduo que é extremamente desagradável, com pouco senso social e insistente em assuntos desinteressantes.
Exemplo:
Eu não quero sair com vocês. O seu amigo é um chato de galocha!
Origem da expressão ‘chato de galocha’
As galochas são sapatos de borracha resistentes que são usados para proteger os calçados normais em ambientes onde há muita água ou lama, por exemplo.
Por ser feita com um material bastante resistente, a galocha acabou sendo associada ao comportamento das pessoas insistentes e desagradáveis.
Além disso, o costume de entrar na casa de alguém sem ter o cuidado de tirar esses sapatos de borracha sujos, reforça a imagem da pessoa chata usando galochas.
Acredita-se que essa expressão tenha surgido por meados da década de 1950, quando o uso de galochas era um costume típico entre homens e mulheres.
Em algumas regiões do Brasil ainda é comum o uso de galochas, principalmente onde há a predominância do clima chuvoso e frio.

chato2

13.768 – O que são miragens?


Um lago rodeado de palmeiras no meio do deserto. Isso é o que se chama de oásis. Ou melhor, seria um oásis, se não fosse apenas uma miragem. É sempre assim que acontece nos desenhos animados: o viajante cansado e com sede corre em direção àquele oásis tropical e, somente quando está prestes a mergulhar é que o lago, junto com todas as palmeiras, desaparece.
É verdade que esse tipo de miragem é apenas ficção, mas as miragens realmente existem e podem fazer parecer que há água onde não tem. Ao contrário do que acreditam muitas pessoas, as miragens não são uma alucinação provocada pelo forte calor. Elas são um fenômeno óptico real que ocorre na atmosfera e que pode inclusive ser fotografado.
Você também não precisa estar em um deserto para ver uma miragem. Elas acontecem com certa frequência, por exemplo, em grandes rodovias em dias de calor intenso. De longe, você vê a imagem de um veículo que parece refletido no asfalto da estrada, dando a nítida impressão de que o asfalto está molhado e que o veículo foi refletido por uma poça d’água. Mas, conforme você se aproxima, percebe que a rodovia está completamente seca.

Desvio da luz
O termo miragem tem origem na expressão francesa se mirer que significa mirar-se, ver-se no espelho. As miragens se formam a partir de um fenômeno chamado pelos físicos de refração – que nada mais é do que o desvio dos raios de luz.
Bom, mas para entender porque o desvio da luz forma as miragens, é preciso que você entenda, antes de tudo, como é a nossa visão. Nós só podemos ver porque os objetos refletem ou emitem luz. É justamente essa luz, que chega aos nossos olhos, que é enviada por meio de sinais elétricos ao cérebro. Interpretando os sinais, o cérebro dá forma aos objetos e assim nós enxergamos as coisas.
O problema (se é que podemos considerar isso um problema) é que o nosso cérebro entende que os raios de luz se propagam sempre em linha reta. Isso até seria verdade, se os raios nunca sofressem nenhum desvio pelo caminho. O desvio da luz pode ocorrer quando os raios atravessam meios com diferentes densidades, como da água para o ar, ou ainda de um ar mais frio para um ar mais quente, ou passam através de lentes.
Você pode observar facilmente o fenômeno da refração colocando um lápis dentro de um copo com água. Deixando-o parcialmente mergulhado, você vai notar que o lápis parece que está quebrado, o que obviamente não é verdade. Outro caso de refração é de um pescador que avista um peixe no mar e o vê mais próximo da superfície do que ele está. Nesses dois exemplos, nós vemos os objetos em posição diferente da que eles realmente se encontram. Isso ocorre porque não vemos a luz dobrar-se; vemos apenas os efeitos dessa dobra.
Mas agora voltemos às miragens! Você já reparou que na praia, em dias muito ensolarados, você vê as coisas que estão a certa distância meio “trêmulas”? O fenômeno físico que leva essas imagens parecerem trêmulas é o mesmo que leva à formação das miragens no deserto ou nas estradas.
Devido ao calor intenso, forma-se uma camada de ar quente junto ao solo. E esse ar é menos denso do que o ar da camada situada imediatamente acima, mais frio. Como os raios de luz se propagam mais rápido no ar quente, eles encurvam-se para cima. Mas, como o nosso cérebro interpreta que a luz percorreu um caminho retilíneo, o que nós vemos é a imagem do objeto, que pode ser uma palmeira, por exemplo, invertida, como se estivesse refletida em poças de água sobre a estrada, ou um lago no deserto. A água é ilusória, mas a palmeira e sua imagem são reais. Esse tipo de miragem é chamado de miragem inferior.

Navios fantasmas
Existe outro tipo de miragem, esse mais raro, e muito mais impressionante, que são as chamadas miragens superiores. Ao contrário das miragens inferiores, elas ocorrem por uma distribuição de temperatura inversa, ou seja, uma camada de ar mais fria próxima à superfície e, acima dessa, uma camada de ar mais quente. Essas miragens também são difíceis de serem vistas por aí, porque são típicas de regiões polares ou de água muito fria.
As miragens superiores fazem o objeto visto parecer muito acima do que ele realmente está. Você pode, por exemplo, ver um barco flutuando no ar, ou ele pode parecer muito mais alto do que é na verdade. No caso das miragens marítimas, é possível a formação de imagens invertidas de navios que, devido à curvatura da Terra, ainda não estão visíveis. Mas também imagens diretas e suspensas sobre o horizonte são possíveis. Talvez seja daí que venham as lendas de navios fantasmas.
O Guiness Book of Records – Livro dos Recordes Mundiais – registra o mais distante objeto já visto por meio de uma miragem. A escuna Effie M. Morrissey estava no meio do caminho entre a Groelândia e a Islândia em 17 de julho de 1939, quando o Capitão Robert Barlett avistou a geleira Snaefells Jökull, na Islândia, que deveria estar a uma distância de 536 a 560 km. A distância aparente, no entanto, era de apenas 40 a 50 km. Se não fosse pela miragem, a geleira não poderia ser vista além de 150 km. Atualmente, sabe-se que várias geleiras que foram descobertas eram, na verdade, miragens. Incrível, não?
Você pode ver um fenômeno óptico similar a miragens superiores em qualquer dia de céu claro. Como a atmosfera terrestre não é um meio homogêneo – quanto maior a altitude, mais rarefeito é o ar – a densidade atmosférica diminui da superfície para o espaço. Esse fato faz com que a luz proveniente de um astro, ao atravessar a atmosfera, siga uma trajetória não retilínea.
Em consequência, quando olhamos para o sol, nós o vemos não em sua posição real, e sim mais alto do que ele realmente está. Por isso, o sol pode ser visto após se pôr e antes de nascer, mesmo estando abaixo da linha do horizonte. Além disso, quando o sol ou a lua estão bem próximos à linha do horizonte, os raios luminosos vindos da borda inferior encurvam-se mais acentuadamente do que os raios vindos da borda superior, fazendo com que pareçam elípticos.

13.767 – Nasa vai lançar satélite para monitorar o derretimento de gelo na Terra


satelite derretimento
A Nasa vai lançar o IceSat-2, o novo satélite de monitoramento da massa polar da Terra. Usando o ATLAS, o laser mais avançado já desenvolvido pela agência espacial, o equipamento vai medir a altura das massas de gelo da Antártida e da Groenlândia.
De acordo com um comunicado o objetivo da agência é mapear as taxas anuais de diminuição das geleiras. Com isso, espera-se prever como essas mudanças vão alterar o nível dos mares e o clima nos polos terrestres e no restante do planeta.
A iniciativa vem da urgência ambiental do problema do derretimento das geleiras. Todos os anos, centenas de bilhões de toneladas de gelo somem por conta do aumento da temperatura, fazendo com que o nível dos oceanos aumente. Dos anos 80 para cá, a área de gelo do mar Ártico diminui 40%.

Como o satélite vai funcionar
A expectativa dos pesquisadores é aperfeiçoar as medições já realizadas pela Nasa a partir de 2003, com o IceSat-1, e em 2009, com o projeto Ice Bridge. Agora, a análise será feita em três dimensões e com uma precisão de frações de centímetro. Tudo isso graças ao poderoso ATLAS.
O sistema emitirá 10 mil pulsos de laser por segundo e registrará o tempo de deslocamento deles entre o satélite e a superfície da Terra. Com precisão certeira, ele vai mostrar a taxa de variação da velocidade em que os fótons (as partículas da luz) irão retornar para o satélite. Com isso, será possível saber o quanto que a altura determinado manto de gelo diminuiu em um ano.
Fora os polos, o ICESat-2 vai medir também a altura de ondas oceânicas, reservatórios e áreas urbanas, além da altura do topo das árvores em relação ao solo. Este último dado, combinado com outros existentes sobre as extensões das florestas, fornecerá uma estimativa da quantidade de carbono armazenada em áreas florestais no mundo.
“Como o satélite fornecerá medições de precisão sem precedentes e com cobertura global, ele produzirá não apenas novas reflexões sobre as regiões polares, mas também descobertas não previstas no mundo todo”, disse Thorsten Markus, cientista do projeto ICESat-2. O lançamento está programado para o dia 15 de setembro, na Califórnia.

Medicina – Remédio Perigoso


remedio_03
Eles variam na potência, mas têm os mesmos efeitos: anulam qualquer tipo de dor física, provocam uma curiosa mistura de relaxamento e euforia e são extremamente viciantes. Tanto que, só nos Estados Unidos, 2 milhões de pessoas são dependentes deles, segundo dados do governo americano. É uma quantidade assombrosa de gente, o dobro do número estimado de viciados em crack no Brasil. Os opioides também matam – e muito. Só no ano passado, causaram 60 mil mortes nos EUA (incluindo as do cantor Prince e da atriz Carrie Fisher, a princesa Leia de Star Wars). É mais do que todas as vítimas de acidentes de trânsito e armas de fogo, somadas. Também é mais do que os mortos por aids no pico da epidemia de HIV, em 1995. Um problema tão gigantesco que, em agosto, o governo dos EUA classificou os opioides como “emergência nacional” e prometeu medidas para dificultar sua venda.
Mas como um remédio tão perigoso pôde chegar ao mercado e ganhar versões cada vez mais potentes, sem que ninguém fizesse nada? A resposta é surpreendente – porque é quase tão antiga quanto a própria humanidade.
Em 3.400 a.C., os sumérios já extraíam um suco branco e leitoso da papoula, que chamavam de “planta da alegria”. Tumbas egípcias do século 15 a.C. contêm vestígios da substância, usada num ritual de sedação para o sonho eterno. Gregos e romanos também usavam a substância. Na Odisseia, Homero fala sobre uma tal nepente, a que ele se refere como “droga do esquecimento” – na verdade, um coquetel de ópio.
Com o tempo, o narcótico ganhou usos medicinais. No século 2, o médico grego Galeno o recomendava para curar coisas tão distintas quanto asma, epilepsia, tristeza e pedras nos rins. No século 16, o alquimista suíço Paracelso misturou a droga com álcool, almíscar e âmbar para criar um elixir contra tosse, insônia, dor e diarreia – o láudano –, que era vendido nas farmácias sem receita até o início do século 20. Claro que nem todos os usuários tinham problemas de saúde. Muitos só queriam se divertir. Os chineses, por exemplo, gostavam de fumar ópio. E viraram os maiores consumidores do mundo, inclusive porque foram forçados a isso.
No século 18, a Inglaterra importava cada vez mais seda, chá e porcelana da China, pagando a conta com ouro e prata. Mas, como não tinha um produto de exportação para equilibrar a balança, a sangria só aumentava. A solução foi o ópio. Os ingleses produziam a substância na Índia e vendiam para os chineses. Mas ela fez tanto estrago que acabou proibida pelo imperador. Então os ingleses se aliaram a traficantes, que levavam a droga escondida. Deu muito certo: o consumo chegou a 2.500 toneladas por ano, com 12 milhões de chineses viciados. O problema levou a duas guerras entre China e Inglaterra, ambas vencidas pelos britânicos. A dinastia Qing foi obrigada a abrir os portos e engolir a legalização do ópio. De quebra, perdeu Hong Kong.
Apesar disso, ninguém sabia explicar de onde vinham os poderes da papoula. O alemão Friedrich Sertürner matou a charada: no começo do século 19, ele conseguiu isolar o princípio ativo da planta e o batizou de morphium – alusão a Morfeu, o deus grego dos sonhos. A morfina se encaixa nos chamados “receptores opioides”, que estão presentes em várias regiões do cérebro e normalmente são ativados pelos analgésicos naturais, produzidos pelo próprio organismo, como a endorfina. Ela funciona do mesmo jeito – só que é muito mais forte. Friedrich testou-a em cobaias e em si próprio. Sentiu euforia, náuseas e depressão. Ficou assustado e advertiu: “É meu dever chamar a atenção para os terríveis efeitos dessa nova substância.”
Ninguém deu bola. Na década de 1820, a morfina já era sucesso de vendas na Europa e nos EUA, graças ao baixo custo e à ação potente. “Pela primeira vez, os médicos podiam prescrever doses precisas”, escreve o britânico Martin Booth no livro Opium: A History (sem versão em português). De lá para cá, a indústria farmacêutica foi desenvolvendo analgésicos opioides cada vez mais fortes. Entre eles, a oxicodona, que foi criada por cientistas alemães em 1917 e usada para anestesiar soldados feridos na 1a Guerra Mundial.
Os opioides sempre tiveram seus riscos. Mas a medicina sempre conseguiu utilizá-los com certa segurança para tratar casos de dores graves, como as causadas por câncer, grandes queimaduras ou traumatismos. Nesses casos, eles continuam a ser indicados. “Se a medicina indica, os opioides devem ser usados, sim”, diz o psiquiatra Danilo Baltieri, professor da Faculdade de Medicina do ABC e especialista em dependência química.
Nem todo mundo que toma um opioide vai se viciar. Basta que ele seja prescrito e usado com cautela. Só que, a partir da década de 1980, isso mudou – graças a um tremendo mal-entendido.
A plantação
A papoula (Papaver bracteatum) é cultivada legalmente em lavouras na Austrália, na Espanha e na França. Ela é parente da P. Somneferum, usada para fazer ópio, mas não contém morfina.

A colheita
O agricultor seca e mói as flores, que se transformam num pó. Esse pó é vendido para laboratórios farmacêuticos.
O processamento
O laboratório extrai uma substância, a paramorfina (também conhecida como tebaína), do pó. Ela não é analgésica.
A transformação
A paramorfina é misturada com acetato de sódio, tolueno e peróxido de hidrogênio. Após uma série de reações químicas, ela vira oxicodona: o princípio ativo dos analgésicos opioides.
A montagem
A oxicodona é misturada com exci
Em 1980, o médico Hershel Jick, da Universidade de Boston, teve a ideia de fazer um estudo sobre os analgésicos usados em hospitais. Ele avaliou os registros de 11.882 pacientes que haviam sido tratados com opioides – e constatou que apenas quatro deles haviam se viciado nesses remédios. Uma porcentagem baixíssima: 0,03%. “Nós concluímos que, apesar do amplo uso de narcóticos em hospitais, o desenvolvimento de dependência é raro”, escreveu em seu artigo científico. O trabalho de Hershel passou batido até 1986, quando foi citado na revista médica Pain, da Sociedade Americana de Dor. Daí tudo explodiu. Médicos, cientistas e – claro – laboratórios farmacêuticos começaram a usar os dados de Hershel para dizer que os opioides não eram perigosos e podiam ser receitados numa boa para diversos tipos de dor.
Por essa lógica, todo mundo que tinha algum tipo de dor crônica (não só os pacientes com casos graves) poderia tomar esses remédios. A imprensa logo embarcou na história e publicou uma série de reportagens exaltando a segurança e a eficiência daqueles produtos maravilhosos. Nos anos 1990, uma nova doutrina começou a ganhar força entre os médicos: em vez de apenas reduzir a dor crônica, como até então se fazia, o ideal era acabar com ela. Afinal, se existem analgésicos tão eficientes, e aparentemente tão seguros, por que não?
Só que todo mundo ignorou o óbvio: o estudo do Dr. Hershel era sobre pacientes internados, que recebiam doses rigidamente controladas dos remédios. Uma situação completamente diferente de pegar uma caixinha na farmácia. Ninguém sabia como as pessoas iriam se comportar quando pudessem levar aqueles medicamentos para casa e tomar o quanto quisessem. Começava, ali, a epidemia que iria espalhar viciados pelo mundo – inclusive no Brasil.
Em 2007, a Justiça dos EUA entendeu que o fabricante do OxyContin enganou os médicos, pois subestimou os riscos do remédio, e condenou a empresa a pagar uma multa de US$ 634 milhões. Mas isso não foi o suficiente para frear a escalada dos opioides nos Estados Unidos. Ela alcançou o auge em 2012, quando os médicos americanos assinaram 289 milhões de receitas desses remédios. De lá para cá, com a pressão contra os opioides, o consumo caiu um pouco. Mas se mantém elevadíssimo: no ano passado, foram 245 milhões de receitas, o equivalente a uma caixinha de remédio para cada adulto do país. “Nós estamos na era dos comprimidos, e é difícil dizer não a pacientes desesperados”, diz o americano Ethan Nadelmann, fundador da ONG Drug Policy Alliance. “Também há médicos que não sabem tratar a dor, nem têm tempo para os pacientes. É mais simples receitar um comprimido”, afirma. Essa situação é agravada pelos planos de saúde, que preferem pagar por remédios a sessões de fisioterapia ou RPG (reeducação postural global), que são mais caras, mas poderiam resolver muitos dos casos de dor crônica. E pelos laboratórios também, já que eles têm interesse em lançar e vender novos analgésicos.
Com a queda nas vendas de opioides nos EUA, os fabricantes estão se voltando para outros países – entre eles, o Brasil. Nosso mercado é um filão largamente inexplorado, pois os médicos brasileiros não têm o costume, como os americanos, de receitar indiscriminadamente esse tipo de remédio (segundo a Sociedade Brasileira para Estudos da Dor, que reúne médicos especialistas no tema, o Brasil é um dos países com menor consumo de opioides per capita).
No ano passado, o laboratório Mundipharma, que produz o OxyContin, patrocinou um seminário no Rio de Janeiro. Tema: dores crônicas, e o uso de opioides para tratá-las. Foi um evento restrito a médicos, mas um repórter do jornal Los Angeles Times, que estava investigando a expansão internacional do OxyContin, teve acesso ao conteúdo. Um momento chama a atenção: a Mundipharma teria dito aos médicos presentes que 80 milhões de brasileiros sofrem de dor crônica.
E a semente de papoula?
No Brasil, o cultivo da papoula é proibido pelo Ministério da Saúde. Mas você consegue encontrar, em lojas de culinária, saquinhos de semente de papoula: um ingrediente que pode ser usado em bolos, biscoitos e pães caseiros, e também adicionado a saladas e molhos. Essas sementes não contêm nenhuma substância entorpecente (o ópio é produzido com a flor da papoula, não com as sementes). Elas são importadas, e só podem entrar no Brasil se o comerciante provar que não possuem capacidade germinativa, ou seja, são estéreis (para isso, basta torrar as sementes). Se você tentar plantá-las, não nascerá nenhuma flor.
Se você aplicar a mesma lógica adotada pelos médicos americanos (de que toda dor crônica pode e deve ser tratada com opioides), inevitavelmente chegará a uma conclusão: esse é o mercado potencial, no Brasil, para esse tipo de remédio. 80 milhões de pessoas.
A empresa confirmou o número – mas se esquivou da interpretação. “Segundo uma pesquisa encomendada pela Mundipharma, 15% a 40% dos brasileiros sentem algum tipo de dor crônica, de vários tipos”, afirma Nestor Sequeiros, presidente da empresa. Isso significa, então, que seria correto dar OxyContin em todos esses casos? “Somente o médico pode avaliar a necessidade de cada paciente”, diz.
Também perguntamos à empresa se receitar o remédio para milhões de brasileiros não poderia acabar detonando uma epidemia de viciados, como nos EUA. “Embora a situação fora dos EUA seja muito diferente, com pouco abuso de medicamentos, nós apoiamos os esforços para minimizar esse risco no Brasil”, diz Sequeiros.
A Mundipharma (que pertence à família americana Sackler, dona de uma fortuna de US$ 13 bilhões) reconhece que o abuso de opioides pode causar dependência e morte, e diz que investe em treinamento para médicos e no desenvolvimento de tecnologias de segurança. O próprio OxyContin já tem um mecanismo do tipo: ele libera a oxicodona aos poucos, o que em tese diminuiria o risco de overdose. Na prática, não foi o suficiente para evitar problemas.
Diferentemente de outros medicamentos com ação psicoativa, como ritalina ou Rivotril, o OxyContin não é tarja preta. Ele é vendido com tarja vermelha, a mesma usada para remédios bem mais corriqueiros. A Anvisa diz que isso não compromete a segurança da população, pois o OxyContin só é vendido mediante apresentação de receita de controle especial em duas vias, uma das quais fica retida na farmácia. Mas, diferentemente do que acontece com os medicamentos tarja preta, cuja receita é impressa num papel amarelo especial, a receita da oxicodona é um papel sulfite branco preenchido com os dados do médico
Enquanto o Brasil entra na mira do OxyContin, os laboratórios farmacêuticos preparam os sucessores dele. Em 2014, chegou ao mercado americano o mais polêmico: o Zohydro, dez vezes mais potente que os outros. É tão forte, mas tão forte, que apenas dois comprimidos já podem levar à morte (para crianças, basta um). A Food & Drug Administration (FDA), que regula os medicamentos nos EUA, não queria deixar o produto chegar ao mercado – seus conselheiros votaram, por 11 a 2, contra o lançamento dele. Sob pressão, a agência acabou liberando o remédio alguns meses depois. Ele é produzido pelo laboratório americano Alkermes – que também vende o remédio Vivitrol, para tratar viciados em opioides. (A SUPER procurou o Alkermes ao longo de uma semana, mas não obteve resposta.)
Neste ano, pela primeira vez a FDA tirou do mercado um opioide, o Opana ER. Ele tinha um mecanismo de segurança: liberava seu princípio ativo lentamente, ao longo de 12 horas. Por isso, não dava “barato”. Pelo menos em tese. Os usuários descobriram que bastava amassar o comprimido e inalar o pó para ter a mesma lufada de prazer. Então seu fabricante, o laboratório Endo Pharmaceuticals, reformulou a droga: revestiu a pílula para impedir que fosse esmagada. Mas os viciados logo aprenderam como tirar a proteção e injetar o pó do remédio na veia. Muitos compartilhavam as agulhas – o que causou um surto de HIV nos Estados Unidos.
Enquanto a epidemia rola solta por lá, o alarme começa a soar no Brasil. “Um sinal de que o uso de opioides é um problema aqui são as chamadas ‘populações escondidas’, que não participam das grandes pesquisas”, diz Danilo Baltieri, da Faculdade de Medicina do ABC. É o caso de anestesistas, enfermeiros e cirurgiões, que têm acesso a medicamentos potentes. “O uso de opioides está aumentando nesses grupos”, afirma. “Também cresce o uso entre pessoas que já têm dependência de alguma droga e querem experimentar novas”, diz Arthur Guerra, da USP.
O vício em opioides é tratado com metadona: um opioide sintético mais leve, que alivia os sintomas de abstinência provocados pela falta do medicamento. O problema é que a pessoa adquire um novo vício, em metadona – que é menos agressiva, mas também pode ser um problema.
Fentanil: o opioide sintético não contém papoula – e é ainda mais potente. Ele é 100 vezes mais forte do que a morfina. Vem numa espécie de pirulito, que o paciente põe na boca e libera o remédio lentamente. Mas também existe a versão comprimido, de ação rápida. Ela pode ser perigosa – e não é vendida no Brasil.
Os opioides são tão viciantes que, nos Estados Unidos, o cerco a eles fez com que muitos usuários migrassem para drogas ilegais, como a heroína (nome popular da diamorfina, um opioide derivado da papoula). Tanto que o número de mortes por heroína quase quadriplicou por lá desde 2010. “Hoje, 80% dos novos usuários de heroína começaram nos analgésicos opioides, prescritos por um médico”, diz Nora Volkow, diretora do Instituto Nacional Contra o Abuso de Drogas (NIDA), dos EUA.
E o mercado ilegal tem se mexido para atender à multidão de viciados. Um dos novos produtos é uma mistura de heroína com fentanil – um opioide sintético, que não leva papoula na composição, mas é cem vezes mais potente que a morfina. Bastam 2 miligramas desse coquetel para matar. Foi o que aconteceu em junho com o menino Alton Banks, de 10 anos. Ele não resistiu após ter contato (não se sabe como) com uma mistura de fentanil com heroína. Em maio, o policial Chris Green quase morreu após vistoriar um carro de traficantes. Ele passou a mão na camisa para limpar um pó branco – que era fentanil com heroína. Acabou inalando uma quantidade ínfima do produto suspenso no ar, e só sobreviveu após tomar quatro injeções de naloxona, um antídoto. Nos EUA, as mortes por por esse remédio (tanto o oficial quanto o ilegal, misturado com heroína) dobraram no ano passado.
Mas nada se compara ao carfentanil, que é 10 mil vezes mais potente do que a morfina e já matou algumas centenas de pessoas nos EUA e no Canadá este ano. Seus criadores estavam fazendo experiências com a estrutura molecular do fentanil, nos anos 1970, mas acabaram criando algo forte demais. Tanto que o carfentanil nunca foi liberado para uso em seres humanos. Só pode ser vendido para uso veterinário – em elefantes. Ele é tão potente que os EUA temem que seja usado como arma química.

13.765 – Mega Techs – História da Robótica


robotica
Documentos datados de 1495 revelam um cavaleiro mecânico que era, aparentemente, capaz de sentar-se, mexer seus braços, mover sua cabeça, bem como seu maxilar. Leonardo Da Vinci teria desenhado o primeiro robô humanóide da história. Uma onda de histórias sobre autômatos humanóides culminou com a obra Electric Man (Homem Elétrico), de Luis Senarens, em 1885. Desde então, muitos robôs surgiram, mas a maioria servia apenas como inspiração, pois eram meras obras de ficção e ainda muito pouco podia ser construído.
O Tortoise, um dos primeiros robôs móveis, foi construído em 1950 por W. Grey Walter e era capaz de seguir uma fonte de luz, desviando-se de obstáculos. Em 1956, George Devil e Joseph Engelberger abriram a primeira fábrica de robôs do mundo, a Unimation, fabricante da linha de braços manipuladores Puma (SHIROMA, 2004).

Em 1952, a Bell Laboratories alavancou o desenvolvimento da eletrônica com a invenção do transistor, que passou a ser um componente básico na construção de computadores e quebrou inúmeras restrições quanto ao desenvolvimento da Robótica. De 1958 a 1959, Robert Noyce, Jean Hoerni, Jack Kilby e Kurt Lehovec participaram do desenvolvimento do primeiro CI – sigla para Circuito Integrado – que, posteriormente, ficou conhecido como chip e incorpora, em uma única pastilha de dimensões reduzidas, várias dezenas de transistores já interligados, formando circuitos eletrônicos mais complexos (WIDESOFT, 2006).

Enquanto essas tecnologias iam entrando em cena, a Inteligência Artificial se desenvolvia com bastante velocidade também. Sua mais popular e inicial definição foi introduzida por John McCarty na famosa conferência de Dartmouth, em 1955: “Fazer a máquina comportar-se de tal forma que seja chamada inteligente, caso fosse este o comportamento de um ser humano” (INTELIGÊNCIA, 2006).

Segundo Arkin (ARKIN, 1998), para se realizar pesquisas em Robótica, robôs devem ser construídos, pois, ao trabalhar apenas com projetos de pesquisa baseados em simulações, perdem-se muitos detalhes. A construção de robôs é muito complexa e, nas décadas de 1960 e 1970, havia muitas restrições. Por causa disso, alguns robôs que surgiram nessa época são pontos notáveis da evolução cibernética. Como exemplos de projetos que superaram essas dificuldades, cita-se: Sharkey, Hillare e Stanford Cart.

Sharkey foi um robô construído no Instituto de Pesquisa de Stanford, no final dos anos 60 (NILSSON, 1969). Ele era capaz de sentir e modelar o ambiente ao seu redor, bem como planejar trajetórias e executar ações programadas no computador. Já Hillare, do Laboratório de Automação e Análise de Sistemas (LAAS) de Toulouse, França, foi construído em 1977. O robô pesava 400kg e era equipado com três rodas, um sistema de visão computacional, sensores ultra-sônicos e detectores de distância a laser. Podia movimentar-se para qualquer lado, transitando autonomamente por corredores (GIRALT et al., 1984). E, por fim, Stanford Cart, uma plataforma robótica usada por Moravec para testar a navegação usando um sistema de visão estéreo (MORAVEC, 1977).

O avanço da microeletrônica veio popularizar os sistemas computacionais e, na década de 70, começaram a surgir os sistemas de processamento central em um único chip como o 4004 e o 8080. A tecnologia MOS, em 1975, introduziu mais velocidade de processamento. Após a chegada do Z80, que surgiu em 1976, integrando 8000 transistores em uma única pastilha (MICROSISTEMAS, 2006), surgiu o conceito de microcontrolador. Os microcontroladores possuem, embutidos em um único chip, não só um sistema central de processamento, mas diversos periféricos como: memória, conversores analógico-digital, barramentos de comunicação, etc.
A partir da década de 80, a Robótica vem avançando em grande velocidade e, dentre inúmeros projetos, o ASIMO, iniciado em 1986 pela Honda Motor Company, recebe destaque (ARIK, 2006) (HONDA, 2006). Ao contrário do que possa parecer, seu nome não foi criado em homenagem ao escritor de ficção científica Isaac Asimov, mas é derivado de “Advanced Step in Innovative Mobility”. Assim como o ASIMO, o Qrio (SONY, 2006), da Sony, e o Robonaut, robô criado pela Nasa para auxiliar os astronautas da Estação Espacial Internacional na execução de atividades extraveículares, também são bastante relevantes. Os três são citados como robôs humanóides concebidos para interagir com seres humanos.

Com o projeto de exploração de Marte (NASA, 2003), a NASA construiu dois robôs geólogos, o Opportunity e o Spirit, que pousaram em Marte em 8 e 25 de julho de 2004, respectivamente. Eles foram desenvolvidos com o objetivo de enviarem imagens, analisarem rochas e crateras e procurarem sinais de existência de água no planeta vermelho. Mais tarde, o Laboratório de Inteligência Artificial do Instituto de Tecnologia de Massachusetts desenvolveu o Cog (MIT, 2006), um robô que interage com seres humanos e aprende como uma criança.
No intuito de desenvolver a Inteligência Artificial e a Robótica, surgem competições robóticas que fornecem desafios e problemas a serem resolvidos da melhor maneira a partir da combinação de várias tecnologias e metodologias. Dentre elas, a RoboCup (ROBOCUP, 2006), que teve sua primeira versão mundial em 1997, se destaca pela popularidade.

Robotica2006

13.764 – Tecnologia – A Revolução dos Microscópios


Mikroskop
Um instrumento óptico com capacidade de ampliar imagens de objetos muito pequenos graças ao seu poder de resolução. Este pode ser composto ou simples: microscópio composto tem duas ou mais lentes associadas; microscópio simples é constituído por apenas uma lente células. Acredita-se que o microscópio tenha sido inventado no final do século XVI por Hans Janssen e seu filho Zacharias, dois holandeses fabricantes de óculos.
udo indica, porém, que o primeiro a fazer observações microscópicas de materiais biológicos foi o neerlandês Antonie van Leeuwenhoek (1632 – 1723). Serve-se especialmente para os cientistas, que utilizam este instrumento para estudar e compreender os micro-organismos.
Os microscópios de Leeuwenhoek eram dotados de uma única lente, pequena e quase esférica. Nesses aparelhos ele observou detalhadamente diversos tipos de material biológico, como embriões de plantas, os glóbulos vermelhos do sangue e os espermatozoides presentes no sêmen dos animais. Foi também Leeuwenhoek quem descobriu a existência dos micróbios, como eram antigamente chamados os seres microscópicos, hoje conhecidos como micro-organismos.
Os microscópios dividem-se basicamente em duas categorias:
Microscópio ótico: funciona com um conjunto de lentes (ocular e objetiva) que ampliam a imagem transpassada por um feixe de luz que pode ser:
Microscópio de campo claro
Microscópio de fundo escuro
Microscópio de contraste de fase
Microscópio de interferência.
Microscópio eletrônico: amplia a imagem por meio de feixes de elétrons, estes dividem-se em duas categorias: Microscópio de Varredura e de Transmissão.
Há ainda os microscópios de varredura de ponta que trabalham com uma larga variedades de efeitos físicos (mecânicos, ópticos, magnéticos, elétricos).
Um tipo especial de microscópio eletrônico de varredura é por tunelamento, capaz de oferecer aumentos de até cem milhões de vezes, possibilitando até mesmo a observação da superfície de algumas macromoléculas, como é o caso do DNA.
A citologia é dependente de equipamentos que permitem toda a visualização das células humanas, pois a maioria delas são tão pequenas que não podem ser observadas sem o auxílio de instrumentos óticos de ampliação. O olho humano tem um limite de resolução de 0,2 mm. Abaixo desse valor, não é possível enxergar os objetos sem o auxilio de instrumentos, como lupas e, principalmente, o microscópio.
O crédito da invenção do microscópio é discutível, mas sabe-se que em 1590 os irmãos neerlandeses Franz, Johan e Zacarias Janssen compuseram um artefato rudimentar munido de um sistema de lentes, que permitia a ampliação e a observação de pequenas estruturas e objetos com razoável nitidez. O aparelho foi denominado de microscópio e constituiu a principal janela da ciência para o mundo além da capacidade de resolução do olho humano.
Em 1665, o inglês Robert Hooke usou um microscópio para observar uma grande variedade de pequenos objetos, além de animais e plantas que ele mesmo representava em fiéis ilustrações. Hooke percebeu além que a casca do carvalho era formada por uma grande quantidade de alvéolos vazios, semelhantes à estrutura dos favos de uma colmeia. Naquela época, Hooke não tinha noção de que estava observando apenas contornos de células vegetais mortas. Publicou as suas descrições e ilustrações em uma obra denominada Micrographia, em que usa a designação “little boxes or cells” (pequenas caixas ou celas) para denominar os alvéolos observados, dando origem assim ao termo célula. O termo acabou tornando-se definitivo.

13.763 – Curiosidades – Por que se usa a Maquete?


maquete de estaçao
Trata-se de uma representação (completa ou parcial) em escala reduzida de um objeto, sistema ou estrutura de engenharia ou arquitetura, ou ainda, o esboço.
Uma maquete, pode ser estática, se visa analisar o aspecto físico do que está sendo modelado, ou dinâmica, se visa analisar o comportamento funcional do que está sendo modelado.
As maquetes estão presentes na história da humanidade desde a antiguidade, geralmente ligadas instalações militares defensivas, como os castelos medievais e a muralha da China. As maquetes tem sido um método importante de limitação dos gastos e dos recursos antes que um projeto fosse aprovado para construção em larga escala. Os maquetistas têm tido, portanto, um impacto considerável na história cuja dimensão nós conhecemos apenas vagamente
O filme King Kong de 1933, demonstra o uso do modelismo quanto à estrutura esquelética do modelo que representou o gorila, como também as inúmeras maquetes representando a selva habitada pelo personagem principal, evitando custo de transporte e perigos inerentes se um ambiente real fosse utilizado.
Essa técnica só tem evoluído ao longo do tempo, e hoje em dia, os personagens mais populares fazem viagens espaciais a “planetas distantes” em “naves” espaciais sofisticadas, tudo baseado em modelismo e maquetes.
Sendo as maquetes fundamentalmente “representações realistas”, uma de suas principais características é a similitude, que permite a sua aproximação com o comportamento do objeto real nos quesitos: geométrico, cinemático e dinâmico.
Por exemplo, na dinâmica dos fluidos, o coeficiente de Reynolds, assim como todas as demais dimensões importantes, precisam ser iguais entre o modelo a ser testado e o protótipo a ser fabricado para que o teste seja considerado válido.
As maquetes, podem também ser representações virtuais, como nos desenhos assistidos por computador (vulgo CAD, Computer Assisted Design), quando, então, recebem a denominação específica de maquete eletrônica.
As maquetes são, geralmente, utilizadas em projetos de planejamento urbano mostrando o visual de novas construções no contexto da área existente.
As maquetes podem ser feitas com uma grande diversidade de materiais, incluindo plásticos, metais, madeira e um material próprio chamado cartão de maquete. Em diversos lugares, há museus com exposições de maquetes.

13.762 – História – Instituições da República Romana


Roma centro histórico
Centro histórico de Roma

A cidade de Roma, fundada pelos povos latinos na região do Lácio, na Península Itálica, durante quase todo o século VII a.C., esteve subjugada à monarquia estrusca. Os etruscos, povos que também se estabeleceram na região da atual Itália, começaram a exercer o seu poder sobre a região do Lácio por volta de 616 a.C. com Tarquínio Prisco. Entretanto, no ano de 509 a.C., os patrícios – cidadãos romanos herdeiros dos antigos clãs fundadores da cidade – instituíram a República por meio de um Golpe de Estado. A República, que significa “coisa pública”, passou a funcionar com base em uma sofisticada rede de instituições.
As instituições da República Romana eram essencialmente comandadas pelos patrícios. Durante boa parte do período em que durou a república, à plebe era relegado o espaço do tribunato, a Tribuna da Plebe, composta por membros eleitos anualmente e que tinha o poder de vetar as decisões relativas aos interesses dos plebeus. À parte disso, as demais instituições eram ocupadas pelos patrícios e possuíam um funcionamento interconectado e teoricamente harmônico.
Nesse contexto, havia os senadores, os magistrados e os comícios. Os comícios encarregavam-se da eleição dos magistrados e da votação das leis. Os magistrados, por sua vez, tinham por funções: a convocação dos comícios, a presidência do Senado e a elaboração de propostas de novas leis. Por fim, ao Senado era atribuída a função de propor conselhos aos magistrados e aprovar as decisões tomadas no âmbito dos comícios.
A principal e mais poderosa instituição da República Romana era o Senado. A expressão senado, que até hoje perdura no interior das instituições democráticas contemporâneas, vem do latim senex,, que significa “senhor”, “velho”. Os membros que compunham o senado eram os homens mais velhos das famílias tradicionais de Roma. Ao todo, somavam-se 300 senadores. No senado estava concentrada grande parte do poder da Antiga República Romana.
No âmbito dos comícios, havia a Assembleia Centuriata, que era constituídas por dezenove centúrias, compostas por patrícios que se encarregavam de eleger cargos da magistratura, como os censores, que eram eleitos a cada cinco anos e cuidavam do censo populacional e da arrecadação de impostos; os pretores, responsáveis pelo âmbito da justiça; e, por fim, pela constituição da Assembleia Curiata, que se encarregava de eleger anualmente os dois cônsules, responsáveis pela administração da vida pública e pelo comando do exército. Cabia à Assembleia Curiata a eventual eleição de um ditador, em tempos de crise, que teria um mandato de seis meses e poderes absolutos.
No mais, como afirma o pesquisador Paulo Roberto Souza da Silva, as instituições “políticas da república romana: o Senado, os colégios de magistrados e os comícios, garantiram, por séculos, a legalidade, força e eficiência do Estado, na guerra e na paz. As mudanças sociais e econômicas causadas pelo sucesso nas Guerras Púnicas tornaram Roma um império, mas com uma constituição de simples Cidade-Estado.”

13.761 – História – As torturas da Inquisição


Tortura Inquisicao - H DO MUNDO
Entre as idades Média e Moderna, a Igreja estipulou a clara perseguição contra aqueles que representavam uma ameaça à hegemonia do cristianismo católico. Para cumprir tal missão, estipulou a criação do Tribunal da Santa Inquisição, que determinava membros da Igreja para investigarem os possíveis suspeitos do crime de heresia. Geralmente, a autoridade dos inquisidores era apoiada pelas tropas do governo e a realização de processos que determinavam a culpa do acusado.
Muitas vezes, mesmo sem um conjunto de provas bem acabado, uma pessoa poderia ser acusada de transgredir o catolicismo e, com isso, obrigada a se apresentar a um tribunal. Geralmente, quando a confissão não era prontamente declarada, os condutores do processo estipulavam a prisão do acusado. Nesse momento, o possível herege era submetido a terríveis torturas que pretendiam facilitar a confissão de todos os crimes dos quais era acusado.
Para muitos daqueles que observam a prática das torturas ao longo da inquisição, parece bastante óbvio concluir que tal prática simplesmente manifestava o desmando e a crueldade dos clérigos envolvidos com esta instituição. Contudo, respeitando os limites impostos pelo tempo em que viveram os inquisidores, devemos ver que essas torturas também refletiam concepções teológicas que eram tomadas como verdade para aqueles que as empregavam.
O “potro” era uma das torturas mais conhecidas pelos porões da Santa Inquisição. Neste método, o réu era deitado em uma cama feita com ripas e tinha seus membros amarrados com cordas. Usando uma haste de metal ou madeira, a corda amarrada era enrolada até ferir o acusado. Por conta dos vergões e cicatrizes deixadas por esse tipo de tortura, os inquisidores realizavam-na algumas semanas antes da conclusão final do processo.
O mais temido instrumento de tortura era a roda. Nesse método, a vítima tinha seu corpo preso à parte externa de uma roda posicionada em baixo de um braseiro. O torturado ia sofrendo com o calor e as queimaduras que se formavam na medida em que a roda era deslocada na direção do fogo. Em algumas versões, o fogo era substituído por ferros pontiagudos que laceravam o acusado. Os inquisidores alemães e ingleses foram os que mais empregaram tal método de confissão.
No pêndulo, o acusado tinha as canelas e pulsos amarrados a cordas integradas a um sistema de roldanas. Depois disso, seu corpo era suspenso até certa altura, solto e bruscamente segurado. O impacto causado por esse movimento poderia destroncar a vítima e, em alguns casos, deixá-la aleijada. Em uma modalidade semelhante, chamada de polé, o inquirido era igualmente amarrado e tinha as extremidades de seu corpo violentamente esticadas.
Em uma última modalidade da série, podemos destacar a utilização da chamada “tortura d’água”. Neste aparelho de tortura, o acusado era amarrado de barriga para cima em uma mesa estreita ou cavalete. Sem poder esboçar a mínima reação, os inquisidores introduziam um funil na boca do torturado e despejavam vários litros de água goela abaixo. Algumas vezes, um pano encharcado era introduzido na garganta, causado a falta de ar.
De fato, os terrores presentes nesses métodos de confissão eram abomináveis e deixam muitas pessoas horrorizadas. Contudo, os valores e a cultura dessa época permitiam a observância da tortura como um meio de salvação daqueles que se desviavam dos dogmas. Não por acaso, muitas sessões eram acompanhadas por médicos que se certificavam de que a pessoa não faleceria com as penas empregadas.

13.760 – Biogeografia


regioes-biogeograficas
É a ciência dedicada ao estudo da distribuição geográfica dos seres vivos no espaço através do tempo buscando entender os padrões de organização espacial e os processos que levaram a tais disposições biológicas. Esta ciência tem um aspecto multifacetado, englobando conhecimentos de diversas outras ciências como biologia, climatologia, geografia, geologia, ecologia e ciência da evolução.
O tema central de estudos da biogeografia gira em torno do estudo da evolução das espécies e o modo como as diversas condições ambientais possíveis influem no desenvolvimento da vida. Combinar as diferentes variáveis responsáveis pela ocorrência de vida e traçar uma “receita” para a existência da mesma em um determinado ambiente são os objetivos principais dos estudiosos dedicados à biogeografia.
As origens desta ciência encontram-se nos estudos de Alfred Russel Wallace no arquipélago malaio. Ele descreveu inúmeras espécies desse arquipélago e notou que a norte, em determinada área, as espécies eram relacionadas com espécies do continente asiático enquanto que, nas ilhas mais ao sul, as espécies tinham ligação com as espécies do continente australiano. Esta conclusão levou a uma posterior delimitação e mapeamento das áreas estudadas por Wallace, sendo que tais áreas receberam mais tarde a denominação de “Linha de Wallace”.
Seguindo o espírito deste estudo inicial, as diversas regiões do planeta foram sendo gradualmente mapeadas, pesquisadas e catalogadas. As principais divisões receberam o nome de “divisões biogeográficas”, a saber:
Região Paleártica: Compreende todo o continente europeu, norte da África até o deserto do Saara, o norte da Península Arábica e toda Ásia ao norte do Himalaia, incluindo China e Japão.
Região Neoártica: Toda a América do Norte, indo até a fronteira sul do México.
Região Neotropical: Estende-se do centro do México até o extremo sul da América do Sul.
Região afro-tropical ou etiópica: compreende a África sub-saariana e os dois terços mais ao sul da península arábica.
Região indo-malaia: composta pelo subcontinente indiano, sul da China, Indochina, Filipinas e a metade Ocidental da Indonésia.
Região australiana: o restante mais a leste da Indonésia, ilha de Nova Guiné, Austrália e Nova Zelândia.
Região oceânica: as demais ilhas do oceano Pacífico.
Região antártica: correspondente ao continente e ao oceano com o mesmo nome.
Chamamos de região holártica (ou holártico) o conjunto resultante das regiões paleártica e neoártica.
A classificação acima aplica-se a seres viventes em terra firme ou seca. Em relação aos oceanos temos as “regiões biogeográficas marinhas”, que são definidas por meio das correntes oceânicas ou ainda pelas zonas climáticas, limites mais ou menos exatos para os seres vivos marinhos. Modernamente temos a definição de ecossistema marinho como a unidade de estudo dessas grandes regiões biogeográficas.

13.759 – Telepatia Existe?


telepatia

Quantas vezes você pensou em alguém e, no momento seguinte, atendeu um telefonema dessa pessoa? Ou recebeu a visita de um familiar querido e distante, depois de desejar notícias dele? Com a mineira Iraci de Jesus, fenômenos desse tipo não são novidade. Há algum tempo, ela atendeu a porta e deu de cara com o irmão que, numa passagem relâmpago por São Paulo, resolveu deixar-lhe um cheque. Algumas horas antes, preocupada em fazer um pagamento, Iraci tinha pensado nele como única alternativa para conseguir o dinheiro. Desejara demais dizer isso a ele, mas não se sentira à vontade para fazer o pedido. A terapeuta corporal Sandra Fainbaum também tem uma coleção de casos semelhantes. Um deles: anos atrás, não resistiu à sensação de estar sendo chamada pelo marido. Preocupada, saiu de casa e começou a andar pela calçada, atenta aos carros que passavam. Já estava na terceira quadra quando avistou o carro dele, parando no meio da rua. Sandra percebeu que o marido desmaiara sobre o volante e conseguiu socorrê-lo rapidamente.
Relatos desse tipo são impressionantes, mas não provam nada. Não há como descartar a possibilidade de que tudo não passe de coincidência. Afinal, para cada história arrepiante como essas, quantas não devem haver de pessoas que tiveram um pressentimento e aquilo não deu em nada? O único jeito de comprovar a existência da telepatia seria ter resultados estatisticamente significantes de que esses fenômenos acontecem com mais freqüência do que seria normal um fato qualquer acontecer. E esses resultados ainda não existem – pelo menos não com a clareza suficiente para afastar dúvidas.
Telepatia é o termo usado para se referir à aquisição de informações por outros meios que não os sentidos físicos conhecidos. A resistência em procurar entender tais acontecimentos ou acreditar neles é grande, mas fácil de ser compreendida. “Entrar em contato com os pensamentos, sentimentos e idéias de outras pessoas de maneira aparentemente direta, mente–mente, sem necessidade que tais informações passem pelos sentidos, é considerado algo fora do normal, por se tratar de um tipo de interação diferente da forma prevista pela ciência”, diz Wellington Zangari, coordenador do Inter Psi (Grupo de Estudos de Semiótica, Interconectividade e Consciência), da PUC de São Paulo.
E, como tudo o que é fora do normal caminha lado a lado com o ceticismo, parece não ter mesmo jeito: “Se você acredita, poderá ser associado ao charlatanismo, misticismo, ou ser visto como alguém facilmente influenciável. Se não, será suspeito de cientificismo ateu, de não possuir nenhuma abertura, nenhuma curiosidade científica”, diz Jean Claude Obry, pesquisador e filósofo francês que mora no Brasil há cerca de 20 anos. Ele é presidente da beOne Internacional Associação (BIA), que promove a qualidade de vida por meio da experimentação das sensações (os cinco sentidos). Segundo Obry, se os assuntos considerados fora da normalidade pudessem se encaixar na realidade cotidiana, eles não pareceriam tão assustadores. “Para permitir que o fora do normal se transfira para dentro dessa realidade, é preciso aceitar e mudar conceitos, regras e crenças que gerenciam o dia-a-dia. Se não fizermos essa mudança, nada será feito além de um debate agradável, mas estéril”, diz Obry.
Pode-se entender por telepatia várias formas de comunicação, da linguagem não-verbal, não-simbólica, não-escrita e não-fonética dos animais à realizada com o telefone celular. Ou alguém duvida que essa comunicação a distância, sem fio, não seria considerada algo fora do normal pelos nossos ancestrais? “Os jovens de hoje não estranham a tecnologia com a qual convivem desde pequenos, mas continuam fascinados pelos mistérios de histórias fora do normal de um Harry Potter, porque, para ele telefonar para alguém com segurança, nem precisa de um celular, basta a sua operadora celeste”, lembra Obry.
Ondas mentais
De acordo com Zangari, do Inter Psi, apesar de não haver consenso sobre a melhor teoria para explicar a telepatia, a parapsicologia vem apresentado interpretações interessantes. “Nas primeiras décadas de estudo, procurou-se compreender a telepatia como um fenômeno eletromagnético, que funcionaria da mesma forma que os aparelhos de rádio e televisão. Supunha-se que, entre o receptor e o emissor, haveria ‘ondas mentais’, que transportariam informações do conteúdo cerebral entre eles. No entanto, as teorias baseadas nesse modelo caíram por terra porque, aparentemente, a telepatia não é limitada pela distância nem pelas barreiras físicas, como o são as ondas eletromagnéticas conhecidas.” Conforme Zangari, outras teorias vieram à tona mais tarde, visando reconhecer mais o “porquê” do que “como” ocorre o fenômeno.
As pesquisas sobre a possibilidade da existência da telepatia se tornaram sistemáticas a partir da década de 30, com a criação do Instituto de Parapsicologia na Universidde Duke, nos Estados Unidos, dirigido pelo Joseph Banks Rhine. “Rhine e sua equipe realizaram provas experimentais para verificar se, de fato, a telepatia, entre outros fenômenos anômalos, ocorria”, conta Zangari. Com um baralho especialmente criado para essa finalidade – o Baralho ESP (de extrasensory perception) ou Baralho Zener (assim chamado por causa de Carl Zener, especialista em percepção humana que o projetou), constituído de 25 cartas, igualmente divididas em círculos, cruzes, ondas, quadrados e estrelas –, ele avaliou estatisticamente a ocorrência. “Ao longo de quase cinco décadas, Rhine e seus colaboradores obtiveram resultados significativos a favor da hipótese da telepatia”, afirma Zangari.
Depois disso, pesquisadores do mundo inteiro fizeram outros estudos e muitos chegaram a resultados similares, mesmo com técnicas diferentes das usadas no laboratório de parapsicologia da Universidade Duke. Acontece que os céticos descartam essas pesquisas, que eles consideram suspeitas. Um dos modelos atualmente em construção é o desenvolvido pelo psicólogo americano Rex Stanford, o Modelo de Resposta Instrumental Mediada por Psi, conhecido pela sigla em inglês, PMIR. Propõe, em linhas gerais, que o ser humano utiliza não apenas os sentidos conhecidos (tato, visão…) para estabelecer contato com o meio, mas também processos não-sensoriais, ou extra-sensoriais, para reconhecer tanto os perigos quanto as fontes de satisfação de necessidades básicas. “O modelo de Stanford é importante para a ciência, porque permite a avaliação empírica de seus postulados, além de integrar tanto perspectivas da biologia quanto da psicologia”, diz Zangari.
Até agora, a técnica mais sofisticada criada para estudar cientificamente a hipótese da telepatia se chama Ganzfeld (palavra em alemão que significa “campo completo” ou “campo homogêneo”). O experimento utiliza um emissor e um receptor. O primeiro vê uma imagem ou videoclipe, escolhido aleatoriamente por um computador, e tenta “transmiti-lo” mentalmente a um receptor, que está afastado sensorialmente do emissor. O receptor fica numa sala acústica e eletromagneticamente isolada e tem sobre os olhos uma espécie de óculos, sobre os quais uma luz colorida fornece um campo sensorial homogêneo. Seus ouvidos são bombardeados por um sinal sonoro constante, como o de um rádio fora da estação. Procura-se, assim, criar uma situação em que a pessoa possa reconhecer mais facilmente suas imagens mentais, suas sensações, seus sentimentos, uma vez que está praticamente isolada dos estímulos externos e mais atenta aos estímulos internos.
Segundo Zangari, os resultados mais sólidos obtidos pelas pesquisas Ganzfeld se relacionam à existência de correlações entre algumas variáveis. Resumidamente, os resultados são melhores quando: 1) emissor e receptor são pessoas afetivamente próximas, como amigos, pais e filhos ou marido e mulher; 2) o receptor tem personalidade extrovertida; 3) antes de participar do experimento, o receptor teve um histórico de experiências anômalas espontâneas; 4) o receptor já realiza algum tipo de atividade de “treinamento mental”, como meditação ou relaxamento; 5) o receptor acredita em fenômenos como a percepção extra-sensorial; e 6) o campo geomagnético está menos ativo.
Segundo Zangari, há muito o que esclarecer ainda sobre os experimentos Ganzfeld. “Apesar de reconhecermos algumas variáveis que parecem interferir no fenômeno, não conhecemos todas, o que ainda não nos permite controlar o fenômeno de modo a realizá-lo de acordo com nossa vontade”, diz.
Um tanto quanto cética com relação ao seu desempenho num experimento desse tipo, a professora Fátima Regina Cardoso, que dirige com Zangari o Inter Psi, decidiu participar de uma sessão de Ganzfeld durante um curso promovido pelo Centro de Pesquisa Rhine, em Durham, nos Estados Unidos, em 1993. O resultado, diz ela, foi “muito bom e surpreendente”. Fátima ficou na posição de receptora da mensagem, enquanto um colega brasileiro foi o emissor. Durante o período de mentalização, entre outras imagens, ela visualizou um castelo medieval, em especial as masmorras. Teve sensações desagradáveis, como se estivesse vendo pessoas sofrendo. Ao final do experimento, acertou o alvo transmitido pelo colega. O clipe que serviu como alvo mostrava sombras de pessoas vestidas com roupas medievais, um homem com capa e espada e um chicote na mão, ameaçando outros que trabalhavam com martelos e outras ferramentas, com um fundo em cores bem quentes. Apesar de a imagem do alvo ter sido diferente da mentalizada por Fátima, ela não teve dúvida de que aquele seria o alvo, pois a sensação transmitida pelo clipe era muito próxima daquela sentida durante a mentalização.
As pesquisas Ganzfeld foram iniciadas na década de 1970 e, até o momento, segundo alguns, tiveram êxito em demonstrar, pelo menos, a possibilidade de existência da telepatia. No entanto, como não poderia deixar de ser, crentes e céticos divergem a respeito da consistência desses resultados. “Minha opinião é que mais pesquisas são necessárias para acabar com a polêmica em torno da existência da telepatia, mas os resultados acumulados por meio de estudos experimentais são favoráveis à hipótese de existência de um processo anômalo de interação entre os seres humanos”, diz Zangari.

Troca de energia
Para a escritora Halu Gamashi, a comunicação telepática envolve também os órgãos dos sentidos
A escritora baiana Halu Gamashi, que se dedica à filosofia e à ciência dos ancestrais, acredita que existam muitas formas de comunicação telepática, envolvendo inclusive os órgãos dos sentidos. Para ela, a telepatia se constitui entre duas pessoas extra-sensorialmente sensíveis que aprendem a identificar uma informação por meio de um trejeito facial, um movimento dos olhos, um gesto. “Eu sei o que você está pensando”, dizem-se mutuamente. No entanto, por ser um acontecimento comum, as pessoas nem se dão conta de que houve uma comunicação telepática.
Certa vez, ao dar uma palestra em São Paulo, Halu notou um dos convidados, um suíço que não falava português e estava com uma pessoa que não falava alemão. Ao final da palestra, Halu propôs um momento para perguntas e respostas, e esse suíço e sua acompanhante não encontravam no dicionário a tradução para formular a pergunta. “A angústia dele em me perguntar mobilizou a minha sensibilidade. Senti uma espécie de dilatação na minha mente e vi-me dizendo para a moça: peça a ele que olhe para os meus olhos e faça a pergunta mentalmente, eu vou responder da mesma forma. Vi-me tocando as suas mãos. Nos olhamos profundamente e conversamos por meio da mão e da mente, por aproximadamente cinco minutos”, conta Halu. “No dia seguinte, voltamos a nos encontrar e, dessa vez, ele estava com uma pessoa que falava português e alemão. Rimos muito. Para ele, foi uma experiência nova. Nos emocionamos bastante.”

13.758 – Cinema – Querido Frankie


qr frnk
Este emocionante filme tenta demonstrar a grande importância da presença de um pai
Frankie (Jack McElhone) é um garoto de 9 anos que vive com sua mãe, Lizzie (Emily Mortimer), com quem segue de um lado para outro. Tentando proteger Frankie da verdade, Lizzie escreve cartas para ele em nome de um pai fictício, que trabalha a bordo de um navio que passa por terras exóticas. Porém o que Lizzie não contava era que logo o navio em que o “pai” trabalha estará aportando no lugar em que estão, o que faz com que ela tenha que escolher entre contar a verdade para o filho ou encontrar um homem desconhecido que se faça passar pelo pai de Frankie durante algum tempo.
Exibido na mostra Panorama do Cinema Mundial, no Festival do Rio 2004.