14.057 – Como Funciona o Trem Bala?


trem bala ima
Eles conseguem fazer isso graças a poderosos eletroímãs – peças que geram um campo magnético a partir de uma corrente elétrica – instalados tanto no veículo quanto nos trilhos. Os maglevs (abreviação de “levitação magnética”), como são chamados, nada têm a ver com os famosos trens-bala que circulam no Japão e na Europa com motores elétricos e rodas comuns e atingem até 300 km/h. Já os maglevs, que ainda não entraram em operação em nenhum lugar do mundo, poderão superar os 500 km/h, pois não sofrerão nenhum atrito com o solo. As vantagens não param por aí. Eles consumirão menos energia, serão mais silenciosos e não precisarão de tanta manutenção. A expectativa é de que esses trens flutuantes possam competir até com vôos regionais, revolucionando o transporte entre cidades.
Um maglev venceria a distância entre Rio e São Paulo em 50 minutos, praticamente o mesmo tempo da ponte aérea, mas a um custo bem inferior. Por que, então, eles ainda não estão em funcionamento? O problema é o enorme investimento necessário para instalar linhas totalmente novas – enquanto os trens-bala comuns podem aproveitar as ferrovias já existentes.
Transporte revolucionário O trem alemão Transrapid levita a 10 milímetros de altura
CABINE DE COMANDO
Apesar de ter, na frente, uma cabine de comando tripulada, como os trens tradicionais, o maglev não possui uma locomotiva propriamente dita, já que o “motor” não fica no trem e sim nos trilhos inteiros. Cada vagão tem seus próprios ímãs e é capaz de levitar sozinho

TRILHOS MAGNÉTICOS
O verdadeiro motor do maglev está na linha que ele irá percorrer. Uma bobina de cabos ao longo dos trilhos produz um campo magnético variável que impulsiona o trem a velocidades de até 500 km/h. Para economizar energia, apenas a parte da linha sobre a qual o trem está passando permanece ligada

CHASSI INFERIOR
Essa estrutura embaixo dos vagões carrega os ímãs responsáveis pela levitação e pela direção do veículo. Apesar de envolver as guias da linha (para evitar descarrilamento), o chassi não toca nelas e fica suspenso no ar, a 10 milímetros de distância

ÍMÃS DE DIREÇÃO
Quatro eletroímãs, dois de cada lado do trem, são atraídos para a guia. O resultado é um equilíbrio de forças (seta amarela) que impede o trem de tocar nos trilhos. Nas curvas, a potência dos ímãs é automaticamente ajustada por computadores para que o trem vire suavemente, sem solavancos

ÍMÃS DE LEVITAÇÃO
Ficam embaixo dos trilhos e apontados para cima, sustentando o trem no ar com sua força magnética (seta verde). São eles que impulsionam o trem para a frente, reagindo às variações na corrente elétrica que passa pela linha

BOBINA DE CABOS
A bobina é formada por três cabos elétricos trançados que percorrem todo o trilho. A diferença de corrente elétrica entre eles gera o campo magnético que faz o trem avançar (seta vermelha). Para freá-lo, basta inverter a direção desse campo

maglev-track

 

tecnicaslev

Maglev_imas sistemas

14.056 – A Antigravidade


detector alfa
Um dos fatos mais surpreendentes sobre a ciência é como são aplicáveis universalmente as leis da natureza. Cada partícula obedece as mesmas regras, experimenta as mesmas forças e vê as mesmas constantes fundamentais, não importando onde ou quando elas existam. Gravitacionalmente, todas as entidades do universo experimentam, dependendo de como você as vê, ou a mesma aceleração gravitacional ou a mesma curvatura do espaço-tempo, não importando as propriedades que possui.
Pelo menos, é como as coisas são na teoria. Para o astrofísico Ethan Siegel, fundador e escritor de Starts With A Bang, na prática, algumas coisas são notoriamente difíceis de medir. Fótons e partículas normais e estáveis caem como esperado em um campo gravitacional, com a Terra fazendo com que qualquer partícula massiva acelere em direção ao seu centro a 9,8 m / s 2 . Apesar de nossos melhores esforços, nunca medimos a aceleração gravitacional da antimatéria. Deveria acelerar exatamente da mesma maneira, mas até medirmos isso, não podemos saber.
Um experimento está tentando decidir o assunto, de uma vez por todas. Dependendo do que encontrar, pode ser a chave para uma revolução científica e tecnológica. Se quisermos saber como a antimatéria se comporta gravitacionalmente, não podemos simplesmente sair do que teoricamente esperamos ; temos que medir isso. Felizmente, há um experimento em execução agora que foi projetado para fazer exatamente isso: o experimento ALPHA no CERN .
A colaboração ALPHA foi a mais próxima de qualquer experimento a medir o comportamento da antimatéria neutra em um campo gravitacional. Com o próximo detector ALPHA-g, poderemos finalmente saber a resposta. Crédito: Maximiniel Brice/CERN)
Um dos grandes avanços que foram dados recentemente é a criação não apenas de partículas de antimatéria, mas estados neutros e estáveis do mesmo. Antiprótons e pósitrons (antielétrons) podem ser criados, desacelerados e forçados a interagir uns com os outros, onde formam um anti-hidrogênio neutro. Usando uma combinação de campos elétricos e magnéticos, podemos confinar esses antiátomos e mantê-los estáveis, longe do assunto que os faria aniquilar.
O novo detector ALPHA-g, construído na instalação Triunf do Canadá e enviado ao CERN no início deste ano, deve melhorar os limites da aceleração gravitacional da antimatéria até o limiar crítico. Do ponto de vista teórico e de aplicação, qualquer resultado que não os esperados +9,8 m/s2 seria absolutamente revolucionário. A contraparte da antimatéria de todas as partículas de matéria deve ter: a mesma massa, a mesma aceleração em um campo gravitacional, a carga elétrica oposta, a rotação oposta, as mesmas propriedades magnéticas, deve se unir da mesma forma em átomos, moléculas e estruturas maiores e deve ter o mesmo espectro de transições de positrons nessas variadas configurações.
Alguns destes foram medidos por um longo tempo: massa inercial da antimatéria, carga elétrica, spin e propriedades magnéticas são bem conhecidos. Suas propriedades de ligação e transição foram medidas por outros detectores no experimento ALPHA e se alinham com o que a física de partículas prevê. Mas se a aceleração gravitacional voltar negativa em vez de positiva, literalmente viraria o mundo de cabeça para baixo.
(O detector ALPHA-g, construído na instalação de aceleração de partículas do Canadá, TRIUMF, é o primeiro de seu tipo projetado para medir o efeito da gravidade na antimatéria. Quando orientado verticalmente, deve ser capaz de medir em qual direção a antimatéria cai e em qual magnitude. Crédito: Stu Shepherd/ Triumf)
Atualmente, não existe tal coisa como um condutor gravitacional. Em um condutor elétrico, cargas livres vivem na superfície e podem se mover, redistribuindo-se em resposta a quaisquer outras cargas ao redor. Se você tiver uma carga elétrica fora de um condutor elétrico, o interior do condutor será protegido dessa fonte elétrica.
Mas não há como se proteger da força gravitacional. Não há como montar um campo gravitacional uniforme em uma região do espaço, como você pode fazer entre as placas paralelas de um capacitor elétrico. O motivo? Porque ao contrário da força elétrica, que é gerada por cargas positivas e negativas, há apenas um tipo de “carga gravitacional”, e isso é massa e energia. A força gravitacional é sempre atraente e simplesmente não há maneira de contornar isso.
Mas se você tem massa gravitacional negativa, tudo isso muda. Se a antimatéria realmente se torna antigravitacional, caindo em vez de cair, então a gravidade a vê como se fosse feita de antimassa ou antienergia. Sob as leis da física que atualmente entendemos, quantidades como antimassa ou antienergia não existem. Podemos imaginá-los e falar sobre como eles se comportariam, mas esperamos que a antimatéria tenha massa normal e energia normal quando se trata de gravidade.
(A ferramenta Virtual IronBird para o Centrifuge Accommodation Module é uma maneira de criar gravidade artificial, mas requer muita energia e permite apenas um tipo específico de força de busca de centro. A verdadeira gravidade artificial exigiria que algo se comportasse com massa negativa. Crédito: NASA/AMES)
Se antimassa existe, no entanto, uma série de grandes avanços tecnológicos, imaginados por escritores de ficção científica por gerações, de repente se tornariam fisicamente possíveis. Podemos construir um condutor gravitacional e nos proteger da força gravitacional. Podemos montar um capacitor gravitacional no espaço, criando um campo de gravidade artificial uniforme. Poderíamos até mesmo criar um drive de dobra, já que teríamos a capacidade de deformar o espaço-tempo exatamente da maneira que uma solução matemática para a Relatividade Geral, descoberta por Miguel Alcubierre em 1994, exige.
É uma possibilidade incrível, que é considerada altamente improvável por praticamente todos os físicos teóricos. Mas não importa quão selvagens ou domesticadas sejam suas teorias, você deve confrontá-las com dados experimentais; somente medindo o Universo e colocando-o à prova, você pode determinar com precisão como as leis da natureza funcionam.

14.054 – Terra, Eterna Enquanto Dura – Vida na Terra acabará em 2 bilhões de anos, mas Humanidade vai antes


terra e lua
Um modelo de cálculo executado por computadores estima que a vida no nosso planeta vai acabar em exatos 2.000.002.013 (dois bilhões e dois mil treze) anos. A equação foi elaborada pelo astrobiólogo Jack O’Malley-James, da Universidade de St. Andrews, na Escócia, em parceria com um grupo de pesquisadores de seu campus.
Ao jornal argentino “Clarín”, O’Malley-James explica que a temperatura média da Terra subirá gradualmente ao longo da evolução do sol, e o aumento das temperaturas levará ao aumento da evaporação da água, colocando mais vapor de água na atmosfera. Uma consequência disso é que haverá mais chuva, o que, segundo o astrobiólogo, vai reduzir os níveis de CO2 da atmosfera.
Com o tempo, os níveis de CO2 ficarão tão baixos que as plantas não serão capazes de fazer fotossíntese e muitas grandes plantas e árvores que vemos ao nosso redor todos os dias serão extintas, na análise do cientista. E, sem planta, toda a cadeia alimentar se perderá e todos nós seremos extintos, por causa também dos baixos níveis de oxigênio.
E agora a notícia pior: o cientista escocês garante que os humanos e as plantas deixarão a face da Terra muito antes, na metade deste tempo, daqui a um bilhão de anos. E o processo se extinção se seguirá até que, ao fim dos dois bilhões de anos, os últimos micróbios desaparecerão.

Mas, tais previsões sinistras podem não chegar a acontecer. Boa parte dos cientistas também acredita que seremos salvos por nossa tecnologia.

14.046 – Mega Projeções – Ninguém mais vai usar smartphone em cinco anos, diz Samsung


O lançamento do Galaxy Fold tem sido um grande desafio para a Samsung, mas isso não fez que a empresa mudasse sua visão sobre o dispositivo. Para a companhia, o hardware dobrável é uma espécie de ponte para um futuro sem smartphones
“O design do smartphone atingiu um limite e, por isso, projetamos um modelo dobrável”, diz Kang Yun-Je, chefe da equipe de design da empresa. “Além disso, estamos nos concentrando em outros dispositivos que já começam a causar um impacto mais amplo no mercado, como fones de ouvido inteligentes e smartwatches. Em cinco anos, as pessoas nem perceberão que usam telas.”
“O design do smartphone atingiu um limite e, por isso, projetamos um modelo dobrável”, diz Kang Yun-Je, chefe da equipe de design da empresa. “Além disso, estamos nos concentrando em outros dispositivos que já começam a causar um impacto mais amplo no mercado, como fones de ouvido inteligentes e smartwatches. Em cinco anos, as pessoas nem perceberão que usam telas.”
Para assistir a vídeos, ouvir música, visualizar e responder mensagens, “pode-se ter a mesma experiência em qualquer lugar”. “O dobrável vai durar anos”, estima Cibils. “Uma vez que o 5G e a internet das coisas estejam disponíveis [juntos], em vez de smartphones haverá dispositivos inteligentes. Eles podem diminuir, mas novos aparelhos surgirão.”

14.045 – Arqueologia – Brasileiros descobrem artefatos humanos mais antigos fora da África


hominideos-africa-4

Uma expedição realizada no norte da Jordânia entre 2013 e 2015 por uma equipe de arqueólogos ítalo-brasileira encontrou artefatos de pedra lascada de 2,4 milhões de anos – provavelmente produzidos por hominídeos pertencentes ao gênero Homo.
Isso significa que os primeiros ancestrais humanos a saírem da África rumo ao Oriente Médio começaram essa jornada no mínimo 500 mil anos antes da data tida como consenso pela comunidade científica até então.
A descoberta foi anunciada em uma coletiva de imprensa no Instituto de Estudos Avançados da USP (IEA). O artigo científico que detalha as conclusões do grupo foi publicado na revista Quaternary Science Reviews.
Também participaram da pesquisa o paleoantropólogo Walter Neves, da USP, Giancarlo Scardia, da Unesp de Rio Claro, e Fabio Parenti, da Universidade Federal do Paraná (UFPR) – que explora o vale do rio Zarqa, próximo a Amã, capital da Jordânia, desde a década de 1990.
Para entender por que esses artefatos – os mais antigos já encontrados fora da África – podem virar de ponta cabeça a história da humanidade, primeiro é preciso entender essa história da maneira como ela é contada hoje.
Na biologia, toda espécie é batizada com um nome científico duplo. Quando duas espécies são muito próximas, elas pertencem ao mesmo gênero, e, assim, têm o primeiro nome igual. É o caso do lobo (Canis lupus) e do coiote (Canis latrans).
Hoje, não há nenhum animal aparentado o suficiente com o ser humano para carregar o nome Homo – mas 2 milhões de anos atrás, a situação era bem mais confusa.
O pioneiro de nossa linhagem foi o Homo habilis – que viveu na África entre 2,4 a 1,4 milhões de anos atrás. Ele ainda tinha uma aparência próxima a de um símio, um cérebro 30% maior que o de um chimpanzé e no máximo 1,4 metro de altura. Ele foi o primeiro a fabricar ferramentas. Até onde se sabe, a partir dele se ramificaram espécies como o Homo naledi (que não interessa para nós) e o Homo erectus (que interessa bastante para nós).
O erectus, que surgiu há 1,9 milhões de anos e compartilhou a Terra com o sapiens até bem recentemente, foi o primeiro a sair da África e explorar os demais continentes. Ele já era um bípede de pernas desenvolvidas, e tinha um cérebro com dois terços do volume do de um humano moderno.
Os erectus que se estabeleceram na Ásia e na Europa dariam origem aos homens de Neandertal e de Denisova. Uma parcela dos erectus que ficaram na África, por sua vez, deu origem a nós. No intervalo entre erectus e sapiens é provável que tenha existido uma terceira espécie, o heidelbergensis. Mas não vamos complicar a árvore genealógica sem necessidade.
A moral da história é: houve duas ondas migratórias para fora da África. É por isso que, quando o ser humano moderno (Homo sapiens) deixou seu berço, há meros 70 mil anos, ele encontrou a Ásia já habitada por Neandertais e Denisovanos. Esses humanos diferentões descendiam de erectus que haviam saído do continente muito antes, há 1,9 milhão de anos.

14.044 – Ficção e Animação – Speed Racer e o Match 5


spedy racer
Speed Racer nasceu em 1966 na forma de mangá, e tinha outro nome: Mach Go Go Go. Um ano depois, virou uma série animada na TV japonesa, com 52 episódios.

O nome original do piloto é “Go Mifune” – uma homenagem ao ator japonês Toshiro Mifune, protagonista de Os Sete Samurais (1954). Mifune é, de longe, o ator mais importante da história do cinema japonês.

O nome Speed Racer, que passou a batizar tanto o piloto do Mach 5 quanto o próprio desenho, surgiu quando a produtora americana Trans-Lux comprou os direitos do desenho, ainda em 1967. O projeto foi conduzido pelo ator americano Peter Fernandez, que dublou as vozes de Speed e do Corredor X para o inglês. No Brasil, o desenho estreou na TV Tupi, nos anos 1970.
Era um V12 de 1.700 cavalos que atiçou a imaginação de algumas gerações, e que tem um lugar cativo no pódio de carros mais emblemáticos da ficção.
Vamos começar pelo acessório mais emblemático do Mach 5: as serras frontais, acionadas pelo botão “C”. Elas nunca eram usadas contra competidores. Speed Racer só ativava elas para atravessar florestas – criando a cena clássica das toras voando pelos ares enquanto Speed acelera (socorro, chamem o Ibama!).
O carro tinha seu “drone” antes da invenção dos drones. Ele tinha formato de pombo-correio e saía de uma abertura no capô. O passarinho robótico tinha uma câmera que transmitia imagens aéreas para o painel do carro. Mas sua grande função era como WhatsApp do piloto: ele transportava mensagens.
O carro tinha um botão extra, fora do volante, que ficava entre os assentos e enviava o drone para locais previamente programados (como num GPS). A tecla H (home) mandava o drone para onde ele se dirigia na maioria das vezes: a casa da família Racer.
A carroceria tinha macacos hidráulicos embutidos. Eles acionavam quatro pernas mecânicas que serviam de molas – e, graças às leis da física dos desenhos animados, permitiam ao Mach 5 saltar obstáculos. Dava para ativar cada uma das pernas hidráulicas individualmente.
Os faróis tinham lâmpadas que se movimentam independentemente, como os olhos de um camaleão, e como alguns carros de hoje. Para dar uma força nas corridas noturnas, o capacete de Speed tinha visor infravermelho. Mais tarde na série de desenhos, o botão E passou a ativar asinhas laterais, que davam uma força nos voos do carro (de novo, graças à física da ficção).
Esse botão acionava um vidro blindado, que selava o cockpit. A cúpula de proteção aguentava disparos de armas de fogo, explosões e o escambau. Ah, claro: também vedava o carro para viagens submarinas.
Acionava uma camada superaderente de borracha que colava o Mach 5 em paredes, como uma lagartixa.
Speed pressionava esse botão e o carro virava um submarino. Além do cockpit vedado, havia um tanque de oxigênio embutido atrás do assento com a autonomia de 30 minutos. Um periscópio ligado a um sistema de vídeo permitia que Speed visse tudo o que se passava na superfície.
Para finalizar, um acessório mundano: o porta-malas (que devia abrir só com chave mesmo, já que não há registro de um botão reservado para abrir a tampa, rs). Seja como for, o compartimento tinha uma finalidade dramática: servia de esconderijo para Gorducho, o irmão mais novo de Speed, e para o chimpanzé Zequinha, já que a dupla sempre se infiltrava no compartimento de carga do Mach 5 para participar furtivamente das corridas.

mach5_parte1-1

mach5_parte2-1

mach5_parte3-1

14.043 – Supernova – A Morte Brilhante das Estrelas


supernova
Supernovas são objetos celestes pontuais com luz extremamente intensa e com duração de apenas alguns meses. Da antiguidade, há poucos registros desses objetos, que desafiavam a compreensão de seus observadores. Na Europa dominada pelo aristotelismo, nenhum astrônomo lhes deu maior atenção. Pois segundo Aristóteles, o céu era imutável, do que se deduzia que tanto cometas como supernovas eram fenômenos atmosféricos. Como mostraremos mais adiante, as supernovas são explosões de estrelas de grande massa que exauriram suas fontes convencionais de energia.

A luminosidade de uma supernova (SN) é gigantesca. Em seu pico, que ocorre poucas semanas após o seu aparecimento, a luminosidade pode atingir valores de dez bilhões de sóis e a SN pode competir em luminosidade com toda a galáxia em que se situa. A figura 1 mostra a foto da SN 1994D que explodiu nas bordas da galáxia espiral NGC 4526 situada à distância de 108 milhões de anos-luz. Uma supernova expele até cerca de 90% da sua massa para o espaço, e séculos depois essa massa de gás pode ser vista como uma nebulosa em forma esférica ou de anel. A figura 2 mostra os gases formados por uma supernova que Kepler notou pela primeira vez dia 17/10/1604. Esta foi a última supernova inquestionavelmente observada na Via Láctea. Ocorreu a 20 mil anos luz de distância e pôde ser vista durante o dia por 3 semanas. Mas exames recentes de restos de SN indicam que em nossa galáxia ocorre em média uma supernova a cada 50 anos, ou seja, a cada 1,5 bilhões de segundos. Como o universo visível tem cerca de mil bilhões de galáxias, a cada segundo nele explodem centenas de SN. Mas mesmo com o atual sistema de monitoramento por meio de poderosos telescópios, a grande maioria delas passa despercebida.
Os primeiros estudos teóricos sobre supernovas foram realizados pelo físico suíço Fritz Zwicky (1898 – 1974) que desde os 27 anos trabalhou no Instituto Tecnológico da Califórnia. Zwicky, que em 1926 cunhou o termo supernova, teorizou que elas eram geradas por explosões de estrelas anãs brancas (ver anãs brancas no artigo Evolução Estelar). Junto com seu colega Walter Baade, Zwicky também reconheceu dois tipos de supernovas: Tipo I, cujo espectro de emissão não contém raias de absorção por hidrogênio, e Tipo II, que mostram raias de hidrogênio muito alargadas. É fato reconhecido da sociologia da ciência que a aceitação inicial de idéias realmente pioneiras depende consideravelmente da personalidade dos seus proponentes. Ocorre que Zwicky tinha um caráter singularmente arrogante e áspero. Sobre seus colegas de ofício, dizia que eram idiotas esféricos. Esféricos porque pareciam igualmente idiotas, qualquer que fosse o ângulo de visão. Esse não é definitivamente o tipo que faz sucesso facilmente. Ele fez algumas descobertas de grande importância que só foram levadas a sério décadas mais tarde. Em 1933, descobriu a existência da matéria escura, mas foi ignorado até os anos 1970, quando a matéria escura foi redescoberta independentemente. Coisa algo semelhante ocorreu com suas descobertas e idéias pioneiras sobre SN.
Os estudos mais recentes exigiram uma classificação mais detalhada das SN. Há 3 classes de supernovas tipo I, que são Ia, Ib e Ic, e pelo menos 3 classes de SN tipo II. Essa classificação é feita com base no espectro de luz das SN e também na sua curva de luminosidade, ou seja, a maneira como a luminosidade aumenta e, após atingir seu pico, decresce até finalmente tornar-se talvez invisível. Somente as SN tipo Ia são explosões de estrelas anãs brancas. As outras são explosões de estrelas gigantes – com massa maior do que uns 9 sóis – que consomem rapidamente o hidrogênio do seu núcleo, entram em crise energética e explodem sem passar pelo estágio de anãs brancas. Supernovas Tipo Ia podem ser observadas tanto em galáxias elípticas, nas quais há muito não há formação de novas estrelas, quanto nas galáxias espirais. Os outros tipos de supernovas só ocorrem nos braços das galáxias espirais, onde a formação de novas estrelas ainda é freqüente. Isso ocorre porque uma estrela com massa de 10 sóis vive apenas uns 10 milhões de anos antes de explodir como supernova.

Por que anãs brancas podem explodir como supernovas

Como se pode ver no artigo Evolução Estelar, estrelas com massa na faixa aproximada de 1 a 9 sóis, uma vez exaurido o hidrogênio em seus núcleo, passam por um processo no qual se tornam gigantes vermelhas, expelem grande parte da sua massa externa e o núcleo remanescente se transforma em uma anã branca composta principalmente de carbono e oxigênio. Uma anã branca é capaz de se manter estável, evitando seu colapso gravitacional por meio da chamada pressão por degenerescência eletrônica, desde que sua massa seja inferior ao chamado limite de Chandrasekhar, cujo valor é cerca de 1,4 massas solares. Mas uma estrela anã branca pode ganhar massa adicional se for parte de um sistema binário (pelo menos metade das estrelas existentes são binárias) e se a sua companheira também vier a se tornar gigante vermelha. Nesse caso, a anã branca começa a absorver matéria da vizinha agigantada (ver figura 4) até que finalmente atinja o limite de Chandrashekhar. Ao atingir esse limite, ela se colapsa e seu núcleo atinge temperatura de bilhões de graus, o que inicia um processo explosivo de fusão de carbono e oxigênio. Em questão de segundos a SN emite (1-2) x 1044 joules de energia, o que, em ordem de grandeza, equivale ao que o Sol emitirá em toda a sua existência.
Supernovas Tipo Ia são usadas como velas padrão

Vimos que a energia emitida por supernovas Tipo Ia varia por um fator de apenas 2. O mesmo ocorre com sua luminosidade máxima, que ocorre cerca de 2 semanas após a explosão. Pelo exame do espectro da luz emitida pela supernova, os astrônomos aprenderam a reconhecer as que têm maior ou menor luminosidade. Assim, essas supernovas têm sido utilizadas como velas padrão (fontes de intensidade bem estabelecida). A comparação entre a luminosidade aparente e a luminosidade absoluta presumível tem possibilitado medidas de grandes distâncias astronômicas com incerteza de apenas 7%, o que é muito pouco comparado com os métodos tradicionais. Isso tem levado a importantes avanços em cosmologia observacional, que serão discutidos mais adiante.

Os outros tipos de supernovas são explosões de estrelas muito massivas

Estrelas com mais de 9 massas solares podem explodir como supernovas sem passar pelo estágio de anãs brancas. Elas têm uma evolução complexa e relativamente rápida. No início, como todas as estrelas, elas geram energia pela fusão de hidrogênio em hélio em seu núcleo. Quando o hidrogênio no núcleo se exaure, cessa a geração de calor, a pressão para fora gerada pelo núcleo diminui e este se contrai sobre a pressão gravitacional da região externa rica em hidrogênio. Essa compressão aquece o núcleo o bastante para que 3 núcleos de hélio sejam fundidos para formar carbono. Na camada adjacente a esse núcleo superaquecido a temperatura se eleva o bastante para que tenha início a fusão do hidrogênio. Mas essa etapa evolutiva também chega a um fim e a estrela sofre nova compressão. No núcleo, elementos mais pesados começam a ser gerados por fusão, na camada adjacente tem início fusão de hélio para gerar carbono e em uma terceira camada começa a fusão do hidrogênio. As etapas vão se sucedendo até que a estrela adquira uma estrutura tipo cebola como exibida na figura 5.

 

fig5

Figura 5 – Estrutura de cebola de uma estrela muito massiva ao final da sua vida na Sequência Principal.

Em dado momento, o calor gerado pelos processos de fusão não é mais capaz de gerar pressão para fora que suporte a compressão gravitacional. O núcleo central de ferro sofre um colapso com velocidade de até 70.000 km/s. Energia da ordem de 1046 joules é emitida na forma de neutrinos. Cerca de um centésimo da energia desses neutrinos é absorvida pelas camadas externas, o que gera a explosão de supernova. Material é expelido da estrela com velocidades de até 30.000 km/s, no que ela perde cerca de 90% da sua massa. O núcleo remanescente se transforma em uma estrela de nêutrons se a massa da estrela progenitora for menor do que cerca de 20 massas solares. Se for maior do que esse limite estimado, o núcleo se transforma em um buraco negro. Simulações em computador mostram que estrelas com massa maior do que 50 massas solares entram em colapso e convertem-se diretamente em buracos negros sem que haja uma explosão tipo supernova.

Os elementos pesados da tabela periódica são originários de supernovas

Não fossem as supernovas, a vida no universo seria impossível porque a química existente seria excessivamente simples. De fato, no Big Bang só foram produzidos hidrogênio, hélio e uma pitadinha de lítio. Todos os outros elementos são sintetizados em estrelas massivas e em algumas delas jogados no espaço em explosões de supernovas. Mesmo em estrelas com massa maior do que 9 massas solares, que dão origem a supernovas tipos Ib, Ic e II, os processos de fusão nuclear não são capazes de gerar elementos mais pesados do que o ferro. Isso porque a fusão nuclear do ferro com outros elementos consome energia em vez de gerá-la. Mas na explosão de supernovas, qualquer que seja o seu tipo, as ondas de choque do gás em expansão são capazes de suprir a energia suficiente para a síntese de todos os elementos da tabela periódica. Se uma nova estrela se forma em gás enriquecido desses elementos e essa estrela contém um sistema planetário, esses planetas podem apresentar uma química complexa o bastante para que nela se desenvolva a vida. Isso é exatamente o que ocorreu com o nosso Sol e seus planetas. A concentração de elementos pesados no Sol sugere que ele na verdade seja uma estrela de terceira geração. Com isso se quer dizer que ele foi gerado de gás produzido por uma (ou mais de uma) supernova cuja estrela progenitora (ou estrelas progenitoras) foram formadas de restos de supernovas. Eu e você, caro leitor, somos feitos de lixo atômico, somos filhos e netos de uma das maiores calamidades nucleares que se conhece no universo.

14.042 – Astronomia – Mega de ☻LHO no Eclipse


eclipse glif
O eclipse solar foi totalmente visível apenas em uma faixa da Terra entre o Chile e a Argentina. O fenômeno foi parcial no Brasil.
No fim da tarde desta terça-feira, foi possível acompanhar em 14 das 27 capitais: Manaus, Porto Velho, Rio Branco, Palmas, Cuiabá, Goiânia e Brasília.
Campo Grande, Curitiba, Porto Alegre, Florianópolis, São Paulo, Rio de Janeiro e Belo Horizonte também ficaram dentro do limite.
O eclipse solar de 2 de julho de 2019 foi um eclipse total visível no sul do Oceano Pacífico e na América do Sul. Foi o eclipse número 58 na série Saros 127 e teve magnitude 1,0459.

observatorio

eclipse 2 jul

eclipse2

eclipse3

14.041 – Mais Sobre Nanotecnologia


nanotubos
A nanotecnologia consiste nos estudos e na manipulação da matéria em escala atômica e molecular. O nome dado a essa nova tecnologia deriva do termo nanômetro, que corresponde a um bilionésimo do metro (0,000000001 m), e foi definido pela Universidade Científica de Tóquio, em 1974.

O avanço da nanotecnologia ocorreu a partir do desenvolvimento do Microscópio eletrônico de varredura (MEV), em 1981, na Suíça. Esse microscópio tem uma capacidade de aumento muito maior que os microscópios ópticos. Ele é constituído por uma agulha extremamente fina, formada por poucos átomos, que executa a varredura de uma superfície a uma distância de um nanômetro. Durante essa varredura, os elétrons tunelam da agulha para a superfície, criando uma corrente de tunelamento, que é utilizada por um computador para criar uma imagem extremamente ampliada dessa superfície, tornando visíveis os seus átomos.
Ao tornar possível a visualização do relevo atômico de uma superfície, esse microscópio também possibilitou a criação de uma série de instrumentos para visualizar e manipular materiais em escala atômica.

Qual a importância dos estudos da nanotecnologia?
A matéria em escala nanométrica tem propriedades diferentes dos materiais macroscópicos. Nessa escala, já não são válidos os princípios da Física Clássica, e sim os da Física Moderna, que considera a dualidade onda-partícula e a Física Quântica. Pequenas mudanças na estrutura da matéria podem acarretar mudanças significativas em suas características físicas e químicas.
Atualmente, a nanotecnologia está presente em várias áreas de pesquisa, como Física, Química, Eletrônica, Medicina, Ciência da Computação, Biologia e Engenharia, e tem permitido o desenvolvimento de novos materiais e técnicas muito mais eficientes que os já conhecidos.
Indústria de cosméticos: As nanopartículas podem ser usadas para diferentes finalidades, como o preenchimento de rugas, maquiagens, protetor solar etc. Os benefícios da nanotecnologia nessa área devem-se à melhor penetração dos ingredientes na pele ou no cabelo. Afinal, se as partículas são menores, elas podem chegar a pontos mais profundos.

Informática: nos processadores eletrônicos, que podem ter um tamanho de apenas 45nm. Esses dispositivos possuem tecnologia avançada e podem trabalhar a altíssimas velocidades. Além disso, a capacidade armazenamento desses materiais é muito maior.

Medicina: No diagnóstico por imagem da ressonância magnética, em que as imagens são obtidas pela interação entre o campo magnético produzido pelo aparelho e o momento magnético do próton no núcleo dos átomos de hidrogênio.

Riscos da nanotecnologia
Embora as pesquisas na área da nanotecnologia tenham como objetivo proporcionar a melhora na qualidade de vida das pessoas, essa ciência também tem um potencial muito grande em ser prejudicial ao meio ambiente.
O tamanho mínimo das nanopartículas facilita sua dispersão na atmosfera, na água e no solo. Sua remoção torna-se praticamente impossível por técnicas de filtração. Além disso, quanto menor uma partícula, mais reativa ela é, além de poder desenvolver também novas propriedades que podem torná-la nociva.

14.039 – Se tem água, tem vida – Reserva gigantesca de água é descoberta em Marte


nasa-viagem-marte
Água no Planeta Vermelho! O líquido congelado foi encontrado abaixo da superfície do polo norte de Marte. Um grupo de cientistas detectou a enorme quantidade de água usando um radar capaz de penetrar no solo marciano. Para se ter uma ideia da quantidade, é tanto gelo que, se derreter e subir para a superfície, pode deixar boa parte do planeta submerso. A descoberta é uma espécie de depósito de múltiplas camadas de gelo que está misturado com areia e se formou ao longo de centenas de milhões de anos. A descoberta pode ser o terceiro maior reservatório de água no planeta vermelho, juntamente com outras duas camadas de calotas polares. Toda essa água em Marte pode favorecer a ideia dos humanos de colonizar o planeta. Pode ser exatamente isso que os cientistas estavam esperando para iniciar uma missão.

14.037 – Mega Personalidades – Patrick Swayze


Patrick_Swayze_-_1990_Grammy_Awards_(cropped)

(Houston, 18 de agosto de 1952 — Los Angeles, 14 de setembro de 2009) foi um ator, dançarino, cantor e compositor norte-americano.
Começou sua carreira como dançarino clássico, interrompendo-a por problemas recorrentes de lesões originadas na juventude pelo futebol americano. Decidiu então priorizar sua carreira como ator.
Estrelou filmes de sucesso como Ghost, Dirty Dancing, Donnie Darko, Point Break e Steel Dawn . Seu último trabalho foi como Charles Barker, um agente do FBI, na série The Beast. Foi nomeado em 1991, pela revista norte-americana People, como o “Homem mais sexy do mundo”.
Em Dirty Dancing desempenhou o papel de Johnny Castle, um instrutor de dança e dançarino num hotel, contracenando com Jennifer Grey. Este e Ghost foram os filmes pelos quais o ator ficou mais conhecido.
Patrick Swayze nasceu em Houston, Texas, filho de Patricia Yvonne Helen, apelidada de Patsy, uma coreógrafa e dançarina, e Jesse Wayne Swayze. Embora o sobrenome “Swayze” seja de origem francesa, é oriundo da ascendência irlandesa do artista. O irmão dele, Don Swayze, também é ator.

Até os vinte anos, Swayze vivia no bairro de Oak Forest, Houston, onde estudou em Santa Rosa de Lima, uma escola católica. Durante este tempo, desenvolveu múltiplas habilidades artísticas e desportivas, como patinação no gelo, balé clássico, e representação. Estudou ginástica na vizinha San Jacinto College, por dois anos. Em 1972, mudou-se para Nova York para completar sua formação formal de dança no Ballet Harkness e Joffrey Ballet. A escola de dança da mãe de Patrick Swayze realmente foi o amuleto da sorte do ator. Além de ter dado uma carreira de sucesso para o filho, a professora Patsy Swayze também foi a cupido da relação de Patrick com uma das suas alunas, na época com 15 anos de idade, Lisa Niemi. Casados desde o dia 12 de Junho de 1975, o casal não teve filhos. Lisa fez diversos tratamentos para engravidar, mas sofreu dois abortos espontâneos, um em 1990 e outro em 2005.
Swayze morreu em 14 de setembro de 2009, aos 57 anos, após sofrer por dois anos com um câncer pancreático. Antes de saber da doença, o ator disse que num primeiro momento pensou estar sofrendo de indigestão crônica. Quando os sintomas pioraram, procurou seu médico tendo sido feita uma biópsia e o diagnóstico foi câncer. Seu alcoolismo e excesso de consumo de cigarros, mesmo após o diagnóstico, foi apontado como causas do desenvolvimento de tumores no pâncreas, que criaram metástase para o fígado.
Sua assessora de imprensa confirmou a morte, afirmando que ele estava ao lado da família.
O seu corpo foi cremado e suas cinzas dispersas no seu rancho no Novo México.

14.036 – Serra da Capivara – O Paraíso (quase) Escondido


si_400_capivara_site6
Falar do continente americano é falar de forasteiros: o Novo Mundo foi o penúltimo continente desbravado pelo Homo sapiens. Só a Antártida passou mais tempo sossegada. Mas como era a América antes dos humanos? E quando foi que estes primeiros imigrantes começaram a aparecer por aqui? Junto às respostas consensuais para essas perguntas, há uma série de controvérsias científicas que, curiosamente, convergem para um lugar inesperado: o interior do Piauí.
Nos paredões do semiárido brasileiro, homens pré-históricos registravam narrativas para a posteridade. É num pedaço da caatinga do tamanho da cidade de São Paulo que fica a maior concentração de pinturas rupestres do planeta. Há exatos 40 anos, em 1979, essa região foi transformada no Parque Nacional Serra da Capivara – sendo reconhecida, em 1991, como Patrimônio Cultural da Humanidade pela UNESCO.
A região sudeste do Piauí, onde fica a Serra da Capivara, ocupa uma zona de fronteira entre duas grandes formações geológicas: ao sul, um escudo cristalino do Período Pré-Cambriano, e a bacia sedimentar do mar Siluriano-Permiano, ao norte. Entre 440 e 360 milhões de anos atrás, esse mar cobria a região. Os paredões rochosos da Serra, com mais de 100 metros de altura, foram criados embaixo d’água.
Essa época deixou uma série de vestígios: na região da Serra, já foram encontradas dezenas de fósseis marinhos – mais especificamente, de trilobitas (artrópodes extintos de até 70 centímetros que andavam no fundo do oceano). Há 220 milhões de anos atrás, porém, mudanças geológicas profundas transformaram a paisagem, acabando com a farra dos animais aquáticos: um grande movimento tectônico levantou o fundo do mar no Piauí – e jogou toda a água para o Ceará. Os sedimentos desta tremedeira se tornaram parte dos paredões da Serra – e essa história toda ficou documentada nas camadas dos grandes cânions da Serra da Capivara.
Paredões que, centenas de milhões de anos depois, continuaram a testemunhar fatos pitorescos. Um deles aconteceu outro dia (geologicamente falando). Foi há 115 mil anos, quando começou a última Era do Gelo. O Piauí se tornou uma espécie de oásis – a região, próxima da linha do Equador, nunca congelou. Os planaltos da Serra viram nascer uma floresta tropical úmida, e nas planícies predominavam os campos e o cerrado. Vestígios paleontológicos mostram que o clima ameno atraiu uma fauna exuberante: tigres-dente-de-sabre, preguiças gigantes, mastodontes (parentes do mamute), paleolhamas (uma mistura de cavalo, tamanduá e, é claro, lhama).
Com o fim da Era do Gelo, há 12 mil anos, veio outra transformação climática: a umidade caiu e as temperaturas aumentaram severamente. Ao longo dos 3 mil anos seguintes, os animais da megafauna anterior foram extintos, e a vegetação mudou para se adaptar às novas condições: nascia a caatinga.
Nessa época, já havia humanos por lá. A abundância de sítios arqueológicos na Serra é prova disso. São mais de mil, cheios de instrumentos de pedra lascada, esqueletos humanos e, claro, pinturas rupestres.
Por falar em pinturas, a quantidade de desenhos isolados, chamados de “figuras”, é única no mundo: enquanto sítios europeus possuem de 10 a 12 figuras, apenas na Toca do Boqueirão da Pedra Furada, um dos pontos mais famosos da Serra, há 1.200 pinturas.
A maioria das pinturas rupestres da Serra da Capivara foram feitas entre 6 mil e 12 mil anos atrás. Só como base de comparação, as mais antigas do mundo têm mais de 30 mil.
A riqueza das imagens da Serra, porém, está nas cenas que elas mostram. Na Europa, por exemplo, o mais comum é encontrar animais e cenas de caça – episódios obviamente importantes para qualquer comunidade humana, e que também estão presentes na Serra.
Há quem defenda, porém, que a Serra estava ocupada por humanos bem antes de Zuzu, ou mesmo de Luzia. Estamos falando de Niède Guidon. A arqueóloga franco-brasileira de 86 anos foi a primeira a desconfiar do potencial científico escondido no meio do Piauí. Guidon fez da Serra o trabalho de sua vida. Sua obstinação foi o que levou a Capivara a atrair interesse arqueológico de cunho internacional. Mas a mesma insistência da pesquisadora em teorias controversas trouxe a Serra para o centro de disputas científicas que já duram décadas.
Em 1978, Niède Guidon começou a escavar o sítio Toca do Boqueirão da Pedra Furada, aquele que guarda 1.200 figuras rupestres. Lá, ela encontrou dois dos artefatos mais controversos de sua carreira: pedras que aparentavam ter sido lascadas por Homo sapiens e pedaços de carvão que pareciam vir de fogueiras feitas por humanos.
Ao final da escavação, Niède mandou o carvão para a França, para ser datado em laboratórios de lá. Para a surpresa da própria pesquisadora, os testes de carbono-14 indicavam que a amostra tinha 26 mil anos de idade. Nos anos seguintes, Guidon encontrou objetos progressivamente mais antigos, até que, em 1986, atingiu a data de 32 mil anos. Foi nesse ano que os vestígios da Serra da Capivara ficaram conhecidos mundialmente:” Niède publicou suas descobertas na prestigiosa revista científica Nature, em um artigo em que defende o carvão e as pedras como indícios da presença de seres humanos na América do Sul há 32 milênios.

Esse é um dado que distorce toda a história das ocupações na América: o consenso na comunidade arqueológica é o de que o homem chegou ao Novo Mundo há cerca de 15 mil anos – não muito mais, não muito menos.

si_400_capivara_linhatempo1-1

É preciso voltar no tempo para entender a polêmica: o Homo sapiens surgiu na África entre 200 mil e 300 mil anos atrás. De lá, espalhou-se por Europa e Ásia. Há 60 mil anos, nossa espécie atingia a Austrália. Depois, as Américas (de acordo com as teorias mais aceitas, via Estreito de Bering, que era terra seca na Era do Gelo).

E é aqui que a arqueologia chega aos homens de Clóvis – por muito tempo considerados o povo mais antigo da América. Nos anos 1920, nas cidades americanas de Folsom e Clóvis, no Novo México, foram encontradas pontas de lanças ao lado de fósseis de animais de grande porte. Eram armas humanas de 13 mil a 13.500 anos de idade, que comprovavam, pela primeira vez, a presença de homens na América em plena Era Glacial. Daí surgiu a teoria “Clovis First”, segundo a qual todo e qualquer outro grupo humano que habitou o continente teria vindo, necessariamente, depois deles.

Nas últimas décadas, porém, a primazia de Clóvis tem sido fortemente contestada entre os cientistas. Hoje, há centenas de sítios mais antigos ao longo do continente: na Venezuela, no Peru, no Brasil, na Argentina e nos próprios EUA. O sítio Monte Verde, no Chile possui datações de 14,6 mil anos. Mesmo assim, muitos arqueólogos americanos (chamados pejorativamente de “polícia de Clóvis”) ainda duvidam dessas descobertas. Defendem que os achados são só pedras comuns, não ferramentas humanas.

Perceba, porém, que mesmo os artefatos pré-clovis mais aceitos, datando de 15 mil anos, vieram apenas 2 mil anos antes da cultura Clóvis. É uma variação bem menos radical do que sugerem as datações de 20 a 30 mil anos dos achados da Serra – e, justamente por isso, elas são tratadas com amplo cetismo. A maior parte dos especialistas considera que as amostras de carvão de Niède foram criadas por incêndios naturais. Por raios de tempestade, não por pessoas. Números ainda mais antigos do que isso, então, são tidos como absurdos.
Niède, porém, foi encontrando pedras lascadas cada vez mais arcaicas na Serra, e segue certa de que entre elas há ferramentas humanas. Segundo ela, não poderia vir de fogo natural. Uma queimada produziria restos de carvão pra todo lado – os de Niède estavam concentrados num lugar só, protegidos sob paredões da Pedra Furada. Já sua defesa das pedras baseia-se no formado delas: as lascas estão presentes apenas de um lado da pedra, como se tivessem sido moldadas de forma contínua, em uma direção só, e não da maneira aleatória que uma pedra quebra após uma queda, por exemplo.
O mais antigo desses supostos instrumentos tem 100 mil anos de idade. Ele foi a peça final na teoria excêntrica que Niède defende até hoje: há 100 mil anos não apenas existiriam comunidades humanas no Piauí, como elas seriam formadas por homens vindos para a América diretamente do berço da humanidade: da África, e não pelo estreito de Bering.

si_400_capivara_linhatempo2-1
Alegações extraordinárias requerem provas extraordinárias, já diria Carl Sagan. A comunidade científica recebeu as teorias de Niède com tremenda cautela – para não dizer hostilidade. No Brasil, um de seus críticos mais ferrenhos foi o bioarqueólogo Walter Neves, conhecido como “pai” de Luzia. “Eu não acreditava em uma vírgula nas descobertas dela na Pedra Furada, e confesso que achava que era uma questão de incompetência. Mas, quando ela me convidou para visitar a Serra [em 2005] e eu vi os artefatos, foi um choque”, nos disse Walter sobre as pedras lascadas. “Saí da visita 99% convencido de que ali tinha mãos humanas de 30 mil anos atrás, a cronologia de Niède na época. Mas 1% de dúvida ainda é algo extremamente significativo.”

Se Walter é cauteloso quanto aos 30 mil anos, é abertamente cético com relação a qualquer objeto de 100 mil anos: “Isso é Guerra nas Estrelas, ficção científica, nem se discute”. A migração direta pela África também é amplamente descartada. Segundo o arqueólogo André Strauss, professor da USP que trabalhou na Serra da Capivara, mesmo que haja provas de uma migração mais antiga na Serra, esses homens precisariam ter vindo pelo Estreito de Bering mesmo. Para ele, essa suposição é pura extrapolação de Niède.

Apesar de seguir irredutível quanto às suas teorias, Guidon cercou-se de figuras conceituadas para dar continuidade ao seu trabalho na Serra. Quando se aposentou, convidou o arqueológo francês Eric Boeda para dar liderar as pesquisas por lá. Ele goza de respeito e admiração da comunidade arqueológica internacional: dirigiu escavações importantes na Europa, África e Ásia, e é um dos maiores especialistas do mundo em indústria lítica – ou, em bom português, no estudo de ferramentas antigas feitas de pedra.

Em seus 20 anos no Piauí, Boeda, de fato, fez datações mais conservadoras do que Niède – mas elas ainda vão bastante além do que a teoria oficial de ocupação humana no continente é capaz de explicar. Boeda defende que pedras de 22 mil anos sejam instrumentos humanos. Seus números mais extremos chegam à casa dos 40 mil. “Acredito que ele está com uma estratégia inteligente, passando por números mais palpáveis primeiro”, diz André Strauss. “Eric, além de ter prestígio internacional, está aberto ao diálogo, algo difícil com a Niède. Antes de tudo, ele está tentando recuperar a credibilidade dos achados humanos da Serra”, disse Strauss.
A fundadora teimosa
Entre pinturas, pedras lascadas e farpas, uma coisa ninguém contesta: Niède Guidon é uma exímia administradora. Ela vive permanentemente na Serra da Capivara desde 1998, ao lado de uma das instalações que ajudou a fundar, o Museu do Homem Americano. A arqueóloga recebeu a SUPER em sua casa para uma conversa. Com a saúde instável – além da idade avançada, ela já teve dengue, Zika e Chikungunya – Niède segue irredutível e linha-dura tanto em suas descobertas, quanto com sua proteção quase maternal à Serra da Capivara.
O relacionamento entre Guidon e o Piauí já ultrapassa as Bodas de Ouro. Tudo começou em 1963, quando a Serra da Capivara era uma completa desconhecida da arqueologia. Niède trabalhava bem longe, na curadoria do Museu do Ipiranga, em São Paulo, onde foi organizada uma exposição sobre figuras rupestre no Brasil – as únicas conhecidas até então, feitas em Minas Gerais. “Foi quando um senhor, que veio visitar a exposição, me mostrou fotos de outras pinturas, dizendo que também havia esses ‘desenhos de índios’ perto da cidade dele”, conta Niède.
Foi só em 1970 que Niède teve a chance de encontrar pessoalmente os tais “desenhos de índio”. Oito anos de estudo depois, ela criou uma comissão permanente de pesquisa, fruto de uma parceria entre a França e o Brasil. Reuniu biólogos, zoólogos, botânicos e paleontólogos para promover uma ampla investigação em toda a Serra da Capivara. “Não se conhecia nada daqui. Não tinha estrada, nada. Os moradores locais foram nossos primeiros guias, exploramos tudo a pé”.
Fauna, flora e riqueza arqueológica nunca antes documentadas pela ciência foram reunidos em um relatório, que Niède e sua equipe enviaram a Brasília. O pedido de “preservação absoluta” do local culminou, em 5 de junho 1979, no decreto Nº 83.548, que criava oficialmente Parque Nacional Serra da Capivara.
Estabelecer uma área totalmente dedicada a preservação e pesquisa, porém, foi um trabalho árduo. “O governo criou o parque, mas não colocou um funcionário sequer”, conta Niède. Tirar o Parque do papel significava não só torná-lo um instituto de ciências fechado, mas também um bem público, que atraísse turistas e movimentasse a economia da região. Conseguir tudo isso custa dinheiro. E não é pouco.
Quem pintou os paredões há milhares de anos, afinal, não estava pensando na facilidade de exibir sua arte a visitantes externos. O parque precisava ser alcançável, primeiro por estradas, mas também por passagem e pontes internas. Seus 130 mil hectares também tinham de ser protegidos e vigiados.
Guidon e sua equipe angariaram apoio técnico do antigo Banco Interamericano de Desenvolvimento, e receberam doações da Petrobras para manter o Parque de pé. Essas verbas, porém, não foram suficientes para fazer deslanchar o paraíso arqueológico escondido: ainda hoje, a serra recebe só 20 mil turistas por ano. O tamanho da estrutura, ironicamente, dificulta as coisas: a Serra ocupa a área de quatro municípios diferentes, todos com pouca estrutura hoteleira e de transporte, a 522 km distância da capital Teresina.
Se o turismo já é insuficiente para suprir a manutenção do Parque, a situação só piorou quando as verbas públicas ficaram escassas. Os repasses da Petrobras cessaram com a crise geral na empresa. De 270 funcionários que o Parque já teve, hoje só é possível manter 40. A estrutura, hoje, depende de pequenos repasses do Instituto Chico Mendes de Conservação da Biodiversidade (ICMBio), do Instituto do Patrimônio Histórico e Artístico Nacional e do governo do Piauí.
Em 2014, porém, o BNDES aprovou verba para a construção do último sonho de Niède: o Museu da Natureza (MuNa). Nele, a pesquisadora quis contar a história da Serra de uma forma similar à que você leu nestas páginas: uma viagem no tempo por toda evolução natural da Capivara, que levasse o visitante da época em que o Piauí era mar, até os dias de hoje.
O dinheiro, pedido a primeira vez em 2001, veio sem correção monetária. Os R$ 13,7 milhões, graças à magia da inflação, já compravam três vezes menos tijolos, concreto e massa corrida quando a verba finalmente chegou. O MuNa, porém, insistiu em nascer e foi inaugurado em dezembro de 2018. Final feliz (e aguerrido) para Guidon e sua Serra.
E quanto à origem das pedras lascadas milenares? Elas realmente foram feitas por humanos? Estaria Niede totalmente enganada na tese que guiou toda sua carreira? Apontar para uma conclusão não é tão simples. “Nem todas as perguntas têm como resposta sim ou não. Há uma terceira opção, que talvez seja a mais frequente de todas: não sei”, diz André Strauss. No caso da Serra, essa é a conclusão mais honesta. E é uma resposta perfeitamente científica. Existia gente lá há 40 mil anos? Esse é um debate legítimo, e que segue em aberto.”

si_400_capivara_site13

si_400_capivara_mapa

14.035 – O Xis da Questão – O ‘X’ SE TRANSFORMOU NA VARIÁVEL DESCONHECIDA DA MATEMÁTICA


sinais_matematicos
Mesmo que você não seja um gênio das ciências exatas, certamente sabe que a letra “X” na matemática representa um termo utilizado para substituir outro que, geralmente, é desconhecido. Mas você sabe como é que essa letra se transformou nessa variável? A resposta a essa questão, ao contrário do que você poderia imaginar, não está relacionada a nenhum cálculo secreto, mas sim com a fonética.
O pessoal da TED — uma respeitada fundação privada sem fins lucrativos que organiza conferências em todo o mundo para disseminar conhecimento — postou um vídeo no YouTube, no qual Terry Moore, durante uma das palestras, explica por que o X foi o escolhido para representar o desconhecido.
Basicamente, quando os textos árabes sobre matemática e outras ciências começaram a chegar na Europa — mais precisamente, na Espanha — lá nos séculos 11 e 12, obviamente os sábios da época se empenharam em traduzir todo esse conhecimento para um idioma europeu comum.
No entanto, alguns sons verbalizados em árabe não possuem correspondência com os idiomas europeus, sem contar que os caracteres desse alfabeto tampouco contam com equivalentes ocidentais. Assim, uma letra árabe muito comum — ? pronunciada “shin” — tem o mesmo som que “shhh” e é utilizada para escrever a palavra “Shalam”, que em árabe significa “algo”, ou seja, ela descreve alguma coisa indefinida.
Assim, os árabes utilizavam o termo “al-shalam” para designar “o desconhecido” que, por sua vez aparecia muito nos antigos textos matemáticos. O problema, contudo, é que, como no idioma espanhol não existe o som “shhh”, os estudiosos que traduziram os antigos textos árabes tiveram que encontrar uma alternativa, adotando o som “ck”, proveniente do grego clássico, para criar uma convenção.
No grego clássico, o som “ck” é representado pela letra “Kai”, cuja grafia é “χ”. E mais tarde, quando os textos espanhóis foram transcritos para o latim — que era o idioma mais comum da época —, o caractere grego foi substituído pela letra X. Uma vez em latim, esses textos serviram de base para os livros de matemática por quase 600 anos, e o “X” acabou se tornando o que é hoje simplesmente porque os espanhóis não têm uma letra para o som “shhh”.

14.032 – Mega Básico – Para que serve a Atmosfera?


atmosfera-1000x665
A atmosfera terrestre é uma camada de ar que se mantem presa à superfície da Terra pela ação da gravidade. Assim como o Planeta Terra, outros planetas possuem atmosferas, entretanto, a atmosfera terrestre desempenha funções que são vitais para a manutenção da vida no planeta.
A atmosfera é constituída de diversos gases, como dióxido de carbono, oxigênio, nitrogênio e argônio. O gás carbônico ocupa apenas 0,039% do volume total da atmosfera, mas ele é fundamental para a manutenção de toda a cadeia biológica por ser utilizado pelos vegetais no processo de fotossíntese.
Outro importante gás encontrado na atmosfera é o oxigênio, que corresponde a 21% do volume da atmosfera. O oxigênio garante a vida dos seres aeróbicos, desde simples bactérias até seres complexos como os mamíferos.

Filtrar a radiação solar
A atmosfera é responsável por filtrar a maior parte da radiação solar. Cerca de 40% da radiação é refletida para o espaço pelas camadas superiores da atmosfera. A camada de ozônio, por sua vez, é responsável por filtrar cerca de 95% dos raios ultravioletas B (UVB) emitidos pelo sol.
Proteção contra impactos de meteoros
O espaço sideral está cheio de meteoros e outros tipos de fragmentos que constantemente atingem a o Planeta Terra. Os danos causados por esses corpos não são maiores porque a atmosfera atua como um escudo protetor da superfície. Ao entrar em contato com o ar concentrado da atmosfera, sobretudo oxigênio, os meteoros se fragmentam e entram em combustão, o que impede que causem danos a superfície.

Manutenção das temperaturas médias
4% do volume da atmosfera é composto por vapor d’agua. A presença de vapor d’agua garante a manutenção das temperaturas médias na superfície terrestre. Sem a presença de vapor d’agua, tanto o resfriamento quando o ganho de calor da superfície seriam muito mais rápidos, expondo o planeta a amplitudes térmicas extremas.

Efeito Estufa
A presença de dióxido de carbono na atmosfera garante o chamado efeito estufa. Por ser capaz de absorver calor, o dióxido de carbono evita a perda de calor da superfície, mantendo a superfície aquecida o suficiente para a manutenção da vida.

14.031 – O que é órbita?


orbitas-terrestres-1276821718-1000x685
É o movimento que um corpo celeste realiza ao redor de outro corpo celeste pela influência de sua gravidade. Logo, a órbita terrestre é o movimento que os satélites, sejam eles naturais – como a lua, ou artificiais, realizam em volta do Planeta Terra.
Existem diferentes tipos de órbitas terrestres. Cada uma delas é utilizada por diferentes propósitos dependendo da distância que se encontram da superfície, da área coberta e do tempo necessário para completar a trajetória orbital.
Órbita geoestacionária
Em uma órbita geoestacionária, também chamada de GEO, os objetos permanecem em uma posição fixa em relação a superfície da Terra. De acordo com a Segunda Lei de Newton, para que um objeto em órbita se mantenha em posição fixa em relação a superfície terrestre, ele deve estar a uma distância fixa de 35.786 km do nível do mar e sob a linha do Equador.

A orbita geoestacionária é muito utilizada por satélites utilizados em sistemas de comunicação. Por ficarem na mesma posição em relação a superfície terrestre, eles conseguem cobrir áreas específicas com regularidade, sem que seja necessário interrupções no serviço ou o reposicionamento de antenas responsáveis por captar suas ondas.
Uma órbita baixa da Terra, também chamada de LEO, são aquelas localizadas abaixo da órbita geoestacionária, podendo estar entre 160 km e 2.000 km de distância do nível do mar. A Estação Espacial Internacional está localizada em uma órbita LEO, bem como a maior parte dos satélites meteorológicos e muitos satélites de comunicação.
Órbita polar
As órbitas polares estão entre as baixas órbitas pois possuem altura entre 200km e 1.000km de distância do nível do mar. A particularidade das órbitas polares é que elas varrem a superfície terrestre de polo a polo, formando um ângulo reto com o Equador. Esse tipo de órbita terrestre é muito utilizado por satélite de observação e imageamento da superfície.

Órbita heliossíncrona
Trata-se de um tipo de órbita localizada entre 600 km e 800 km de distância do nível do mar, que descreve uma órbita polar mantendo-se sempre alinhada à posição do sol. Esse tipo de órbita é utilizado por satélites que necessitam de condições de luz para desempenharem suas funções, como satélites óticos.

Órbita média da Terra
As órbitas médias da Terra, também chamada de MEO, são aquelas localizada acima das órbitas LEO e abaixo da órbita GEO, ou seja, entre 2.000 km e 36.000 km de distância do nível do mar. Essas órbitas são muito utilizadas por satélites de geolocalização e para satélites de comunicação que atendem as regiões próxima ao círculo ártico, onde as ondas dos satélites geoestacionários não conseguem chegar.

Órbita terrestre alta
Uma órbita terrestre alta, também chamada de HEO, são as órbitas localizadas acima da órbita geoestacionária, ou seja, acima de 36.000 km de distância do nível do mar. Nestas órbitas, os satélites levam mais de 24 horas para concluir uma revolução completa. Esse tipo de órbita foi muito utilizado durante a Guerra Fria pelos EUA para vigiar o território Russo por meio do projeto VELA.

Órbitas excêntricas
Todas as órbitas citadas descrevem trajetórias circulares nas quais a centrípeta exercida pela gravidade da Terra é a principal propulsora. Diferente dessas órbitas, a orbita excêntrica descreve uma trajetória elíptica, sendo que nas extremidades mais estreitas sua distância da superfície terrestre varia entre 500 km e 2.000 km e nas extremidades mais distantes pode chegar até 150.000 km. Esse tipo de órbita é utilizada por satélites que precisam se afastar da influência eletromagnética e gravitacional da Terra para coletarem dados espaciais.

14.030 – Toxicologia – Qual é o veneno mais potente?


cianureto
Quando você pensa em envenenamento, provavelmente você imagina líquidos densos, guardados em frascos pequenos, com uma caveira no rótulo. Mas, na vida real a coisa não é bem assim.
Só para que você tenha ideia, o veneno mais mortal do mundo é utilizado em tratamentos de beleza. Ou você você não sabia que a toxina botulínica é capaz de matar?
E não é preciso muito para que o veneno mais mortal seja letal. Apenas 0,4 nanograma por quilo já é o suficiente para tirar a vida de um adulto jovem e saudável, de 50 quilos, por exemplo.
Cianureto
Essa substância pode ser encontrada naturalmente em vegetais, como na mandioca; ou sintetizada, em gás ou em pó; e é extremamente tóxica se ingerida ou inalada. Uma pequena dose de 5 miligramas já é o suficiente para matar.
O cianureto age destruindo as células do sangue, causando parada respiratória e destruindo o sistema nervoso central. Seu único antídoto é o nitrito de sódio.

Estricnina
Retirada de uma plantinha conhecida como Strychnos nux vomica, a estricnina está entre os venenos mais fatais do mundo. Se você ingerir, inalar ou mesmo deixar entrar em contato com a pele apenas 2,3 miligramas do veneno, pode ser seu fim.
O pior de tudo é que não existe antídoto para esse tipo de veneno, embora o Diazepan intravenoso amenize os sintomas da estricnina. Sobre seu envenenamento, a substância, utilizada desde o século 19 no extermínio de ratos, gera convulsões, espasmos musculares e morte por asfixia (muito embora já tenha sido utilizada como anabolizante, para aumentar as contrações musculares dos atletas).

Sarin
A substância é sintetizada em laboratório e contamina se for inalada. Apenas 0,5 miligrama é suficiente para envenenar. Aliás, para quem não sabe, esse era o gás utilizado em uma das armas químicas mais poderosas que existem.
Em contato com o organismo, o veneno desabilita os músculos, causa parada cardíaca e respiratória. Mas, esses efeitos podem ser interrompidos com o remédio atropina.

Ricina
Extraída da mamona, a ricina contamina pela ingestão ou pela inalação. Ela não tem antídoto e 22 microgramas já são suficientes para matar.
Esse é considerado o veneno mais mortal do mundo de origem vegetal. No organismo, ele provoca dor de estômago, diarreia, vômito com sangue e, claro, a morte. No caso de crianças, apenas uma semente de mamona já é letal.

Toxina diftérica
Essa toxina vem de um bacilo, chamado Corynebacterium diphtheriar. A contaminação com esse tipo de veneno acontece por meio de gotículas de saliva, vindas da fala ou do espirro das pessoas contaminadas, por exemplo.
Para que você tenha noção da potência desse veneno, 100 nanogramas já pode ser considerada uma dose letal. Mas, a boa notícia é que o soro antidfitérico suspende o efeito mortal da toxina.
Agora, se ele não for administrado em tempo hábil, a difteria atinge órgãos como o coração, o fígado e os rins.

Shiga-toxina
Essa toxina é produzida pelas bactérias dos gêneros Shigella e Escherichia. Ele contamina pela ingestão de bebidas ou de alimentos contaminados. Com apenas 1 nanograma você já pode morrer envenenado e o pior de tudo é que não existe antídoto para isso.
Normalmente, tratam-se os sintomas até que o veneno seja expelido pelo corpo, mas isso pode não resolver completamente o problema.
No organismo, o veneno causa diarreia, destrói a mucosa do intestino, causa hemorragia, impede a absorção de água e pode acabar levando à morte por desidratação.

toxina

Toxina tetânica
Vinda da bactéria Clostridium tetani, essa toxina envenena só de entrar em contato com a pele, especialmente se estiver com ferimentos. Uma porção minúscula de 1 nanograma já é o suficiente para matar, caso não seja administrado o soro antitetânico.
A toxina, inclusive, causa o tétano, doença que ataca o sistema nervoso provocando espasmos musculares, dificuldade de deglutição, rigidez muscular do abdome e taquicardia.

Toxina botulínica
Proveniente da bactéria Clostridium botulinum, essa é a mesma toxina que, em pequenas doses, ajuda a mulherada a lutar contra as rugas, por meio de aplicações locais. Mas, não se engane.
Essa toxina é o veneno mais mortal do mundo, muito mais potente que os venenos de cobra, por exemplo.
No organismo, em doses iguais ou superiores a 0,4 nanograma, ela age diretamente no sistema neurológico, causa paralisia respiratória e pode levar até a morte, caso seu antídoto, a antitoxina trivalente equina, não for administrado em tempo hábil.

14.029 – Medicina – A Demência Senil


proteina-tau-alzheimer-838x629
Demência é uma categoria genérica de doenças cerebrais que gradualmente e a longo prazo causam diminuição da capacidade de raciocínio e memória, a tal ponto que interfere com a função normal da pessoa.
O tipo mais comum de demência é a doença de Alzheimer, responsável por 50 a 70% dos casos. Entre outras causas comuns estão a demência vascular (25%), demência com corpos de Lewy (15%) e demência frontotemporal. Entre outras possíveis causas, menos prováveis, estão a hidrocefalia de pressão normal, doença de Parkinson, sífilis e doença de Creutzfeldt-Jakob. A mesma pessoa pode manifestar mais de um tipo de demência.
O diagnóstico tem por base a história da doença e exames cognitivos, complementados por exames imagiológicos e análises ao sangue para despistar outras possíveis causas.
Não existe cura para a demência. Em muitos casos são administrados inibidores da acetilcolinesterase, como a donepezila, que podem ter alguns benefícios em demência ligeira a moderada.
Em 2015, a demência afetava 46 milhões de pessoas em todo o mundo. Cerca de 10% de todas as pessoas desenvolvem demência em algum momento da vida. A doença é mais comum à medida que a idade avança. Enquanto entre os 65 e 74 anos de idade apenas cerca de 3% de todas as pessoas têm demência, entre os 75 e os 84 anos a prevalência é de 19% e em pessoas com mais de 85 anos a prevalência é de cerca de 50%. Em 2013, a demência foi a causa de 1,7 milhões de mortes, um aumento em relação aos 0,8 milhões em 1990. À medida que a esperança de vida da população vai aumentando, a demência está-se a tornar cada vez mais comum entre a generalidade da população. No entanto, para cada intervalo etário específico a prevalência tem tendência a diminuir devido à diminuição dos fatores de risco, pelo menos nos países desenvolvidos. A demência é uma das causas mais comuns de invalidez entre os idosos. Estima-se que em cada ano seja responsável por custos económicos na ordem dos 604 mil milhões de dólares. Em muitos casos, as pessoas com demência são controladas fisicamente ou com medicamentos em grau superior ao necessário, o que levanta questões relativas aos direitos humanos. É comum a existência de estigma social em relação às pessoas afetadas.
A demência é um termo geral para várias doenças neurodegenerativas que afetam principalmente as pessoas da terceira idade. Todavia a expressão demência senil, embora ainda apareça na literatura, tende a cair em desuso. A maior parte do que se chamava demência pré-senil é de fato a doença de Alzheimer.O risco de demência é maior em pessoas que vivem perto de autoestradas ou vias com muito trânsito.

Entre 2001 e 2012, investigadores acompanharam dois milhões de pessoas no Canadá e concluíram que 7% dos casos de demência diagnosticados diziam respeito a pessoas que viviam até 50 metros de distância de estradas com muito tráfego automóvel.

O estudo publicado na revista médica “The Lancet”, indica que ao longo desses 11 anos foram diagnosticados 243 611 casos de demência e observou-se que havia mais casos da doença entre os que viviam perto de estradas congestionadas. Nestes casos, o número de diagnósticos foi 4% superior em pessoas quem residiam entre 50 e 100 metros de distância destas vias e 2% entre os que moravam entre 101 e 200 metros.
Ou seja, entre 7% a 11% dos casos de demência diagnosticados em moradores até 50 metros de uma via de movimento intenso podem estar relacionadas com o trânsito.
Os principais fatores de risco modificáveis para a demência são, no intervalo entre os 18 e os 45 anos o baixo nível de escolaridade. No intervalo entre os 45 e os 65 anos são a hipertensão, a obesidade e a perda de audição. No intervalo superior a 65 anos são o fumar, a depressão, a inatividade física, o isolamento social e a diabetes.
Atualmente, o principal tratamento oferecido para as demências baseia-se nas medicações inibidoras da colinesterase (donepezil, rivastigmina ou galantamina), que oferecem relativa ajuda na perda cognitiva, característica das demências, porém, com uma melhora muito pequena. Nesse sentido, a melhora das funções cognitivas verificadas no estudo avaliado não pode ser relacionada apenas a esse tipo de medicação.

Embora os pacientes do estudo avaliado evidenciassem um quadro de demência moderada e depressão, pesquisa de Kessing et al. (no prelo) demonstrou que o uso de antidepressivos em longo prazo, em pessoas com demência sem um quadro de depressão, diminuiu a taxa de demência e minimizou as perdas cognitivas associadas, sem, no entanto, ter reduzido tais perdas totalmente. Esse estudo também identificou que os antidepressivos utilizados em curto prazo geraram mais prejuízos às funções cognitivas em pessoas com demência. Portanto, apenas o uso de antidepressivos em longo prazo foi que surtiu um efeito protetivo.

Desse modo, podemos considerar que os antidepressivos usados em longo prazo, além de tratarem os quadros de depressão, que podem estar associados aos quadros de demência, são benéficos para o tratamento desta patologia. Alguns estudos revelaram que os antidepressivos podem ter efeitos neuroprotetivos, aumentando o nascimento e permitindo a sobrevivência de neurônios nas zonas do hipocampo (parte do cérebro relacionada principalmente à memória).
Um estudo publicado no “Journal of Experimental Psychology: Learning, Memory and Cognition” conclui que os declínios que se verificam na memória reconstrutiva são indicio de um comprometimento cognitivo leve e de demência de Alzheimer, e não se verificam no envelhecimento saudável. “A memória reconstrutiva é muito estável em indivíduos saudáveis​​, de modo que um declínio neste tipo de memória é um indicador de comprometimento neurocognitivo” revela Valerie Reyna.
O envelhecimento da população leva a um aumento das doenças crônicas e degenerativas, acarretando um maior custo-paciente na área de saúde e a necessidade de inúmeras adaptações sociais, ambientais e econômicas. É provável que, em 2025, o Brasil se torne o 6.º país com mais idosos no mundo.[carece de fontes] O número de vítimas de demências aumenta exponencialmente com a idade afetando apenas 1,1% dos idosos entre 65 e 70 anos e mais de 65% depois dos 100 anos. A média em São Paulo no ano de 1998 na população acima de 65 anos foi estimada em 7,1%.

14.028 – Todas as células imaturas têm potencial para se desenvolver em células-tronco


celulas-tronco-capa-650x230

Novo estudo sensacional realizado na Universidade de Copenhague desmente o conhecimento tradicional do desenvolvimento de células-tronco. O estudo revela que o destino das células intestinais não é predeterminado, mas sim determinado pelo ambiente das células. O novo conhecimento pode facilitar a manipulação de células-tronco para terapia com células-tronco. Os resultados acabam de ser publicados na Nature.
Todas as células do intestino fetal têm o potencial de se desenvolver em células-tronco, conclui um novo estudo realizado na Faculdade de Saúde e Ciências Médicas da Universidade de Copenhague. Os pesquisadores por trás do estudo descobriram que o desenvolvimento de células intestinais imaturas – ao contrário de suposições anteriores – não é predeterminado, mas afetado pelo entorno imediato das células nos intestinos. Essa descoberta pode facilitar o caminho para uma terapia eficaz com células-tronco, diz o professor associado Kim Jensen, do Centro de Pesquisa e Inovação em Biotecnologia (BRIC) e do Centro da Fundação Novo Nordisk para Biologia de Células-Tronco (DanStem).
“Costumávamos acreditar que o potencial de uma célula para se tornar uma célula-tronco era predeterminado, mas nossos novos resultados mostram que todas as células imaturas têm a mesma probabilidade de se tornar células-tronco no órgão totalmente desenvolvido. Em princípio, é simplesmente uma questão de estar no lugar certo na hora certa. Aqui os sinais do entorno das células determinam seu destino. Se formos capazes de identificar os sinais necessários para que a célula imatura se desenvolva em uma célula-tronco, será mais fácil manipular as células na direção desejada”.
Ao longo da vida, os órgãos do corpo são mantidos pelas células-tronco, que também são capazes de reparar danos menores nos tecidos. Uma melhor compreensão dos fatores que determinam se uma célula imatura se desenvolve ou não em uma célula-tronco pode, portanto, ser útil no desenvolvimento de células-tronco para terapia e transplante.

“Nós obtivemos maior percepção dos mecanismos pelos quais as células do intestino imaturo se desenvolvem em células-tronco. Espero que possamos usar esse conhecimento para melhorar o tratamento de feridas que não cicatrizam, por exemplo, nos intestinos. Até agora, porém, tudo o que podemos dizer com certeza é que as células do trato gastrointestinal têm essas características. No entanto, acreditamos que este é um fenômeno geral no desenvolvimento de órgãos fetais ”.

Células Luminescentes e Colaboração Matemática
As descobertas surpreendentes são o resultado de uma busca pela compreensão do que controla o destino das células-tronco intestinais. O pós-doutorado Jordi Guiu desenvolveu um método para monitorar o desenvolvimento das células intestinais individuais. Introduzindo proteínas luminescentes nas células, ele poderia, usando microscopia avançada, monitorar o desenvolvimento das células individuais.
Após os testes iniciais, as células que os pesquisadores acreditavam serem células-tronco fetais só conseguiram explicar uma fração do crescimento dos intestinos durante o desenvolvimento fetal. Portanto, eles estabeleceram uma colaboração com especialistas em matemática da Universidade de Cambridge. E quando estudaram os dados mais de perto, chegaram à surpreendente hipótese de que todas as células intestinais podem ter a mesma chance de se tornarem células-tronco. Testes subsequentes foram capazes de provar a hipótese.

14.027 – Neurociência – Como Turbinar Seu Cérebro


neurociencia
Para aqueles que acreditam na máxima de que o corpo é uma máquina, faz sentido dizer que o cérebro é que comanda as engrenagens. Em última análise, tudo que fazemos depende da performance desse órgão. A boa notícia é que nunca tivemos tantos recursos para conhecê-lo, treiná-lo e, por que não, fazê-lo funcionar melhor.
Duas das descobertas mais importantes demonstram que o cérebro é plástico e pode se adaptar, como qualquer músculo, e que os neurônios, ao contrário do que se acreditava, são produzidos ao longo da vida, e essa neurogênese pode ser estimulada.
Conhecidas como nootrópicos ou smart drugs, essas substâncias prometem melhorar o desempenho mental de áreas responsáveis por memória, concentração e velocidade de raciocínio, a partir de substâncias que não exigem prescrição médica e que não teriam efeitos colaterais. Com nomes sugestivos, como OptiMind, Alpha Brain e Lumonol, os coquetéis têm substâncias como cafeína, colina e racetams, que teriam a função de estimular neurotransmissores.

Esses produtos foram moda nos anos 1980 e voltaram a circular nas startups do Vale do Silício. No Brasil, não há suplementos aprovados pela Anvisa. “O ser humano está atrás de um milagre que turbine o cérebro, e é óbvio que há medicamentos que podem aumentar o desempenho e a atividade cerebrais, mas isso não necessariamente é positivo, pois eles podem ter malefícios e efeitos colaterais a longo prazo.
O que está na moda são substâncias que seriam naturais, como aginina e L-teanina, mas não há comprovação de efeito. Muitas dessas substâncias já foram estudadas e se mostraram ineficazes”, afirma o neurologista Renato Anghinah, professor livre-docente da Faculdade de Medicina da USP. Ele cita o caso do ginkgo biloba, que foi uma febre nos anos 1990, mas até hoje não há estudos conclusivos de que a substância proteja ou melhore a performance da atividade mental.
Não se espante se ouvir falar – e muito – sobre brain food. A neuronutrição está em alta e tem como foco os ingredientes que podem melhorar a concentração e a memória e combater os efeitos do envelhecimento no cérebro. No hotel London Corinthia, na capital inglesa, a neurocientista Tara Swart desenvolveu um menu que melhora a atividade mental: “Alguns alimentos têm poder maior de turbinar o cérebro. Uma boa hidratação e boas gorduras (ovos, peixes de águas profundas, abacate, nozes, azeite e óleo de coco) melhoram a capacidade de pensar e tomar decisões”, explica. “Magnésio é importante para reduzir os níveis de cortisol, o hormônio do estresse. Boas fontes são folhas verde-escuras ou até suplementos”, explica a cientista, que toma uma colher de óleo de coco batida com a bebida do café da manhã. “Dá um gás na capacidade cognitiva 20 minutos depois de tomar”, garante.
Se quiser começar as mudanças agora, beba água. “Uma baixa de 1% a 3% na hidratação já pode afetar negativamente memória, concentração e capacidade de decisão. Invista em alimentos como pepino, melancia e alface e tente beber pelo menos meio litro de água por dia a cada 15 kg de peso corporal.” A nutricionista funcional Priscila di Ciero complementa: “Ovos têm fosfatidilcolina, uma vitamina que forma a parede de células do corpo inteiro, inclusive do cérebro”, explica. Aliás, as colinas estão em boa parte das brain drugs, mas nos ovos a absorção é melhor. Cúrcuma, que dá o amarelo do curry, tem curcumina, que melhora a oxigenação do cérebro. “A dica é usar com pimenta, que melhora sua absorção.”

As frutas vermelhas têm antocianinas, que previnem o envelhecimento, e o café continua com o posto de estimulante imbatível: duas a três xícaras por dia ajudam a turbinar a memória. “Existem vários nutrientes e fitoterápicos que atuam como calmantes e antidepressivos, como a L-teanina (aminoácido presente no chá-preto), a valerina (planta com propriedades calmantes e sedativas) e o triptofano (presente em alimentos como a banana), que ajuda a formar serotonina e tem efeito antidepressivo e de bem-estar”, diz a especialista. E passe longe do excesso de açúcar, adoçantes, cigarro e poluição. O cérebro inflama – e muito! Essa lista de substâncias neurotóxicas pode acelerar o envelhecimento do órgão.
Neurônios adestrados

A ciência finalmente reuniu provas de que atividade física altera a plasticidade do cérebro, incluindo o nascimento de novos neurônios e a capacidade de regular funções como memória e criar novas conexões no hipocampo, ligado à aprendizagem. “Os exercícios aeróbios, em sessões de no mínimo meia hora, duas ou três vezes por semana, são o mínimo para obter os benefícios”, afirma a neurocientista e professora de yoga e corrida Valéria Duarte Garcia.

Já a malhação mental tem outras diretrizes: praticar uma atividade diferente do seu cotidiano estimula partes “sedentárias” do cérebro. O neurocientista Larry Katz, autor do livro Mantenha seu Cérebro Vivo (ed. Saraiva), criou a chamada neuróbica, exercícios que oferecem novos estímulos cerebrais. Ele dá dicas para começar a explorar a malhação mental. A primeira é usar seus sentidos em um contexto diferente (vestir-se no escuro, por exemplo).

A segunda é mudar o foco da atenção: fazer uma trilha na natureza aciona sentidos diferentes daqueles usados na cidade. A terceira é mudar rotinas do cotidiano, como usar a mão esquerda para escovar os dentes se você é destro. A quarta é usar associação com alguma informação pessoal, espacial ou instigante para guardar uma informação: volte à época do cursinho, quando você usava frases engraçadinhas para lembrar uma fórmula. É o mesmo princípio.

Reset na máquina

No corpo humano, a meditação é a forma de dar um Ctrl+Alt+Del. “Um estudo realizado por pesquisadores de Harvard constatou que a meditação modifica áreas estruturais do cérebro, mais especificamente a massa cinzenta”, conta Valéria Duarte Garcia. Após apenas oito semanas de práticas meditativas com a técnica mindfullness – ou atenção plena –, pode-se detectar modificações estruturais no cérebro mapeadas por imagens de ressonância magnética, que mostram maior densidade de massa cinzenta na região do hipocampo, área importante no processamento de memória e aprendizagem.

Em grupos de pesquisa, os participantes também relataram diminuição do estresse após o mesmo período de prática, provavelmente graças à menor densidade da massa cinzenta da região da amígdala cerebral, ligada ao processo de estresse e ansiedade. “E os benefícios não dependem de uma perspectiva espiritual da meditação. Basta observar a respiração e trazer a mente de volta a ela toda vez que esta insistir em fugir”, explica Valéria.
O uso de LSD em microdoses como potencializador da mente ou mesmo como droga lícita está na mira da ciência. “Os estudos com psicodélicos seguem a todo vapor no mundo. Atualmente, estão em andamento no exterior pelo menos duas pesquisas específicas sobre a microdosagem, e o assunto já foi tema de capa de três revistas científicas de prestígio”, diz Eduardo Schoenberg, doutor em neurociências pela USP com pós-doutorado no Imperial College London, onde acontece atualmente pesquisas com lisérgicos.

Os usuários dizem que o tratamento melhora foco e criatividade no trabalho e resistência e performance na atividade física. Obviamente, há quem aponte os malefícios: “O uso de drogas para aumento de produtividade, como foi clássico com a cocaína nos anos 1990, é relativamente comum. Mas a produtividade dura pouco, e há um grande risco para a carreira e a vida, caso se desenvolva dependência”, alerta o neurologista Renato Anghinah, da Academia Brasileira de Neurociência.

Se nada der certo…
Apostas mais bizarras também têm adeptos. Os bares de oxigênio foram uma febre nos Estados Unidos nos anos 1990, e muitos ainda sobrevivem. Não há evidências científicas de que se expor às sessões, que podem durar até 20 minutos, traga uma melhor performance mental. Os fãs dos oxygen bars garantem que elas melhoram a atenção e o foco, reduzem estresse, causam efeito relaxante e até curam ressaca.
As terapias com eletrochoque, apesar de parecerem radicais, podem ser uma alternativa no futuro: um estudo de 2010 da Universidade de Oxford indicou que microchoques, combinados com treinos específicos, poderiam melhorar o desempenho em tarefas ligadas à fala em pacientes que sofreram derrame.
Lumosity
Cria um programa sob medida para dar agilidade e precisão, com diversos exercícios baseados no perfil informado. Disponível para Android e iOS.

Fit Brains
São mais de 60 jogos e exercícios para memória, linguagem e rapidez de raciocínio baseados em psicologia cognitiva e neurociência. Disponível para Android e iOS.

Memrise
Cursos de idiomas, matemática, ciências e outros assuntos, baseados em técnicas de memorização. Disponível para Android e iOS.

14.026 – Psicologia – Pioneiro e Ilustre Desconhecido


James william
William James (1842-1910) foi um filósofo americano e pioneiro da Psicologia em 1875. Montou um laboratório na Universidade de Harvard e sua obra Princípios de Psicologia de 1890 é um dos poucos clássicos da disciplina.
Ele foi o primeiro intelectual a oferecer um curso de psicologia nos Estados Unidos. James foi um dos principais pensadores do final do século XIX e é considerado por muitos como um dos filósofos mais influentes da história dos Estados Unidos enquanto outros o rotularam de “pai da psicologia americana”
untamente com Charles Sanders Peirce e John Dewey, James é considerado uma das principais figuras associadas à escola filosófica conhecida como pragmatismo, e também é citado como um dos fundadores da psicologia funcional. Uma análise da da Psicologia Geral, publicada em 2002, classificou James como o 14º mais eminente psicólogo do século XX. Uma pesquisa publicada no American Psychologist em 1991 classificou a reputação de James em segundo lugar, atrás apens de Wilhelm Wundt, que é amplamente considerado o fundador da psicologia experimental. James também desenvolveu a perspectiva filosófica conhecida como empirismo radical. O trabalho de James influenciou intelectuais como Émile Durkheim, Edmund Husserl, Bertrand Russell, Ludwig Wittgenstein, Hilary Putnam e Richard Rorty, e até presidentes, como Jimmy Carter.
Nascido em uma família rica, James era filho do teólogo de Swedenborgian Henry James Sr. e irmão do famoso romancista Henry James. James inicialmente estudou medicina, mas nunca exerceu a profissão. Em vez disso, descobriu que seus verdadeiros interesses estavam na filosofia e na psicologia. James escreveu amplamente sobre muitos tópicos, incluindo epistemologia, educação, metafísica, psicologia, religião e misticismo. Entre seus livros mais influentes estão: Os princípios da psicologia, que foi um texto inovador no campo da psicologia; Essays in Radical Empiricism, um importante texto em filosofia; e As Variedades da Experiência Religiosa, onde James investiga diferentes formas de experiência religiosa, incluindo teorias sobre a cura de patologias mentais.
Em 1864, James decidiu ingressar o curso de medicina, na Harvard Medical School. Foi nesse período que ele começou a estudar teologia. Ele interrompeu seus estudos durante parte de 1865 para se juntar ao zoólogo e geólogo suíço Louis Agassiz numa expedição científica (Expedição Thayer) no Brasil. Permaneceu oito meses no país, principalmente no Rio de Janeiro e na Amazônia, inclusive rascunhou um diário e produziu diversos desenhos de cenas da expedição, que expressam uma consciência crítica e um distanciamento moral da ideia colonialista que a norteava. Teve de interromper sua viagem após sentir forte enjoo e contrair varíola.

Seus estudos foram interrompidos mais uma vez devido a doenças em abril de 1867. Ele viajou à Alemanha em busca de uma cura, onde ficou até novembro de 1868. Esse período marcou o início de sua produção literária, com alguns de seus artigos aparecendo em publicações especializadas. James completou o curso de medicina em Junho de 1869, mas nunca praticou essa profissão. Ele se casou com Alice Gibbens em 1878.
Durante seus anos em Harvard, James se juntou a discussões filosóficas com Charles Sanders Peirce, Oliver Wendell Holmes e Chauncey Wright, que evoluíram em um animado grupo conhecido como o Clube Metafísico, em 1872. Louis Menand, em seu livro sobre o assunto, especula que o Clube estabeleceu os fundamentos para o pensamento intelectual norte-americano por décadas.

Em 1882 ele começou a ser um notório pesquisador científico da paranormalidade, se associando a recém fundada inglesa Society for Psychical Research, organização que o influenciou a fundar em 1885 a American Society for Psychical Research. Durante duas décadas estudou a médium Leonora Piper, junto a cientistas das duas organizações. Em 1896, um discurso no qual ele descreveu Piper como uma paranormal autêntica chegou a ser publicado pela revista Science.
Em 1890, após 12 anos de escrita, William James publicou o livro Princípios de Psicologia, uma obra pioneira que combinava elementos de filosofia, fisiologia e psicologia. O livro abordou temas diversos como o fluxo de consciência (conceito introduzido por James), a vontade e as emoções. Embora inclua diferentes abordagens e métodos, James (influenciado por contemporâneos como Wilhelm Wundt e Gustav Theodor Fechner) declarou que Princípios de Psicologia é uma obra derivada do método da introspecção. Assim, o autor utiliza diferentes experiências próprias para ilustrar conceitos psicológicos, como a atenção e a consciência.

Um dos capítulos mais influentes dessa obra diz respeito às emoções. Nele, James expõe sua teoria – também associada a Carl Lange – que as emoções são conseqüências, e não causas, das reações fisiológicas associadas a ela: “O senso comum diz, nós perdemos algo, ficamos tristes e choramos; nós encontramos um urso, nos assustamos e corremos; somos insultados por um rival, ficamos bravos e atacamos. A hipótese a ser defendida aqui é que essa sequência está incorreta… que nós nos sentimos tristes porque choramos, bravos porque atacamos, e com medo porque trememos”. James defendia que é conceitualmente impossível imaginar uma emoção como a culpa sem suas claras consequências fisiológicas, como as lágrimas, dores no peito e falta de ar.

Pragmatismo
A perspectiva filosófica exposta em Pragmatismo, de 1907, postula que as teorias científicas e filosóficas devem ser usadas como instrumentos a serem julgados por seus resultados ou fins. James argumenta que todas as teorias são apenas aproximações da realidade, e que portanto seria um erro considerá-las apenas por sua própria coerência interna. O autor argumenta que essa busca por coerência seria a posição racionalista, em que a busca de princípios e categorias platônicas se sobrepõe aos fatos e aos resultados. Em contraponto, James sugere que a veracidade de uma ideia deve ser considerada em um sentido instrumental, analisando os resultados produzidos por sua adoção.

Uma das consequências dessa visão utilitária da verdade é que fenômenos como a religião, que para James são ideias úteis, deveriam ser considerados verdadeiros se mostrassem bons resultados: “em princípios pragmáticos, se a hipótese de Deus funciona satisfatoriamente no sentido mais amplo da palavra, ela é verdadeira”. A filosofia do pragmatismo é, para James, um meio-termo entre o racionalismo e o empiricismo, sendo uma perspectiva aberta à investigação de qualquer hipótese, desde que essa seja capaz de se mostrar concretamente útil. A perspectiva pragmatista de James teve grande influência para o movimento funcionalista da psicologia.