7350 – As maiores descobertas da História da Medicina


MEDICINA simbolo

Transplante de órgãos
Os transplantes inicialmente se resumiam a um único órgão: o rim. Atualmente, já se é possível transplantar coração, pulmão, fígado, tecido pancreático e medula óssea. No futuro, certamente, outros órgãos também poderão ser substituídos. O sucesso dos transplantes se deve, antes de tudo, à imunologia, pela descoberta dos antígenos de histocompatilidade, e à farmacologia, pela obtenção de drogas imunossupressoras. O uso de próteses também tende a se expandir em diferentes especialidades, pela disponibilidade de materiais inertes e duráveis, incapazes de provocar reações teciduais.

Progressos cirúrgicos
Grandes progressos nos atos cirúrgicos – com destaque para a cirurgia cardíaca, a neurocirurgia e a oftalmologia – foram possíveis graças à colaboração de outras disciplinas, como a anestesiologia, a neurofisiologia, a bacteriologia e a imunologia. O coração, antes intocável, tornou-se um órgão acessível, graças à introdução da circulação extra-corpórea, que permitiu a correção das malformações congênitas, a revascularização e outros tipos de operações. Já a neurocirurgia e a oftalmologia se beneficiaram com o uso dos raios laser.

A Fecundação Artificial
A fecundação artificial do óvulo em laboratório e o implante intra-uterino do ovo fecundado são uma façanha sem paralelo na história da reprodução humana. A partir dessa descoberta, acredita-se que o caminho esteja aberto para que se possa conseguir, no futuro, o desenvolvimento do embrião fora do ventre materno. Já a clonagem de animais pela manipulação celular mostrou ser possível a clonagem de seres humanos, enquanto as células-tronco provaram seu potencial no tratamento de muitas doenças degenerativas.

A Engenharia Genética
O campo da engenharia genética deu origem a um acontecimento promissor: a determinação da estrutura do DNA – base de toda matéria viva e responsável pela transmissão do código genético. Mais tarde, reveladas as chamadas enzimas de restrição, capazes de fragmentar a molécula do DNA, tornou-se possível alterar o código genético de uma célula, introduzindo nela um segmento de DNA de outra totalmente diferente. A engenharia genética já colabora para a produção de hormônios, enzimas e vacinas, e prevê-se que sua atuação se amplie consideravelmente no futuro.

Fibro e Videoscopia
A fibroendoscopia foi um grande progresso nos métodos diagnósticos porque substituiu os então utilizados aparelhos metálicos, rígidos e cheios de limitações. Em 1958, foi publicado o primeiro trabalho sobre a utilização de fibra óptica em endoscopia, resolvendo um dos problemas aparentemente insolúveis: o da curvatura da luz. A novidade possibilitou a obtenção das imagens antes não alcançadas. Vinte anos depois, a fibroendoscopia foi superada pela videoendoscopia.

Os laboratórios desenvolveram técnicas de alta sensibilidade que contribuíram para o diagnóstico clínico. Um exemplo foi o radioimunoensaio (que depois evoluiu para o método imunoenzimático), que permitiu detectar substâncias em concentrações infinitamente pequenas nos líquidos orgânicos e nos tecidos. Algumas dessas substâncias são os hormônios, os peptídios, os neurotransmissores, os antígenos e os anticorpos. Pela descoberta do radioimunoensaio, Rosalyn Yallow recebeu o prêmio Nobel de 1974. Ela foi a segunda mulher a receber essa distinção em Fisiologia e Medicina.

Diagnóstico por Imagens
A descoberta dos raios-X, no final do século XIX, e sua aplicação com fins diagnósticos, no início do século XX, constituíram um marco importante na história da medicina. Seu sucesso levou à busca de outros métodos diagnósticos por imagens, que resultou no surgimento da ultra-sonografia, método de larga aplicação, sobretudo em obstetrícia; da tomografia computadorizada, cuja alta resolução permitiu o diagnóstico de lesões não detectáveis pelos métodos anteriores; e da ressonância nuclear magnética, capaz de gerar imagens nítidas das áreas magnetizadas, substituindo outros exames mais agressivos.
Síntese dos Hormônios
O isolamento e a determinação da estrutura química de hormônios possibilitou a síntese de grande parte deles em laboratório. Dois exemplos práticos são a composição artificial da insulina, usada no tratamento da diabetes mellitus, e da cortisona, de grande poder antiinflamatório e imunossupressor. A descoberta das vitaminas, por sua vez, revolucionou a prevenção e o tratamento das doenças resultantes de carências específicas desses elementos: escorbuto, beribéri, pelagra e raquitismo, raramente encontradas hoje em dia.
Os Antibióticos
A descoberta dos antibióticos, na primeira metade do século XX, reduziu drasticamente as taxas de mortalidade. Se até então doenças como pneumonia e febre tifóide matavam milhares de pessoas no mundo todo, elas passaram a ser controladas a partir daí. Moléstias de difícil tratamento no passado, como sífilis, tuberculose e lepra, também puderam ser curadas graças aos antibióticos. Entretanto, algumas bactérias terminaram por criar resistência à substância, o que incentivou uma busca continuada de novos tratamentos.
Vacinas
A maior contribuição da medicina à saúde foi no campo da prevenção das doenças, por meio da imunização em massa e das ações desenvolvidas sobre o meio ambiente. Doenças como tétano, difteria, coqueluche, sarampo, poliomielite, febre amarela e hepatite B já podem ser evitadas graças à existência de vacinas eficazes. Medidas voltadas para o meio ambiente, como saneamento básico, hábitos de higiene e melhoria das habitações, também contribuíram em larga escala para a elevação do nível de saúde a partir do século XX.

7349 – Se as supercolas colam tudo, como elas não colam na embalagem?


O truque dos fabricantes é embalar a supercola a vácuo, mantendo a substância adesiva longe do contato com o ar. Isso porque é a umidade da atmosfera que faz a supercola ficar bem grudenta. Vamos explicar como isso acontece usando o exemplo da mais famosa supercola, a Super Bonder. Ela é composta por moléculas de cianoacrilato de etila, uma substância colante que naturalmente adere a plásticos ou metais. Dentro da embalagem, as moléculas de cianoacrilato ficam bem separadas entre si. Por isso, elas não grudam no tubo. Mas quando a gente abre a embalagem, tudo muda: a umidade age como um “gancho” que liga as moléculas de cianoacrilato, transformando a cola na substância supergrudenta que a gente conhece. Essa reação tem um nome: polimerização. “Isso fica mais claro em supercolas do tipo epóxi, como a Araldite. Nesse caso, a substância colante vem em uma embalagem e a que promove a polimerização em outra. Antes de usar a cola, a gente mistura as duas substâncias”, diz um químico da USP. Se você errar o alvo e grudar os próprios dedos, não se desespere: assim que a cola endurecer, use uma lixa de unha para raspá-la. A água quente também ajuda a amolecer o adesivo.

A substância adesiva de supercolas é o cianoacrilato de etila. Na embalagem, as moléculas de cianoacrilato não têm contato com o ar e ficam longe umas das outras. Por isso, elas não grudam no tubo.
Quando o tubo é aberto, as moléculas de cianoacrilato encontram moléculas de água no ar. O vapor atua como um agente de ligação entre as moléculas de cianoacrilato, deixando-as juntas e fazendo-as aderir a quase todos os materiais.

7348 – Como são produzidos os closed captions para programas ao vivo?


Closed caption ou CC – que pode ser traduzido como “legenda oculta” – são aqueles textos que reproduzem na tela da TV o que os apresentadores dos programas estão falando. Como esse recurso é especialmente usado para ajudar os deficientes auditivos, o CC não é igual à legenda dos filmes: ele também indica em palavras os outros sons do vídeo, como “chuva” ou “passos”. Em programas gravados, o CC que os espectadores vêem na tela é o mesmo texto que aparece no teleprompter, um aparelho acoplado à câmera do estúdio que mostra o que o apresentador deve ler. Quando o show é ao vivo, existem dois métodos principais para produzir o CC. O primeiro, mais comum nos Estados Unidos, é a estenotipia. Nesse processo, um profissional especializado (o estenotipista) registra tudo que é dito no programa em um teclado especial, cujos botões são baseados em fonemas em vez de letras. Com isso, ele escreve 200 palavras por minuto. No Brasil, a TV Globo bolou um segundo método: o reconhecimento de voz. Funciona assim: um operador repete tudo o que os apresentadores falam, o computador converte a voz do cara em texto e o resultado desse “ditado” vai para a tela. O único problema é que o grau de precisão desse sistema é um pouco menor. Às vezes, o computador pode confundir alguns fonemas, como “lhe” e “lie”. Tirando isso, é uma bela ferramenta para quem não pode ouvir.

O passo inicial para a produção de um closed caption ao vivo é, claro, a fala dos apresentadores. De dentro do estúdio, eles transmitem as notícias do telejornal falando com naturalidade, como se não houvesse pessoas com problemas de audição assistindo à TV
Durante o programa, um profissional treinado assiste a tudo dentro de uma sala e repete as falas dos apresentadores e dos repórteres em um microfone. A voz do profissional é captada por um computador e alimenta um programa de reconhecimento de voz
Calibrado especialmente para a voz do profissional — que passa por um treinamento para aprender a falar com clareza —, o programa de reconhecimento de voz transforma os sons da voz em palavras na tela do computador
Antes de soltar as legendas para a TV, o profissional usa o teclado para acrescentar palavras que ajudem os deficientes auditivos a entender a imagem, como “risos” ou “som alto”. Com um toque no teclado, o operador libera as legendas para uma linha de dados
As informações dessa linha de dados são transmitidas para as casas junto com a imagem e o som da TV, mas só aparecem quando o telespectador aperta a tecla CC (closed caption). Essa opção, você sabe, só está disponível nos televisores mais modernos.

7347 – ☻ Mega Byte – Como um e-mail é enviado?


Nossas mensagens seguem uma rota que passa por pelo menos quatro computadores. O primeiro, claro, é aquele em que a gente está digitando o e-mail. O quarto e último também é óbvio: é a máquina de quem vai receber a mensagem. O segredo está justamente no segundo e no terceiro computadores, que formam o meio de campo entre a máquina do remetente e a do destinatário. Esses dois computadores intermediários são os servidores. Um deles se chama SMTP, abreviação para Simple Mail Transfer Protocol, ou “protocolo simples de transferência de correio”. O outro é o POP3, Post Office Protocol, ou “protocolo de correio” – o 3 significa que esse tipo de servidor está na terceira versão. Esses servidores são enormes máquinas que fazem um serviço bem parecido com o do correio tradicional, armazenando, separando e mandando as mensagens para o endereço correto. Para realizar essas tarefas, os servidores utilizam programas que gerenciam todo o tráfego de mensagens, fazendo com que cada uma delas seja entregue para a pessoa certa. Os servidores são mantidos por serviços de e-mail como Yahoo!, Hotmail, UOL e Gmail, ou por empresas e instituições de ensino, para que trabalhadores e estudantes tenham um endereço de e-mail ligado a elas. Graças a esses megacomputadores, existem hoje cerca de 547 milhões de endereços de e-mail no mundo, que diariamente mandam 91 bilhões de mensagens eletrônicas pela web. Já é uma quantidade muito superior ao de cartas convencionais que os correios entregam. Só para dar uma idéia, no Brasil, circulam perto de 15 bilhões de e-mails por ano, enquanto o total de cartas não chega a 8 bilhões. Tá certo que os e-mails são muito mais rápidos que as mensagens de papel e caneta, mas o correio eletrônico também tem inconvenientes. Uma das maiores dores de cabeça são os spams, aquelas mensagens indesejáveis que a gente não pediu para receber, mas que entopem nosso correio eletrônico. A cada dia, nada menos que 28 bilhões de spams aborrecem os usuários de e-mails por todo o planeta!

Quando um usuário escreve um e-mail e aperta a tecla “enviar”, o computador começa uma viagem para entregar a mensagem. Primeiro, ele transforma a seqüência de letras e números na linguagem digital binária, formando enormes combinações de zeros (0) e uns (1), que variam de acordo com o que foi escrito.
No passo seguinte, a máquina do remetente precisa se conectar a um grande computador, o servidor, que vai armazenar e encaminhar a mensagem para o destino correto. Geralmente, essa conexão é feita por programas do tipo “cliente de e-mail”, como o Microsoft Outlook ou o Eudora. Quando a mensagem é mandada por um serviço de e-mail que tem site na internet (o chamado webmail), os próprios sites se conectam ao servidor
Por meio de cabos ou linhas telefônicas, a mensagem chega ao servidor do remetente. Chamado de SMTP, esse servidor é um grande computador que identifica o domínio (a parte do endereço que vem depois do @) para encaminhar cada mensagem. Os e-mails que terminam em “@hotmail.com”, por exemplo, vão para o servidor do Hotmail, e assim por diante.
Na quarta etapa, quem recebe as mensagens do SMTP é o servidor do destinatário, chamado de POP3. Ele entrega as mensagens recebidas por cada usuário. Para isso, o POP3 leva em conta o nome que vem antes do @. Por exemplo, o servidor POP3 do Hotmail separa todos os e-mails mandados a maria@hotmail.com e os envia para a caixa postal do usuário
A caixa postal de cada usuário nada mais é que um setor do disco rígido do servidor POP3. Protegida por senha, ela só pode ser acessada pelo dono da conta de e-mail. O tamanho da caixa postal varia em cada provedor — hoje, alguns serviços gratuitos oferecem até 100 megabytes de espaço para mensagens.
O passo final é quando o destinatário lê a mensagem. Para fazer isso, ele acessa a caixa postal usando novamente um programa do tipo cliente de e-mail ou o site de webmail. No computador, o modem faz o processo inverso do primeiro passo: converte a informação digital em letras e números, deixando o e-mail legível na tela.

7346 – Novo recorde de temperatura em 2012


antártida capa de gelo

O ano de 2012 deve ser um dos mais quentes da história. Dados da Organização Meteorológica Mundial, da ONU, indicaram que o período entre janeiro e outubro deste ano foi o nono mais quente desde que as medições foram iniciadas, em 1850.
As temperaturas se elevaram mesmo com a ocorrência, no início do ano, do fenômeno meteorológico La Niña, que favorece o resfriamento.
Com a dissipação do La Niña, em abril, os termômetros deram um salto. A temperatura entre maio e outubro foi a quarta mais alta já registrada para esse período.
De acordo com o relatório, divulgado ontem durante a COP 18, conferência do clima da ONU que acontece agora em Doha (Qatar), 2012 está sendo marcado por eventos climáticos extremos.
O documento destaca as altas temperaturas na América do Norte, Europa e parte da África, além das secas que castigaram boa parte do globo, inclusive a região Nordeste do Brasil.
O degelo recorde no Ártico também recebeu destaque.
No dia 16 de setembro, a cobertura chegou à menor quantidade já registrada desde que a medição por satélite começou: 3,41 milhões de quilômetros quadrados.
O furacão Sandy, que atingiu o Caribe e a Costa Oeste dos EUA, bem como, mais uma vez, a existência de intensa temporada de tempestades tropicais, também foram destacados pelo grupo.
Os EUA, aliás, caminham para o que deve ser o ano mais quente já registrado. Seu vizinho, o Canadá, deve ter a terceira maior média histórica anual.
De uma maneira geral, a temperatura média no planeta ficou 0,45°C mais quente do que o que a de 1961 a 1990.

Antártida
O oeste da Antártida está esquentando em um ritmo que é o dobro do estimado anteriormente, segundo estudo publicado nesta semana na “Nature Geoscience”.
A média anual de temperaturas na estação de pesquisa Byrd, no oeste do continente, aumentou 2,4 º C desde a década de 1950, um dos crescimentos mais rápidos do planeta e três vezes mais veloz que a média global, segundo a pesquisa.
O achado dá força ao temor de que a camada de gelo esteja sujeita a derretimento. O oeste da Antártida contém gelo suficiente para aumentar o nível do mar em 3,3 metros se um dia derretesse, um processo que pode levar séculos.
“A porção ocidental da camada de gelo está sofrendo quase o dobro do aquecimento estimado antes”, diz nota publicada pela Universidade Ohio State sobre o estudo liderado pelo professor de geografia David Bromwich.
Segundo a universidade, o aquecimento levanta preocupação sobre a contribuição futura da Antártida no aumento do nível do mar. No último século, os oceanos avançaram cerca de 20 cm.
Um painel de especialistas da ONU prevê que o nível do mar aumentará entre 18 e 59 cm neste século ou até mais, caso o degelo da Groenlândia e da Antártida se acelere.
O aumento nas temperaturas no oeste do continente é comparável ao que ocorreu na península Antártica, ao norte. Muitas plataformas de gelo entraram em colapso ao redor da Antártida nos últimos anos e, uma vez que as plataformas se quebram, as geleiras por trás sofrem deslizamentos mais rápido, aumentando o nível do mar.
Os cientistas dizem que já houve um derretimento esparso das camadas de gelo no oeste do continente em 2005.
“Um aumento contínuo das temperaturas no verão poderia levar a episódios de derretimento mais extensos e frequentes”, dizem os pesquisadores, que refizeram o registro de temperatura no oeste da Antártida desde 1958, com a ajuda de simulações feitas por computador.

7345 – Genética – Sinal verde para o salmão transgênico


A FDA (agência que regula remédios e alimentos nos EUA) afirmou que um salmão transgênico que cresce duas vezes mais rápido que o normal não causaria grande impacto ambiental, o que abre caminho para a aprovação do primeiro animal geneticamente modificado para ser consumido por humanos.
A agência ainda fará uma consulta pública sobre o tema, mas especialistas veem a declaração como o último passo antes da aprovação.
Em 2010, a FDA afirmou que o peixe era seguro como alimento, mas não tomou outras medidas desde então.
Empresários da Aquabounty, que produz o peixe, especulam que o governo tem prorrogado qualquer ação por pressão de grupos que se opõem aos transgênicos.
Críticos, que chamam o salmão de “frankenpeixe”, temem que ele possa causar alergias ou até dizimar a população natural de salmões se a variedade transgênica procriar na natureza –sem contar os questionamentos éticos envolvidos.
A empresa, que já gastou mais de US$ 67 milhões para desenvolver o peixe, afirma que há medidas protetoras contra problemas ambientais –uma delas é que só seriam criadas fêmeas estéreis, ainda que uma pequena porcentagem pudesse se reproduzir.
O peixe transgênico recebeu um gene de hormônio do crescimento do salmão do Pacífico, que é mantido “funcionando” o ano inteiro por meio de um gene de um peixe similar a uma enguia. A combinação permite que o salmão chegue ao peso ideal para venda em 18 meses em vez de três anos.
Ainda não está claro, porém, se o público aprovará o peixe, caso a FDA dê seu aval.
Se o salmão entrar no mercado, os consumidores podem nem saber que estão comprando peixe transgênico, já que o produto não seria acompanhado de qualquer aviso caso seja decido que ele tem as mesmas propriedades do convencional.
A empresa diz que o novo salmão é similar ao “normal” em sabor, cor e textura.