13.269 – Mega Byte – A Ciência da Computação


ciencia da computacao

“ Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio, a biologia com o microscópio, ou a química com os tubos de ensaio. A ciência não estuda ferramentas, mas o que fazemos e o que descobrimos com elas. ”

É a ciência que estuda as técnicas, metodologias e instrumentos computacionais, que automatiza processos e desenvolve soluções baseadas no uso do processamento digital. Não se restringe apenas ao estudo dos algoritmos, suas aplicações e implementação na forma de software, extrapolando para todo e qualquer conhecimento pautado no computador, que envolve também a telecomunicação, o banco de dados e as aplicações tecnológicas que possibilitam atingir o tratamento de dados de entrada e saída, de forma que se transforme em informação. Assim, a Ciência da Computação também abrange as técnicas de modelagem de dados e os protocolos de comunicação, além de princípios que abrangem outras especializações da área.
Enquanto ciência, classifica-se como ciência exata, apesar de herdar elementos da lógica filosófica aristotélica, tendo por isto um papel importante na formalização matemática de algoritmos, como forma de representar problemas decidíveis, i.e., os que são susceptíveis de redução a operações elementares básicas, capazes de serem reproduzidas através de um qualquer dispositivo mecânico/eletrônico capaz de armazenar e manipular dados. Um destes dispositivos é o computador digital, de uso generalizado, nos dias de hoje. Também de fundamental importância para a área de Ciência da Computação são as metodologias e técnicas ligadas à implementação de software que abordam a especificação, modelagem, codificação, teste e avaliação de sistemas de software.
Os estudos oriundos da Ciência da Computação podem ser aplicados em qualquer área do conhecimento humano em que seja possível definir métodos de resolução de problemas baseados em repetições previamente observadas. Avanços recentes na Ciência da Computação tem impactado fortemente a sociedade contemporânea, em particular as aplicações relacionadas às áreas de redes de computadores, Internet, Web e computação móvel que têm sido utilizadas por bilhões de pessoas ao redor do globo.

abaco

Um pouco de História
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a habitantes da Mesopotâmia, em torno de 2700–2300 a.C.. Seu uso original era desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.
No século VII a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou transformações e recursividade com tamanha sofisticação que sua gramática possuía o poder computacional teórico tal qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os logaritmos para uso computacional no século XVI, seguiu-se um período de considerável progresso na construção de ferramentas de cálculo.
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o sistema de numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o matemático persa al-Khwarizmi escreveu o livro Calculando com numerais hindus, responsável pela difusão do sistema de numeração hindu-arábico no Oriente Médio, e posteriormente na Europa. Por volta do século XII houve uma tradução do mesmo livro para o latim: Algoritmi de numero Indorum. Tais livros apresentaram novos conceitos para definir sequências de passos para completar tarefas, como aplicações de aritmética e álgebra. Por derivação do nome do matemático,actualmente usa-se o termo algoritmo.

Lógica binária
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de numeração binário. Ainda usado atualmente no processamento de todos computadores modernos, o sistema estabelece que sequências específicas de uns e zeros podem representar qualquer informação.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e matemático, utilizando o sistema binário. Em seu sistema, uns e zeros também representam conceitos como verdadeiro e falso, ligado e desligado, válido e inválido. Mais de um século depois, George Boole publicou a álgebra booleana (em 1854), com um sistema completo que permitia a construção de modelos matemáticos para o processamento computacional. Em 1801, apareceu o tear controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual buracos indicavam os uns e, áreas não furadas, indicavam os zeros. O sistema está longe de ser um computador, mas ilustrou que as máquinas poderiam ser controladas pelo sistema binário.

Foi com Charles Babbage que o computador moderno começou a ganhar forma, através de seu trabalho no engenho analítico. O equipamento descrito originalmente em 1837, mais de um século antes de seu sucessor, nunca foi construído com sucesso, mas possuía todas as funções de um computador moderno. O dispositivo de Babbage se diferenciava por ser programável, algo imprescindível para qualquer computador moderno.
Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros programas de computador em uma série de notas para o engenho analítico. Por isso, Lovelace é popularmente considerada como a primeira programadora.

Nascimento da Ciência da Computação
Antes da década de 1920, computador era um termo associado a pessoas que realizavam cálculos, geralmente liderados por físicos. Milhares de computadores eram empregados em projetos no comércio, governo e sítios de pesquisa. Após a década de 1920, a expressão máquina computacional começou a ser usada para referir-se a qualquer máquina que realize o trabalho de um profissional, especialmente aquelas de acordo com os métodos da Tese de Church-Turing.
O termo máquina computacional acabou perdendo espaço para o termo reduzido computador no final da década de 1940, com as máquinas digitais cada vez mais difundidas. Alan Turing, conhecido como pai da Ciência da Computação, inventou a Máquina de Turing, que posteriormente evoluiu para o computador moderno.
Os fundamentos matemáticos da Ciência da Computação moderna começaram a ser definidos por Kurt Gödel com seu teorema da incompletude (1931). Essa teoria mostra que existem limites no que pode ser provado ou desaprovado em um sistema formal; isso levou a trabalhos posteriores por Gödel e outros teóricos para definir e descrever tais sistemas formais, incluindo conceitos como recursividade e cálculo lambda.
Em 1936 Alan Turing e Alonzo Church independentemente, e também juntos, introduziram a formalização de um algoritmo, definindo os limites do que pode ser computador e um modelo puramente mecânico para a computação. Tais tópicos são abordados no que atualmente chama-se Tese de Church-Turing, uma hipótese sobre a natureza de dispositivos mecânicos de cálculo. Essa tese define que qualquer cálculo possível pode ser realizado por um algoritmo sendo executado em um computador, desde que haja tempo e armazenamento suficiente para tal.
Turing também incluiu na tese uma descrição da Máquina de Turing, que possui uma fita de tamanho infinito e um cabeçote para leitura e escrita que move-se pela fita. Devido ao seu caráter infinito, tal máquina não pode ser construída, mas tal modelo pode simular a computação de qualquer algoritmo executado em um computador moderno. Turing é bastante importante para a Ciência da Computação, tanto que seu nome é usado para o Prêmio Turing e o teste de Turing. Ele contribuiu para a quebra do código da Alemanha pela Grã-Bretanha[3] na Segunda Guerra Mundial, e continuou a projetar computadores e programas de computador pela década de 1940; cometeu suicídio em 1954.
Até a década de 1930, engenheiros eletricistas podiam construir circuitos eletrônicos para resolver problemas lógicos e matemáticos, mas a maioria o fazia sem qualquer processo, de forma particular, sem rigor teórico para tal. Isso mudou com a tese de mestrado de Claude Shannon de 1937, A Symbolic Analysis of Relay and Switching Circuits. Enquanto tomava aulas de Filosofia, Shannon foi exposto ao trabalho de George Boole, e percebeu que poderia aplicar esse aprendizado em conjuntos eletro-mecânicos para resolver problemas. Shannon desenvolveu a teoria da informação no artigo de 1948: A Mathematical Theory of Communication , cujo conteúdo serve como fundamento para áreas como compressão de dados e criptografia.
Apesar de sua pequena história enquanto uma disciplina acadêmica, a Ciência da Computação deu origem a diversas contribuições fundamentais para a ciência e para a sociedade. Esta ciência foi responsável pela definição formal de computação e computabilidade, e pela prova da existência de problemas insolúveis ou intratáveis computacionalmente.
Também foi possível a construção e formalização do conceito de linguagem de computador, sobretudo linguagem de programação, uma ferramenta para a expressão precisa de informação metodológica flexível o suficiente para ser representada em diversos níveis de abstração.
Para outros campos científicos e para a sociedade de forma geral, a Ciência da Computação forneceu suporte para a Revolução Digital, dando origem a Era da Informação.
A computação científica é uma área da computação que permite o avanço de estudos como o mapeamento do genoma humano (ver Projeto Genoma Humano).

Blaise Pascal, desenvolveu a calculadora mecânica e tem seu nome em uma linguagem de programação;
Charles Babbage, projetou um computador mecânico, a máquina analítica;
Ada Lovelace, considerada a primeira pessoa programadora, deu nome à uma linguagem de programação;
Alan Turing, participou do projeto Colossus e foi um dos cérebros que decifra a Enigma. Também inventou um tipo teórico de máquina super-simples capaz de realizar qualquer cálculo de um computador digital, a Máquina de Turing
John von Neumann, descreveu o computador que utiliza um programa armazenado em memória, a Arquitetura de von Neumann, que é a base da arquitetura dos computadores atuais
John Backus, líder da equipe que criou o Fortran e criou a notação BNF
Maurice Vicent. Wilkes, inventor do somador binário
Howard Aiken, inventor do Mark I
Walter H. Brattain, inventor do transístor
William Shockley, inventor do transístor
John Bardeen, inventor do transístor
Fred Williams, inventor da memória RAM
Tom Kilburn, inventor da memória RAM
Konrad Zuse, inventor independente do computador digital e de linguagens de programação na Alemanha nazista
John Atanasoff, inventor do primeiro computador digital, o Atanasoff–Berry Computer, ABC
Clifford Berry, assistente de Atanasoff
Almirante Grace Hopper, programadora do Mark I, desenvolveu o primeiro compilador; primeira mulher a receber um Ph.D. em matemática
Edsger Dijkstra, líder do ALGOL 60, publicou o artigo original sobre programação estruturada
J. Presper Eckert, criador do ENIAC
John William Mauchly, criador do ENIAC

Abrange
Arquitetura de computadores — o desenvolvimento, a organização, a otimização e a verificação de sistemas computacionais
Computação distribuída — computação sendo executada em diversos dispositivos interligados por uma rede, todos com o mesmo objetivo comum
Computação paralela — computação sendo executada em diferentes tarefas; geralmente concorrentes entre si na utilização de recursos
Computação quântica — representação e manipulação de dados usando as propriedades quânticas das partículas e a mecânica quântica
Sistemas operacionais — sistemas para o gerenciamento de programas de computador e para a abstração da máquina, fornecendo base para um sistema utilizável
Por ser uma disciplina recente, existem várias definições alternativas para a Ciência da Computação. Ela pode ser vista como uma forma de ciência, uma forma de matemática ou uma nova disciplina que não pode ser categorizada seguindo os modelos atuais. Várias pessoas que estudam a Ciência da Computação o fazem para tornarem-se programadores, levando alguns a acreditarem que seu estudo é sobre o software e a programação. Apesar disso, a maioria dos cientistas da computaçao são interessados na inovação ou em aspectos teóricos que vão muito além de somente a programação, mais relacionados com a computabilidade.
Apesar do nome, muito da Ciência da Computação não envolve o estudo dos computadores por si próprios. De fato, o conhecido cientista da computação Edsger Dijkstra é considerado autor da frase “Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio […]”. O projeto e desenvolvimento de computadores e sistemas computacionais são geralmente considerados disciplinas fora do contexto da Ciência da Computação. Por exemplo, o estudo do hardware é geralmente considerado parte da engenharia da computação, enquanto o estudo de sistemas computacionais comerciais são geralmente parte da tecnologia da informação ou sistemas de informação.
Por vezes a Ciência da Computação também é criticada por não ser suficientemente científica, como exposto na frase “Ciência é para a Ciência da Computação assim como a hidrodinâmica é para a construção de encanamentos”, credita a Stan Kelly-Bootle.
Apesar disso, seu estudo frequentemente cruza outros campos de pesquisa, tais como a inteligência artifical, física e linguística.
Ela é considerada por alguns por ter um grande relacionamento com a matemática, maior que em outras disciplinas. Isso é evidenciado pelo fato que os primeiros trabalhos na área eram fortemente influenciados por matemáticos como Kurt Gödel e Alan Turing; o campo continua sendo útil para o intercâmbio de informação com áreas como lógica matemática, teoria das categorias e álgebra. Apesar disso, diferente da matemática, a Ciência da Computação é considerada uma disciplina mais experimental que teórica.

Várias alternativas para o nome da disciplina já foram cogitadas. Em francês ela é chamada informatique, em alemão Informatik, em espanhol informática, em holandês, italiano e romeno informatica, em polonês informatyka, em russo информатика e em grego Πληροφορική. Apesar disso, tanto em inglês quanto em português informática não é diretamente um sinônimo para a Ciência da Computação; o termo é usado para definir o estudo de sistemas artificiais e naturais que armazenam processos e comunicam informação, e refere-se a um conjunto de ciências da informação que engloba a Ciência da Computação. Em Portugal, no entanto, apesar de a palavra estar dicionarizada com esse sentido amplo, o termo é usado como sinónimo de Ciência da Computação.
De forma geral, cientistas da computação estudam os fundamentos teóricos da computação, de onde outros campos derivam, como as áreas de pesquisa supracitadas. Como o nome implica, a Ciência da Computação é uma ciência pura, não aplicada. Entretanto, o profissional dessa área pode seguir aplicações mais práticas de seu conhecimento, atuando em áreas como desenvolvimento de software, telecomunicação, consultoria, análise de sistemas, segurança em TI, governança em TI, análise de negócios e tecnologia da informação. O profissional de computação precisa ter muita determinação na apreensão tecnológica, uma vez que esta área sofre contínuas transformações, modificando rapidamente paradigmas.

13.268 – Matemática – A lei dos Cossenos


sinais_matematicos
É um conjunto de expressões matemáticas que relaciona lados e ângulos de triângulos que não possuem um ângulo reto.
Utilizamos a lei dos cossenos nas situações que envolvem triângulos não retângulos. Esses triângulos não possuem ângulo reto, portanto, as relações trigonométricas de seno, cosseno e tangente não são válidas. Para determinar valores de medidas de ângulos e de lados, utilizamos a lei dos cossenos, que é expressa pela seguinte lei de formação:

a2 = b2 + c2 – 2·b·c·cosθ
b2 = a2 + c2 – 2·a·c·cosβ
c2 = a2 + b2 – 2·a·b·cosα

triangulo-nao-retangulo

Seno, cosseno e tangente relacionam as medidas dos lados de um triângulo retângulo com as medidas de seus ângulos. São chamados de relações trigonométricas ou razões trigonométricas.

O que é um triângulo retângulo?
Triângulo é um polígono que possui três lados. Quando um dos seus ângulos é igual a 90°, ele é chamado de retângulo.

triangulo-retangulo

Observe que o ângulo reto está no vértice C do triângulo. Os lados que partem desse vértice são chamados de adjacentes ao ângulo reto e, na Trigonometria, são conhecidos como catetos. O lado que sobra sempre é o maior do triângulo retângulo e é chamado de hipotenusa.

13.267 – Tour da Muamba – Ciudad del Este


Ciudad-del-este
A Grande Ciudad del Este é a segunda maior aglomeração urbana do Paraguai seja em relação a população ou superfície, sendo a aglomeração da Grande Assunção a maior do país. É uma das zonas do Paraguai com maior crescimento urbano nos últimos tempos. Possui uma área de 1017 km² pertencente aos quatro municípios, sendo apenas 120 km² de fato conurbados.
No distrito de Minga Guazú, encontra-se o Aeroporto Internacional Guaraní, o segundo mais importante do país. Este terminal aéreo tem apenas como destinos as cidades de Assunção, Montevidéu e São Paulo.
O Terminal de Ônibus de Ciudad del Este está localizado próximo do Estádio Antonio Oddone Sarubbi. Este terminal oferece serviços para muitas cidades do Paraguai e também a nível Internacional.
A cidade foi fundada através de decreto em 3 de fevereiro de 1957 com o nome Puerto Flor de Lis. Logo, teve seu nome alterado para Puerto Presidente Stroessner, em homenagem ao ditador Alfredo Stroessner. Após o golpe de estado que depôs o ditador em 3 de fevereiro de 1989, o comando revolucionário utilizou o nome Ciudad del Este. Nos dias posteriores, através de plebiscito, os cidadãos elegeram e confirmaram o nome de Ciudad del Este.
A cidade faz parte de um triângulo internacional conhecido na região como Tríplice Fronteira, que envolve também Foz do Iguaçu, no estado brasileiro do Paraná, e Puerto Iguazú, na província argentina de Misiones. As três cidades são separadas umas das outras pelo Rio Paraná e pelo Rio Iguaçu.
Com uma aglomeração urbana de 387 mil habitantes (2010), Ciudad del Leste é a segunda cidade mais populosa do Paraguai, ficando apenas atrás da capital Assunção, que tem 742 mil habitantes. Inúmeros brasileiros trabalham ilegalmente nessa cidadeː quase 50 mil.
A cidade é responsável por 10% do produto interno bruto paraguaio, que é de 3 bilhões de dólares estadunidenses. É a terceira maior zona franca de comércio do mundo (após Miami e Hong Kong). Seus clientes são, na maioria, brasileiros, paraguaios e coreanos atraídos pelos baixos preços dos produtos ali vendidos. Além disso, a cidade é o quartel-general da Itaipu Binacional, juntamente com Foz do Iguaçu, no Brasil. A venda de eletricidade da usina hidrelétrica de Itaipu para o Brasil gera mais de trezentos milhões de dólares estadunidenses de renda anual para o país.
O turismo de Ciudad del Este é caracterizado pelo turismo de compras, porém a cidade possui, também, atrativos turísticos que fogem a este padrão. A 20 quilômetros ao norte, em Hernandarias, se encontra a represa de Itaipú, que pode ser contemplada pelo lado paraguaio. A 8 quilômetros ao sul, se encontram os Saltos del Monday. A 26 quilômetros ao sul, está localizado o Monumento Científico Moisés Bertoni. O parque de Acaray oferece hospedagem aos visitantes. O lago de la República, que se encontra no centro da cidade, é um espaço de recreação rodeado pela vegetação. A Catedral de San Blás assemelha-se à forma de um barco e foi construída em 1964 com esculturas de pedra. O museu “El Mensú” foi o primeiro espaço destinado para reunir os mais diversos objetos que representam a história, cultura e tradição da cidade, tendo peças da época da fundação da cidade e utensílios de indígenas da região.
A temperatura média anual é de 21 °C, a máxima atinge 38 °C, e a mínima 0 °C. O maior montante anual de precipitação ocorre na região do Alto Paraná, terra do nevoeiro, do orvalho e do inverno permanente. Ciudad del Este tem um clima subtropical continental. No inverno de 1982, nevou pela segunda vez no Paraguai. Em novembro-dezembro de 2009, ocorreram quatro princípios de tornados, mas nunca estabelecidos em sua totalidade (é normal ver vórtices menores sobre o rio Paraná).

13.266 – Bioquímica – Como os primeiros compostos orgânicos teriam se formado na terra primitiva?


terra primitiva
há cerca de 3 biliões de anos atrás, quando a Vida começou na Terra… A jovem Terra, com 1,5 biliões de anos, tinha todas as condições para a vida como a conhecemos: uma temperatura estável, nem muito quente nem muito fria, energia abundante proveniente do Sol, massa suficiente para manter uma atmosfera e alguns ingredientes de que os organismos vivos são formados – carbono, oxigénio, hidrogênio e azoto, elementos estes que formam 98% dos organismos vivos. E como é que tudo começou? Como é que as moléculas complexas que foram os seres vivos se formaram a partir destes átomos e moléculas simples que existiam no nosso planeta?
Em 1923 A. I. Oparin, um químico russo, apresentou uma teoria sobre a forma como teria aparecido o primeiro composto orgânico, o precursor da Vida. Segundo ele na atmosfera da Terra havia pouco ou nenhum oxigénio livre, mas havia um conjunto de gases contendo vapor de água (H2O), assim como dióxido de carbono (CO2), azoto (N2), amoníaco (NH3) e metano (CH4). O Sol diminuiu de intensidade, formaram-se nuvens, relâmpagos, e a chuva caiu. As substâncias radioativas no interior da Terra decaíram libertando energia. A conjunção de todos estes factores permitiu que as primeiras moléculas orgânicas se formassem e evoluíssem permitindo a Vida. Ou seja, gases simples desintegraram-se e os seus componentes juntaram-se de forma mais complexa.

Um pouco mais:
Estima-se que o planeta Terra surgiu há aproximadamente 4,6 bilhões de anos e que, durante muito tempo, permaneceu como um ambiente inóspito, constituído por aproximadamente 80% de gás carbônico, 10% de metano, 5% de monóxido de carbono, e 5% de gás nitrogênio. O gás oxigênio era ausente ou bastante escasso, já que sua presença causaria a oxidação e destruição dos primeiros compostos orgânicos – o que não ocorreu, propiciando mais tarde o surgimento da vida.
Nosso planeta foi, durante muito tempo, extremamente quente em razão das atividades vulcânicas, jorrando gases e lava; ausência da camada de ozônio; raios ultravioletas, descargas elétricas e bombardeamento de corpos oriundos do espaço. Sobre isso, inclusive, sabe-se que a maioria do carbono e de moléculas de água existentes hoje foi parte constituinte de asteroides que chegaram até aqui.
Foi esta água que permitiu, ao longo de muito tempo, o resfriamento da superfície terrestre, em processos cíclicos e sucessivos de evaporação, condensação e precipitação. Após seu esfriamento, estas moléculas se acumularam nas depressões mais profundas do planeta, formando oceanos primitivos.
Agregadas a outras substâncias disponíveis no ambiente, arrastadas pelas chuvas até lá; propiciaram mais tarde o surgimento de primitivas formas de vida. Muitas destas substâncias teriam vindo do espaço, enquanto outras foram formadas aqui, graças à energia fornecida pelas descargas elétricas e radiações.
Um cientista que muito contribuiu para a compreensão de alguns destes aspectos foi Stanley Lloyd Myller, que, em 1953, criou um dispositivo que simulava as possíveis condições da Terra primitiva; tendo como resultado final a formação de moléculas orgânicas a partir de elementos químicos simples.

13.261 – Física – O campo magnético da Terra


campos-magneticos-terra
É como o campo magnético de um gigantesco ímã em forma de barra, que atravessa desde o Pólo Sul até o Pólo Norte do planeta. Mas é importante lembrar que os Pólos Magnéticos da Terra tem uma inclinação de 11,5° em relação aos Pólos Geográficos. Lembremos também que o Pólo Norte Geográfico também é inclinado em relação à linha perpendicular ao plano da órbita da Terra.

“… Note que o pólo norte magnético é, na realidade, um pólo sul do dipolo que representa o campo da Terra. O eixo magnético está aproximadamente na metade entre o eixo de rotação de rotação e a normal ao plano da órbita da Terra…” HALLIDAY (2004) pg.268.
É interessante salientar que os Pólos Norte e Sul determinados geograficamente são na verdade os pontos onde emergem as extremidades do eixo em torno do qual a Terra gira. O Pólo Norte Magnético considerado é o ponto de onde emergem as linhas de campo magnético mostradas na figura. E o Pólo Sul Magnético é na verdade o ponto para onde convergem as linhas de campo magnético que emergem do Pólo Sul Geográfico. No caso de um ímã, o norte é atraído pelo sul. Ou seja, o norte do ímã apontará para o pólo sul do campo magnético do interior da Terra.
Esse campo magnético do planeta é percebido e utilizado por diversas espécies de animais, como aves migratórias.

13.258 – Os estranhos animais híbridos criados pela mudança climática


camaleao2
O aquecimento global pode levar espécies inteiras à extinção!
Pesquisadores do departamento de ecologia da Universidade de Tuscia, na Itália, acreditam que a mudança climática fará com que sejam cada vez mais frequentes os casos de hibridização entre diferentes espécies animais.
Na Europa, por exemplo, estão sendo registrados vários cruzamentos entre sapos-europeus (bufo bufo), uma espécie presente em quase todo o continente, e sapos-baleares (bufotes balearicus), naturais do sul da Itália. Os dois animais, inclusive, sincronizaram seus ciclos reprodutivos – apesar de os girinos resultantes da união apresentarem problemas genéticos e não serem capazes de completar o ciclo da metamorfose.
Embora a reprodução entre espécies com semelhanças genômicas tenha sido fundamental na história da evolução natural, o aquecimento global está acelerando o processo e provocando, muitas vezes, a extinção de espécies inteiras.
Os cientistas acreditam que é essencial entender a diferença entre o processo natural de cruzamento entre as espécies e a hibridização causada pela atividade humana, sendo essa última uma séria ameaça para os ecossistemas.

13.252 – Farmacologia – Brasileiros criam nanoantibióticos contra infecções resistentes


alvo_bacteria

Da Folha para o ☻Mega

Pesquisadores brasileiros criaram um método que combina minúsculas partículas de prata com um antibiótico para tentar vencer a crescente resistência das bactérias aos medicamentos convencionais.
Em testes preliminares de laboratório, a abordagem mostrou bom potencial para enfrentar formas resistentes do micróbio Escherichia coli, que às vezes causa sérios problemas no sistema digestivo humano.
“Alguns sistemas podem até funcionar melhor no que diz respeito à capacidade de matar as células bacterianas, mas o ponto-chave é que as nossas partículas combinam um efeito grande contra as bactérias com o fato de que elas são inofensivas para células de mamíferos como nós”, explica um dos responsáveis pelo desenvolvimento da estratégia, Mateus Borba Cardoso, do CNPEM (Centro Nacional de Pesquisa em Energia e Materiais), em Campinas (SP).
Cardoso e seus colegas assinam estudo recente na revista especializada “Scientific Reports”, no qual descrevem o processo de produção da arma antibacteriana e seu efeito sobre os micróbios.
Esse mesmo grupo já utilizou nanopartículas para inativar o HIV e atacar somente as células tumorais, em caso de câncer de próstata, poupando as células saudáveis.
O aumento da resistência das bactérias causadoras de doenças aos antibióticos tradicionais é um caso clássico de seleção natural em ação que tem preocupado os médicos do mundo todo.
Em síntese, o que ocorre é que é quase impossível eliminar todos os micróbios durante o tratamento. Uma ou outra bactéria sempre escapa, e seus descendentes paulatinamente vão dominando a população da espécie e espalhando a resistência, já que os micro-organismos suscetíveis morreram sem deixar herdeiros.
Para piorar ainda mais o cenário, tais criaturas costumam trocar material genético entre si com grande promiscuidade, numa forma primitiva de “sexo”. Assim, os genes ligados à resistência diante dos remédios se disseminam ainda mais.
Já se sabe, porém, que as nanopartículas de prata (ou seja, partículas feitas a partir desse metal com dimensão de bilionésimos de metro) têm bom potencial para vencer as barreiras bacterianas e, de quebra, parecem induzir muito pouco o surgimento de variedades resistentes.
Por outro lado, essas nanopartículas, sozinhas, podem ter efeitos indesejáveis no organismo.
A solução bolada pelos cientistas brasileiros envolveu “vestir” as partículas de prata com diferentes camadas à base de sílica, o mesmo composto que está presente em grandes quantidades no quartzo ou na areia.
Testes feitos pela equipe mostraram que o conjunto afeta de forma específica as células da bactéria E. coli, tanto as de uma cepa de ação mais amena quanto a de uma variedade resistente a antibióticos, sem ter o mesmo efeito sobre células humanas –provavelmente porque a ampicilina se conecta apenas à parede celular das bactérias.
É claro que ainda é preciso muito trabalho antes que a abordagem dê origem a medicamentos comerciais.
Segundo Cardoso, o primeiro passo seria o uso de sistemas semelhantes em casos muitos graves, nos quais pacientes com infecções hospitalares já não respondem a nenhum antibiótico.
Para um emprego mais generalizado, provavelmente será necessário substituir o “recheio” de nanopartículas de prata por outras moléculas, mais compatíveis com o organismo.
O trabalho teve financiamento da Fapesp (Fundação de Amparo à Pesquisa do Estado de São Paulo) e do CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico).

resistencia bacteriana

13.251 – Português – Linguagem Coloquial


capoliglota
Compreende a linguagem informal, ou seja, é a linguagem cotidiana que utilizamos em situações informais, por exemplo, na conversa com os amigos, familiares, vizinhos, dentre outros.
Quando utilizamos a linguagem coloquial decerto que não estamos preocupados com as normas gramaticais, e por isso, falamos de maneira rápida, espontânea, descontraída, popular e regional com o intuito de interagir com as pessoas.
Dessa forma, na linguagem coloquial é comum usar gírias, estrangeirismos, abreviar e criar palavras, cometer erros de concordância, os quais não englobam as preocupações com a norma culta.
Para tanto, quando escrevemos um texto é muito importante que utilizemos a linguagem formal (culta), ou seja, gramaticalmente correta.
Isso é um problema que ocorre muitas vezes com os estudantes que tentam produzir um texto, e por estarem tão familiarizados com a linguagem falada, não conseguem se distanciar da maneira de falar.
Outro fator importante para apontar é que a linguagem utilizada pode identificar seu meio social, suas condições econômicas, dentre outros fatores.

13.250 – Biologia – A Tartaruga-das-galápagos


Galapagos_giant_tortoise_Geochelone_elephantopus
O nome científico é Chelonoidis nigra (Quoy & Gaimard, 1824), é uma espécie de tartaruga da família Testudinidae, endêmica do arquipélago de Galápagos, no Equador.
É a maior espécie de tartaruga terrestre existente e o 10º réptil mais pesado do mundo, podendo chegar a 400 kg, com um comprimento de mais de 1,8 m. É também um dos vertebrados de vida mais longa. Um exemplar mantido em um zoológico australiano, chamado Harriet, atingiu a idade de 170 anos. São conhecidas várias subespécies, embora sua classificação seja polêmica. São herbívoras e se alimentam de, frutas, líquens, folhas e cactos.
Desde o descobrimento do arquipélago no século XVI elas foram caçadas intensamente para alimentação, especialmente de marinheiros, e seu número original, que se calcula em torno de 250 mil indivíduos, decaiu para pouco mais de 3 mil na década de 1970. Outros fatores também contribuíram para o declínio acentuado, como a introdução de novos predadores pelo homem e a destruição de seu habitat. Em breve começaram a ser realizados projetos de recuperação das populações, e hoje o total de indivíduos chega a quase 20 mil. Mesmo assim ainda é considerada uma espécie vulnerável pela IUCN. Pelo menos duas subespécies já foram extintas – C. n. abingdoni e C. n. nigra – e somente dez das cerca de quinze originais ainda existem em liberdade.
As características morfológicas da carapaça óssea das tartarugas-das-galápagos variam de acordo com o ambiente de cada ilha. Esta variabilidade permite subdividir a espécie em vários subtipos, cada um característico de uma ilha, ou de uma parte dela. Esta diversidade morfológica foi reconhecida por Charles Darwin, durante a sua visita ao arquipélago em 1835, e foi um dos argumentos para a sua teoria da evolução das espécies.
As Ilhas Galápagos foram descobertas em 1535, mas só foram incluídas nos mapas em torno de 1570.
A primeira pesquisa sistemática sobre esses animais foi realizada em 1875 por Albert Günther, associado ao Museu Britânico. Ele identificou pelo menos cinco populações diferentes nas ilhas Galápagos, e três nas ilhas do oceano Índico. Em 1877 a sua lista foi expandida para cinco populações nas Galápagos, quatro nas ilhas Seychelles e quatro nas ilhas Mascarenhas. Günther imaginava que todas derivavam de uma única população ancestral que havia se dispersado através de pontes de terra mais tarde submersas.
Sua teoria foi refutada quando se compreendeu que as Galápagos, bem como as Seychelles e as Mascarenhas, eram ilhas de formação vulcânica recente, e jamais haviam sido interligadas por pontes de terra. Hoje se acredita que as tartarugas-das-galápagos provêm de um ancestral sulamericano. No fim do século XIX Georg Baur e Walter Rothschild reconheceram a existência de mais cinco populações.
Em 1906 a Academia de Ciências da Califórnia coletou espécimens os confiou a John Van Denburgh para que os estudasse, resultando identificadas quatro populações adicionais e postulando a existência de quinze espécies diferentes.
Hoje sobrevivem na natureza apenas cerca de dez subespécies – o número exato também é polêmico. Charles Darwin visitou as ilhas em 1835, a tempo de ver cascos dos últimos representantes da subespécie Chelonoidis nigra nigra, supostamente extinta na década de 1850. Em 24 de junho de 2012 a subespécie Chelonoidis nigra abingdoni foi extinta com a morte do último exemplar, conhecido como “Jorge Solitário”.

George_1
Último exemplar da espécie extinta

13.248 – Física – Teorias da Viagem no Tempo


viagem no tempo
Buracos negros: Alguns cientistas afirmam que os buracos negros permitirão viajar no tempo ou a universos paralelos. Sua curvatura espaço-temporal poderá funcionar como um portal interdimensional.

A rosquinha: O cientista israelense Amos Ori acredita que, nos próximos séculos, a humanidade será capaz de construir uma máquina do tempo que poderá curvar o espaço como um donut e permitir o salto a outras épocas.

Cordas cósmicas: Essa hipótese diz que a matéria é, na verdade, um estado vibracional, cuja manipulação permitirá fazer viagens no tempo e no espaço.

Cilindro de Tipler: O físico Frank J. Tipler desenvolveu, em 1974, uma teoria segundo a qual seria possível viajar no tempo através de um cilindro de alta densidade e capaz de girar à velocidade da luz.

Matéria exótica: É considerada matéria exótica a matéria que não obedece a uma ou mais leis da física clássica. Alguns cientistas acreditam que essas partículas permitiriam viagens no tempo ao possibilitar mudanças na relação espaço-tempo.

13.243 – Universidade Mackenzie de SP abre centro que questiona a evolução


markenzie
A Universidade Presbiteriana Mackenzie, uma das mais tradicionais de São Paulo, acaba de inaugurar um núcleo de ciência, fé e sociedade que tem como um de seus objetivos a realização de pesquisas sobre a chamada teoria do DI (Design Inteligente).
Os defensores do DI, cujas ideias são rejeitadas pela maioria da comunidade científica, argumentam que os seres vivos são tão complexos que ao menos parte de suas estruturas só poderia ter sido projetada deliberadamente por algum tipo de inteligência.
O novo centro recebeu o nome de Núcleo Discovery-Mackenzie por causa da parceria entre a universidade brasileira e o Discovery Institute, nos EUA.
A instituição americana está entre os principais promotores da causa do DI e já sofreu derrotas judiciais em seu país por defender que a ideia fosse ensinada em escolas públicas em paralelo com a teoria da evolução, hoje a explicação mais consolidada sobre a diversidade da vida.
Tribunais dos EUA consideraram que o DI seria, na essência, muito semelhante ao criacionismo bíblico (a ideia de que Deus criou diretamente o homem e os demais seres vivos) e, portanto, seu ensino violaria a separação legal entre religião e Estado no país.
“É importante destacar que não é um núcleo de DI, e sim um núcleo de fé, ciência e sociedade”, declarou à Folha o teólogo e pastor presbiteriano Davi Charles Gomes, chanceler da universidade. “Nossa instituição é confessional, o que significa que ela tem uma visão segundo a qual o mundo tem um significado transcendente. E não existe ciência que, no fundo, não reflita também sobre coisas transcendentes.”

DE BACTÉRIAS AO TRÂNSITO
Segundo Gomes, o contato com o Discovery Institute já acontece desde a década passada, quando a universidade começou a organizar o ciclo de simpósios Darwinismo Hoje, trazendo biólogos defensores da teoria da evolução e palestrantes que questionam o consenso científico.
Para especialistas, o projeto tem sabor de fracasso. “É triste e extremamente preocupante”, diz o paleontólogo Mario Alberto Cozzuol, da UFMG (Universidade Federal de Minas Gerais). “As premissas do DI foram derrubadas e expostas já faz muito tempo. Seus proponentes não têm aportado nenhuma novidade para a discussão. O único motivo pelo qual isso continua atraindo gente é a falta de educação em ciências.”

argumento pro

argumento contra

13.241 – Neurociência – Elon Musk: o projeto que mesclará cérebros humanos e inteligência artificial


neurociencia
Elon Musk, CEO da SpaceX e da Tesla, está no processo de desenvolvimento de uma nova empresa de interfaces cérebro-computador. Chamada Neuralink, ela será voltada à criação de dispositivos que poderão ser implantados no cérebro humano.
Sua função será unir o cérebro humano a um software, permitindo o aperfeiçoamento da memória e a criação de interfaces diretas com aparelhos informáticos.
Embora, até o momento, esse tipo de interface exista apenas na ficção científica, na medicina as matrizes de eletrodos e outros implantes já são utilizados para ajudar no alívio de sintomas do mal de Parkinson, da epilepsia e de outras doenças neurodegenerativas.
Operar o cérebro humano é bastante complexo e invasivo e, segundo os pesquisadores, temos um entendimento muito limitado sobre como os neurônios reagem no cérebro humano. Por isso, é compreensível que somente as pessoas que tenham uma condição médica muito séria e já tenham esgotado todas as outras possibilidades estejam suscetíveis à ideia de um implante cerebral – pelo menos, em uma primeira fase.

13.232 – Mega Sampa – Por que São Caetano do Sul é a nº1 do Brasil em IDH


cidade-de-sao-caetano-do-sul
São Caetano do Sul (SP) mais uma vez liderou o ranking das cidades mais desenvolvidas do Brasil, divulgado pelo Pnud, órgão das Nações Unidas para o desenvolvimento, em parceria com o Instituto de Pesquisa Econômica Aplicada (Ipea) e a Fundação João Pinheiro. É a terceira vez que o levantamento, intitulado IDHM, é lançado. E é a terceira vez que a cidade do ABC paulista aparace em primeiro.
A cidade alcançou pontuação de 0,862 na avaliação realizada pela ONU com dados do IBGE, referentes ao Censo 2010. Embora a pesquisa nacional use padrões ligeiramente diferentes daqueles aplicados no exterior pela ONU, o IDHM de São Caetano do Sul hoje é maior que o de países como Grécia (0,860) e Chile (0,819).
A escala do IDH vai de 0 a 1, com indicadores positivos em educação, longevidade e renda per capita correspondendo a valores maiores. As cidades brasileiras já haviam sido avaliadas em levantamentos feitos em 1991 e 2000.

Renda per capita
Embora esteja em segundo lugar em relação à educação e em 19ª no quesito longevidade da população, o dinheiro de São Caetano justifica sua avaliação como maior IDH do país. De acordo com o levantamento divulgado hoje, a renda per capita média da cidade de cerca de 145 mil habitantes supera 2 mil reais.
O valor é mais de 20 vezes maior do que o a renda per capita de Marajá do Sena (MA), cidade mais mal-avaliada do país em relação a renda per capita. O fortalecimento da área de serviços sem descuidos em relação à presença industrial é apresentado pelos administradores municipais como uma das razões para cerca de 45% da população de São Caetano se encontrar hoje na classe B.

Educação e longevidade
Além da economia, São Caetano também apresenta bons números em relação à educação. Embora Águas de São Pedro (SP) apresente as melhores estatísticas da área no país, São Caetano está na vice-liderança dos indicadores. A cidade investe cerca 35% do seu orçamento na formação educacional e conta hoje com mais de 100 escolas, um centro de formação de professores e uma universidade municipal.
Entretanto, problemas como a contratação emergencial de professores ainda fazem parte do cotidiano do município. Apesar dos ótimos indicadores, cerca de 4% das crianças de 5 a 6 anos não estão na escola. Na faixa que vai dos 18 aos 20 anos, a porcentagem cresce para mais de 30%.
Hoje, a expectativa de vida em São Caetano do Sul gira em torno de 78 anos. Dos três indicadores que influenciam no IDH, a longevidade é o quesito em que a cidade tem o pior desempenho – a ponto de ficar fora da lista dos 15 municípios do país com melhores indicadores no quesito. Ainda assim, consta no site da prefeitura de São Caetano do Sul a existência de quatro centros voltados para atender a terceira idade.

são-caetano-do-sul-grande-abc

13.231 – Biologia – Como a evolução transformou os gatos em animais solitários


gato x rato
A vida em grupo é comum na natureza. Pássaros formam bandos e peixes, cardumes. Predadores frequentemente caçam juntos. Até mesmo o leão, parente do gato doméstico, vive em grupo.
Para as espécies que são caçadas por outras, obviamente há uma estratégia de maior segurança em um bando. “Chama-se efeito de diluição”, diz o biólogo Craig Packer, da Universidade de Minnesota (EUA).
“Um predador só consegue matar um, e se há cem da mesma espécie isso reduz as chances de cada um deles ser pego para 1%. Mas se você estiver sozinho você será escolhido 100% das vezes.”
Animais em bando também se beneficiam do efeito “muitos olhos atentos”: quanto maior o grupo, é mais provável que alguém perceba um predador se aproximando. “E quanto mais cedo você detectar o predador, mais tempo tem para iniciar a fuga”, diz Jens Krause, da Universidade de Humboldt em Berlim, Alemanha.
Essa vigilância coletiva traz outras vantagens. Cada um pode gastar mais tempo e energia procurando por comida. E não se trata apenas de evitar predadores. Animais que socializam em grupos não precisam perambular em busca de companheiros, o que é um problema para espécies solitárias que vivem em territórios amplos.
Uma vez que se reproduzem, muitos animais que vivem em grupo adotam a máxima “é necessária uma aldeia inteira para criar uma criança”, com os adultos trabalhando em equipe para proteger ou alimentar os mais novos.
Em várias espécies de pássaros, como a zaragateiro-árabe de Israel, os pequenos permanecem em grupos de familiares até que eles estejam prontos para procriar. Eles dançam em grupo, tomam banho juntos e até trocam presentes entre si.
Viver em grupo também poupa energia. Os pássaros que migram juntos ou os peixes que vivem em cardumes se movimentam com mais eficiência do que os mais solitários.
É o mesmo princípio que os ciclistas da Volta da França utilizam quando formam um pelotão. “Os que estão mais atrás não precisam investir tanta energia para atingir a mesma velocidade de locomoção”, diz Krause.
Como pinguins e morcegos podem atestar, a vida pode ser mais calorosa quando se vive cercado de amigos.
Com tantos benefícios, pode parecer surpreendente que qualquer animal rejeite seus companheiros. Mas, como os gatos domésticos demonstram, a vida em grupo não é para todos. Para alguns animais, os benefícios da coletividade não compensam ter que dividir comida.
Um fator-chave para essa decisão é ter alimentação suficiente, o que depende de quanta comida cada animal precisa. E os gatos têm um gosto caro. Por exemplo, um leopardo come cerca de 23 kg de carne em poucos dias. Para gatos selvagens, a competição por alimentos é cruel, e por isso leopardos vivem e caçam sozinhos.
Há uma exceção à regra de felinos solitários: leões. Para eles, é uma questão territorial, diz Packer, que passou 50 anos de sua vida estudando os leões africanos. Alguns locais da savana têm emboscadas perfeitas para a caça, então controlar esse lugar resulta em uma vantagem significativa em termos de sobrevivência.
O que torna essa vida em grupo possível é que a presa de um único leão –um gnu ou uma zebra– é grande o bastante para alimentar várias fêmeas de uma vez só. “O tamanho da caça permite que eles vivam em grupos mas é a geografia o que realmente os leva a viver em grupos”, diz Packer.
Não é a mesma situação dos gatos domésticos, já que eles caçam animais pequenos. “Eles vão comê-lo inteiro”, diz Packer. “Não há comida o suficiente para dividir.”
Essa lógica econômica está tão integrada ao comportamento dos gatos que parece improvável que até mesmo a domesticação tenha alterado essa preferência fundamental por solidão.
Isso é duplamente verdade quando você leva em consideração o fato de que os humanos não domesticaram os gatos. Em vez disso, em seu próprio estilo, os gatos domesticaram a si mesmos.
Todos os gatos domésticos são descendentes dos gatos selvagens do Oriente Médio (Felis silvestris), o “gato-do-mato”. Os humanos não coagiram esses gatos a deixar as florestas: eles mesmos se convidaram a entrar nos alojamentos de humanos, onde havia uma quantidade ilimitada de ratos ao seu dispor.
A invasão a essa festa de ratos foi o início de uma relação simbiótica. Os gatos adoraram a abundância de ratos nos alojamentos e depósitos e os humanos gostaram do controle grátis da infestação de ratos.
Os gatos domésticos não são completamente antissociais. Mas sua sociabilidade –em relação a outro humano ou entre eles– é determinada inteiramente por eles, em seus próprios termos.
Aliás, mesmo diante de um grande perigo, quando eles se unem para se defender, é pouco provável que os gatos colaborem entre si. “Não é que algo que eles tipicamente façam quando se sentem ameaçados”, diz Monique Udell, bióloga da Universidade de Oregon (EUA).
É preciso dizer que os gatos domésticos trilharam um longo caminho a partir de seus ancestrais até aqui em termos de tolerar a companhia um do outro. Mesmo que gatos morando em galpões formem laços frouxos, eles ainda demonstram um nível impressionante de aceitação da presença do outro nesses espaços confinados.
Em Roma, cerca de 200 gatos vivem lado a lado no Coliseu, enquanto na ilha de Aoshima, no Japão, o número de gatos supera o de pessoas em uma proporção de seis para um. Essas colônias podem não ter tanta cooperação, mas estão bem avançadas em relação ao passado solitário dos gatos domésticos.
Enquanto isso, pode ser mais fácil para pesquisadores encontrar os gatos “no meio do caminho” ao realizar seus experimentos, fazendo certas concessões.
Quando Udell fez suas primeiras experiências com gatos, enfrentou uma série de dificuldades ao tentar motivar suas cobaias a participar de certa atividade. Ela já havia trabalhado com cachorros, que estariam dispostos a fazer qualquer coisa em troca de um petisco.
Os gatos, contudo, eram mais exigentes. Com o passar do tempo, Udell percebeu que teria mais sucesso se desse aos gatos a opção de escolher sua recompensa.

13.230 – Biologia – Mitocôndria pode chegar à espantosa temperatura de 50°C


mitoc
Um grupo internacional de cientistas está tentando pôr em xeque boa parte do que se sabe a respeito das pequenas usinas de força da célula, as mitocôndrias. Elas funcionariam também como pequenos braseiros.
Segundo alguns experimentos, as organelas podem chegar à espantosa temperatura de 50°C –o corpo humano saudável tende a permanecer em torno dos 37°C.
Os resultados foram obtidos com o auxílio de sondas intracelulares fluorescentes e, caso confirmados, adicionam uma bela uma camada de complexidade à biologia celular.
Isso porque em vez de adotar um modelo de célula em que todos os compartimentos têm a mesma temperatura (e proteínas, que compõem a maquinaria celular têm uma temperatura ótima para operar), seria necessário pensar que há zonas celulares que podem ter seu desempenho “ótimo” em outra faixa de temperatura.
Algumas enzimas importantes para a típica atividade mitocondrial de produzir ATP (molécula energética usada em processos fisiológicos como a contração muscular) podem ter um comportamento muito diferente na realidade do que aquele observado em testes laboratoriais in vitro conduzidos na temperatura “errada” de 37°C.
Outra coisa que pode mudar é a interpretação do papel da localização da mitocôndria na célula.
Sabendo que a organela pode funcionar como um pequeno braseiro, o fato de ela estar perto de determinadas regiões da célula, como o núcleo, pode significar não só um fornecimento mais rápido de ATP para os processos celulares daquela região, mas também uma fonte de calor para fazê-los funcionar de forma otimizada.
O estudo, realizado por cientistas da França, Alemanha, Coreia do Sul, Finlândia, Líbano e Cingapura, está publicado na plataforma bioRxiv, que abriga trabalhos que ainda não foram revisados por cientistas independentes.
Dado o impacto dos resultados, provavelmente haverá um grande número cientistas interessados em testar a novidade com novos experimentos e ajudar a reescrever as regras da biologia.

13.228 – Física – Polêmica de Pons e Fleischmann sobre fusão à frio


fusao ou ilusao

fusao
Show de mídia mas a descoberta era furada

Em 23 de março de 1989, dois químicos da Universidade de Utah, o americano Stanley Pons e o britânico Martin Fleischmann, foram catapultados à fama. Numa coletiva, anunciaram que o sonho da energia ilimitada, limpa e barata estava para se realizar. Disseram ter conseguido obter na temperatura ambiente do laboratório a fusão nuclear, o mesmo processo que gera a energia do Sol. A descoberta foi batizada de “fusão fria” (no Sol, as temperaturas chegam a 15 milhões de graus centígrados).
A perplexidade e a descrença só não são totais porque também em ciência a esperança é a última que morre. A experiência divulgada pela dupla em fins de março numa entrevista à imprensa- por si só uma grave quebra de protocolo cientifico que irritou não poucos acadêmicos – foi reproduzida a toque de caixa por pesquisadores americanos e de outros países, entre os quais o Brasil, mas raras tentativas deram certo e houve pelo menos um caso em que os pesquisadores precisaram retratar-se depois de cantar vitória.
A fusão nuclear é a junção de dois núcleos atômicos de um tipo de hidrogênio, o deutério; processo que resulta na liberação de uma fenomenal quantidade de energia, sem a radioatividade liberada pelo urânio das usinas nucleares e com a vantagem de que o deutério tem na água do mar fonte quase inesgotável. O problema é que, para fazer os núcleos de deutério se fundirem, é preciso reproduzir as altíssimas temperaturas solares. Todos os processos conhecidos gastam mais energia do que produzem e só se sustentam por uma fração de segundo.
Por isso, o mundo entrou em polvorosa. Os pesquisadores de Utah tinham mergulhado dois eletrodos, um de paládio, outro de platina, em água rica em deutério. A corrente elétrica produziu tanta energia (na forma de calor), que o eletrodo de paládio se derreteu. A única explicação, diziam, é que tinha ocorrido a fusão.
Antes do fim de abril, os ventos tinham mudado para Pons e Fleischmann. A revista “Nature” recusou-se a publicar o artigo científico em que relatavam suas pesquisas, alegando insuficiência de dados. Os físicos das instituições mais respeitadas, como o institutos de tecnologias da Califórnia e de Massachusetts, passaram o trator: a verdadeira fusão nuclear produz, além de calor, uma grande quantidade de nêutrons e um isótopo chamado hélio-4. No experimento de Pons e Fleischmann nada disso havia sido detectado. Estes argumentaram que tinham encontrado nêutrons, mas atrapalharam-se nas explicações. Acusados de açodamento ou má-fé, mergulharam na obscuridade.
Os resultados da pesquisa pareciam espetaculares. Afinal, a fusão nuclear é perseguida há anos pelos cientistas como a salvação energética do mundo. Sua reação-irmã, a fissão, usada em usinas nucleares, tem os inconvenientes de utilizar átomos pesados (e difíceis de obter), como o urânio, e de gerar lixo atômico. Até hoje, tudo o que se conseguiu foi fundir átomos aos pares, usando imensos aceleradores de partículas.
Tão espetacular parecia a “fusão portátil” que a direção do Oak Ridge desconfiou. Pediu a uma dupla de físicos do laboratório que refizesse o experimento, usando um detector de nêutrons mais sensível. A conclusão foi de que os resultados haviam sido uma ilusão. “Não há evidências do excesso de nêutrons que caracteriza a fusão”, disse um dos físicos, Michel Saltamarsh, à revista eletrônica “Science Now”.
Outros físicos também atacaram o experimento de Taleyarkhan e Lahey: “O trabalho é uma colcha de retalhos, e cada remendo tem um furo”, disse Mike Moran, do Laboratório Nacional Lawrence Livermore, na Califórnia.
A polêmica chegou perto do ponto de fusão quando diretores do Oak Ridge pressionaram o editor da “Science”, Donald Kennedy, a adiar a data de publicação do artigo -ou a simplesmente enterrá-lo. O temor era que a pesquisa estivesse repetindo uma das maiores fraudes científicas da história, a da fusão nuclear a frio.
Anunciada em 1989 pelos físicos Stanley Pons e Martin Fleischmann, a fusão a frio foi alardeada na imprensa como a descoberta do século, para depois se provar um experimento irrealizável.

fs noticia

13.227 – Instituições de Ensino – A Universidade de Utah


utah cancer institute
É uma universidade pública norte-americana de pesquisa, localizada em Salt Lake City, no estado de Utah.
Ela é uma das dez instituições que fazem parte do sistema de ensino de nível superior de educação do estado de Utah. Fundada em 28 de fevereiro de 1850, possui cerca de 30 mil estudantes (2008).
Foi elencada como uma das 50 melhores universidades dos Estados Unidos em 2008.
Fundada pelo mórmon Brigham Young, foi chamado inicialmente de University of Deseret. Dois anos depois, a escola fechou por problemas financeiros, reabrindo em 1867 como universidade privada, sob a direção de David O. Calder.

A universidade tem 17 faculdades com aproximadamente 100 departamentos. A universidade oferece aproximadamente 160 cursos de graduação, mais de 100 cursos de mestrado, e mais de 100 cursos de doutorado.

Faculdade de Administração
Faculdade de Advocacia
Faculdade de Arquitetura e Planejamento
Faculdade de Artes e Ciências Liberais
Faculdade de Belas Artes
Faculdade de Ciência
Faculdade de Ciências Humanas
Faculdade de Ciências Sociais
Faculdade de Enfermagem
Faculdade de Engenharia
Faculdade de Farmácia
Faculdade de Medicina
Faculdade de Minas e Ciências da Terra
Faculdade de Odontologia
Faculdade de Pedagogia
Faculdade de Saúde
Faculdade de Serviço Social

Ed Catmull, B.S. 1969, Ph.D. 1974, co-fundador de Pixar, presidente de Walt Disney Animation Studios e Pixar Animation Studios foi um de seus alunos famosos.
Também John Warnock, B.S. 1961, M.S. 1964, Ph.D. 1969, co-fundador de Adobe Systems, entre outros.

13.223 – História – Amazônia já teve partes inundadas e teve até tubarões


tutu barão
Durante dois momentos no passado partes da Amazônia no Brasil e Colômbia estiveram temporariamente ocupadas por mar. Não era muito profundo e tinha menos salinidade que os atuais oceanos, mas sua fauna incluía até tubarões. Mas isso, que pareceria ser apenas uma curiosidade científica, foi de vital importância para o aumento da biodiversidade da região –a maior do planeta.
Uma equipe internacional de 16 pesquisadores –incluindo o brasileiro Carlos D’Apolito Júnior, da UFMT (Universidade Federal do Mato Grosso)–, distribuídos por instituições de oito países, publicou a descoberta na atual edição da revista científica americana “Science Advances”.
Os dois “eventos de inundação” ocorreram na época geológica conhecida como Mioceno, que durou de 23 a 5,3 milhões de anos atrás. Essa época constitui o momento mais antigo do período geológico chamado Neogeno, que terminou há 2,5 milhões de anos, passando então para o atual período Quaternário. Cada época ou período é caracterizado por mudanças importantes na geologia, na fauna e na flora da Terra.
Hoje cerca de 80% da Amazônia é ocupada por florestas em terra firme e 20% por regiões inundáveis. A equipe, cujo principal pesquisador é Carlos Jaramillo, do Instituto Smithsonian de Pesquisas Tropicais, Panamá, examinou sedimentos em núcleos obtidos nas bacias de Llanos, Colômbia, e Amazonas/Solimões, Brasil.
Um total de 933 tipos de microfósseis (“palinomorfos”), ou 54.141 indivíduos, foram contados nos dois núcleos geológicos de Saltarin (Colômbia) e 105-AM (Brasil).
O brasileiro Carlos D’Apolito Júnior obteve seu doutorado, no ano passado na Universidade de Birmingham, Reino Unido, justamente sobre a evolução antiga, durante o Mioceno, da paisagem da Amazônia ocidental na Formação Solimões.
A evidência marinha fez o pesquisador analisar mais amostras; “comecei a encontrar mais e mais dinoflagelados. Bem, o resultado você já sabe –evidência direta e inquestionável de ambientes costeiros na Amazônia ocidental durante o Mioceno”.
O próximo passo foi comparar os resultados com o material colombiano que vinha sendo coletado pelo grupo de Jaramillo. “Vimos que tínhamos ali a comprovação de uma ideia antiga de que esses ambientes costeiros avançaram via Caribe durante o Mioceno”.

13.222 – Ciências Biológicas – O Predatismo


predador2
O Predador

Esse tipo de relação ocorre principalmente em seres carnívoros (leão, lobo, tigre, homem), contudo também entre os herbívoros. Neste caso, com denominação de herbivorismo, bem caracterizado pelo ataque de formigas, gafanhotos ou lagartas a uma lavoura, destruindo velozmente uma cultura.
Dessa forma, o ato predatório do ponto de vista particular, favorece a espécie predadora, enquanto as presas são desfavorecidas. E do ponto de vista ecológico, o predatismo representa um mecanismo que regula a densidade populacional mediante uma cadeia alimentar, controlando a quantidade de indivíduos de uma determinada comunidade.
Contudo, evolutivamente surgiram adaptações desenvolvidas pelas presas utilizadas como defesa à predação, por exemplo, o mimetismo, a camuflagem e o aposematismo (cores de advertência), formas que permitem às presas escaparem de um ataque e assim prolongar a existência de seu genótipo.
É uma relação de grande importância, pois isso garante a transferência da energia captada pelos vegetais (seres produtores) aos demais níveis tróficos das cadeias alimentares. São exemplos de animais herbívoros os bovinos (Bos taurus) e a lagarta do bicho-da-seda (Bombyx mori).
Muitas espécies possuem características que atuam na defesa contra predadores, como tartarugas e jabutis, que se retraem em seus cascos na presença do predador, ou plantas que produzem substâncias tóxicas em pelo menos uma de suas partes, como a mandioca-brava (Manihot utilissima). Suas folhas e raízes são dotadas de substâncias que, quando ingeridas, causam cansaço, falta de ar, taquicardia, agitação e até a morte.

Predação na regulação das populações
Do ponto de vista individual, as espécies predadoras beneficiam-se, ao passo que as presas são prejudicadas. Já do ponto de vista ecológico, a predação é um fator que atua na regulação da densidade populacional, tanto das presas como dos predadores.
Um exemplo do papel da predação no equilíbrio ambiental foi o caso observado no Planalto de Kaibab, nos Estados Unidos, no início do século XX.
O veado da espécie Odocoileus hemionus teve sua caça proibida, ao mesmo tempo que a caça de seus predadores naturais – coiotes, pumas e lobos – foi estimulada. Como consequência disso, a população de veados aumentou rapidamente, indo, em cerca de 20 anos, de 4 mil a 100 mil indivíduos.
Os campos, porém, já não suportavam tantos veados, pois podiam comportar, no máximo, até 30.000 animais. Em resposta a isso, o ambiente não pôde mais fornecer alimento aos veados, pois estes se alimentaram das gramíneas até suas raízes, além de terem pisoteado o solo a tal ponto que já não era mais possível a recuperação das pastagens.
Com a capacidade suporte do ambiente ultrapassada, os veados começaram a morrer de fome e doenças, e o número de animais diminuiu bruscamente. Em cerca de 15 anos, sua população reduziu-se a menos de 10 mil indivíduos, porém, ainda assim o capim não voltou a brotar como antes, uma vez que o solo já estava comprometido.

13.199 – Geografia do Brasil – Arroio Chuí


Arroio_Chuí_07
É um pequeno curso de água localizado na fronteira entre o Brasil e o Uruguai, sendo conhecido por ser o ponto extremo sul do Brasil.
O arroio nasce num pequeno pântano no município de Santa Vitória do Palmar e, inicialmente, corre de norte para sul. Atravessando o município do Chuí, o arroio muda sua direção para leste, passando a marcar, então, a fronteira do Brasil com o Uruguai até desaguar no oceano Atlântico junto à Praia da Barra do Chuí, balneário de Santa Vitória do Palmar, tendo na margem uruguaia a povoação de Barra del Chuy.
O arroio Chuí é, frequentemente, citado como o ponto mais meridional do Brasil, entretanto, a afirmação não está totalmente certa. Geograficamente, o verdadeiro extremo sul do país é apenas um ponto em seu trajeto. A localização exata desse ponto sem nome é uma pequena curva do arroio, aproximadamente 2,7 quilômetros antes de sua foz, a 33° 45′ 03″ de latitude sul e 53° 23′ 48″ de longitude oeste. Por sua vez, a foz do arroio é, ao mesmo tempo, os extremos sul e oeste do litoral brasileiro (não do território nacional) e também os extremos norte e leste do litoral uruguaio.
Até 1978, as cheias e a ação das marés frequentemente alteravam o curso final do arroio, causando problemas diplomáticos entre o Brasil e o Uruguai – pois se tornava difícil delimitar exatamente a fronteira. Naquele ano, de comum acordo entre os dois países, foram feitas obras de dragagem e canalização que tiveram sucesso em estabilizar o curso inferior do arroio.