13.346 – Robótica – Novo guepardo robótico do MIT foi criado para ajudar a salvar vidas


cheeta
Pesquisadores do MIT apresentaram a nova versão do guepardo robótico Cheetah 3, um robô bastante rápido feito com o objetivo de ajudar a salvar vidas.
Até agora, as apresentações de robôs do MIT focavam em mostrar feitos impressionantes que eles são capazes de atingir, mas para o novo modelo houve uma mudança de filosofia, e os cientistas querem mostrar uma utilidade prática para a criação.
Assim, o novo guepardo robótico foi desenvolvido para monitorar o ambiente e situações de emergência em uma área que representa muitos riscos para seres humanos. Ele não será o primeiro a frequentar o cenário radioativo de Fukushima: outros robôs, como o Packbot da Endeavor, já fez estudos na região.
Mas o Cheetah 3 pode ir mais longe do que outros robôs: por contar com quatro patas articuladas e não com rodas, ele consegue se locomover para áreas mais remotas do que outros robôs.
O professor Kim ressalta que o Cheetah 3 não está pronto para ser usado, e ainda falta muito desenvolvimento até que ele de fato possa andar pela região da usina nuclear de Fukushima. Atualmente, ele está sendo testado no campus do MIT, e a ideia é que a partir do ano que vem ele incorpore funções dos modelos anteriores. Portanto, ele ainda está em estágio inicial de desenvolvimento.

13.340 – Invasão de Privacidade – O Google quer fazer backup do seu computador


google de olho
Fazer backup é tão essencial quanto escovar os dentes. Mas quase ninguém faz – em parte, porque é uma tarefa meio chata. O Google quer mudar isso com seu novo aplicativo: o Backup and Sync, que foi lançado. Você instala o programa no seu PC ou Mac, diz quais pastas ele deve copiar, e não precisa mais se preocupar com nada – o software manda tudo para o Google Drive. Ele também monitora as pastas, salvando automaticamente arquivos novos ou modificados.
Parece muito bom – mas tem dois poréns. Primeiro, a própria capacidade do Google Drive. Ele só dá 15 gigabytes de espaço, o que pode não ser suficiente para fazer backup de todos os seus arquivos. Se você quiser mais capacidade, tem de pagar: o plano de 100 gigabytes custa 7 reais por mês, e o de 1 terabyte sai por R$ 35 mensais. Não é pouca coisa.
A outra questão diz respeito aos termos de uso do serviço.”Quando você faz upload de conteúdo, você dá ao Google uma licença global para utilizar, hospedar, reproduzir, modificar, criar versões derivadas, comunicar, mostrar publicamente e distribuir esse conteúdo (…) Essa licença permanece mesmo se você deixar de usar os nossos serviços”. Ou seja: essencialmente, o Google pode fazer o que quiser com os arquivos que você subir no Drive.
Inclusive ler o conteúdo deles. “Nossos sistemas automatizados analisam o seu conteúdo (incluindo emails) para fornecer recursos relevantes, como resultados personalizados para buscas, publicidade customizada e detecção de spam e vírus”. Nada impede, por exemplo, que um dia o Google decida compartilhar metadados do seu disco rígido com anunciantes.
Vale lembrar que isso já acontece, há mais de uma década, com o Gmail – cujas mensagens são lidas pelos robôs do Google. Isso chegou a gerar certa preocupação no começo, mas não impediu que o Gmail se tornasse o maior serviço de email do mundo, com mais de 1 bilhão de usuários. Curiosamente, ele agora faz o caminho oposto: em junho, o Google anunciou que o Gmail não vai mais xeretar as mensagens dos usuários.

13.339 – Teletransporte: Engatinhando, mas é assim que começa – Cientistas teletransportam partícula da Terra para o espaço


teletransporte-williammpark-shuttersock.com_
Equipe chinesa que lançou o satélite Micius anunciou que conseguiu usar a rede quântica do dispositivo para teletransportar uma partícula da superfície terrestre para a atmosfera pela primeira vez.
A técnica utilizada consiste em um estranho fenômeno conhecido como “entrelaçamento”, que pode acontecer quando partículas quânticas, como os fótons, se formam ao mesmo tempo e no mesmo ponto do espaço, dividindo a existência. Em termos técnicos, eles são descritos com a mesma função de onda — o interessante é que a experiência continua mesmo quando os objetos estão distantes no Universo. Logo, quando um é afetado o outro também é.
Apesar de a informação já ser conhecida há anos, uma experiência como a chinesa nunca havia sido realizada. Isso porque a técnica é muito frágil, pois as partículas interagem com a matéria na atmosfera ou dentro de fibras óticas, o que faz com que a relação entre elas seja perdida. No caso do experimento, os fótons continuaram se relacionando, mesmo estando a 500 km de distância.
“Experimentos anteriores de teletransporte entre locais distantes foram limitados a cem quilômetros, devido à perda de fótons em fibras ópticas ou canais terrestres livres”, afirmou a equipe em entrevista ao MIT Technology Review. Por isso o feito dos chineses foi tão surpreendente.
O time de cientistas mandou milhões de fótons para o espaço durante 32 dias, mas só obtiveram 911 respostas positivas. “Relatamos o primeiro teletransporte quântico de qubits independentes de um único fóton a partir de um observatório terrestre até um satélite na órbita terrestre — através de um canal de ligação ascendente — com uma distância de até 1,4 mil km”, afirmaram.
O feito coloca os chineses em posição de liderança da área, que era até então dominada pela Europa e pelos Estados Unidos. “Esse trabalho estabelece a primeira ligação ascendente terra-satélite para o teletransporte quântico ultra-longo, um passo essencial para a internet quântica de escala global”.

13.352 – Arma de Guerra – A Bomba de Hidrogênio


Fat_man
A bomba termonuclear, é um tipo de armamento que consegue ser até 50 vezes mais forte do que qualquer bomba nuclear de fissão.
Hans Albrecht Bethe (1906-2005) foi um dos responsáveis pelas descrição de como a fusão nuclear podia produzir a energia que faz as estrelas brilharem. Esta teoria foi publicada no seu artigo A Produção de Energia das Estrelas, publicado em 1939, e que lhe valeu o prêmio Nobel em 1967.

Hans Bethe tomou os melhores dados das reações nucleares existentes e mostrou, em detalhe, como quatro prótons poderiam ser unidos e transformados em um núcleo de hélio, libertando a energia que Eddington havia sugerido. O processo que Bethe elaborou no seu artigo, atualmente conhecido como o Ciclo do carbono, envolve uma cadeia complexa de seis reações nucleares em que átomos de carbono e nitrogênio agem como catalisadores para a fusão nuclear. Naquela época, os astrônomos calculavam que a temperatura no interior do Sol fosse de cerca de 19 milhões de Kelvin, e Bethe demonstrou que, àquela temperatura, o ciclo do carbono seria o modo dominante de produção de energia.

Na mesma época, além de Hans Bethe, o físico alemão Carl Friedrich von Weizäcker (1912-2007) e Charles Critchfield (1910-1994) identificaram várias das reações de fusão nuclear que mantêm o brilho das estrelas.

A descoberta da fissão nuclear ocorreu a 10 de dezembro de 1938 e foi descrita num artigo submetido ao Naturwissenchaften a 22 de dezembro de 1938, pelos alemães Otto Hahan (1879-1968) e Fritz Strassmann (1902-1980) e pela austríaca Lise Meitner (1878-1968).

O italiano Enrico Fermi (1901-1954) foi uma das pessoas mais importantes no desenvolvimento teórico e experimental da bomba atômica. Quando Benito Mussolini (1883-1945) aprovou o Manifesto della Razza a 14 de Julho de 1938, impondo leis racistas na Itália fascista, Enrico decidiu aceitar o emprego oferecido pela Columbia University, nos Estados Unidos. Ele e a sua família partiram de Roma para a cerimônia de entrega do Prémio Nobel a Fermi em Dezembro de 1938 e nunca retornaram à Itália. O Nobel foi-lhe dado por seu estudo sobre a radioatividade artificial, com as suas experiências de bombardeamento de urânio com neutrões, criando novos elementos mais pesados, e o seu aumento pela redução da velocidade dos neutrões. Fermi havia descoberto que quando ele colocava uma placa de parafina entre a fonte de neutrões e o urânio, aumentava a radioactividade, pois aumentava a chance do neutrão ser absorvido pelo núcleo de urânio.

Em 1934, o húngaro Leo Szilard (1898-1964) já havia patenteado a ideia da reação em cadeia e, a 2 de dezembro de 1942, Fermi conseguiu construir uma massa crítica de U235/U238 não separados (na natureza somente 0,7% são do U235 que é ativo), usando grafite para reduzir a velocidade dos neutrões e acelerar a produção de neutrões secundários. Na experiência, ele utilizou barras de cádmio como absorventes de neutrões para regular a experiência e produziu um crescimento exponencial do número de neutrões, isto é, uma reação em cadeia.

Em 1939, os físicos já sabiam que água pesada agia como um moderador, isto é, redutor de velocidade dos neutrões, como a parafina. A água normal (leve) consiste de dois átomos de hidrogênio (H) e um átomo de oxigênio (O). Na água pesada, dois isótopos de hidrogênio, deutério, unem-se com o oxigênio. Água pesada é ainda hoje utilizada como moderador em reatores nucleares de urânio natural.

Em 1939, Szilard convenceu Albert Einstein (1879-1955), um importante físico, com quem ele tinha trabalhado em 1919 em Berlim, a mandar uma carta para o presidente americano Franklin Delano Roosevelt (1933-1945) sobre o desenvolvimento pelos alemães de armas atômicas e pedindo ao presidente que iniciasse um programa americano, que mais tarde se chamaria Projecto Manhattan, chefiado pelo americano Julius Robert Oppenheimer (1904-1967), e levaria ao desenvolvimento do Los Alamos National Laboratory, ao teste Trinity, a 16 de Julho de 1945, com a explosão da primeira bomba atômica em Alamogordo, no Novo México, e à construção das bombas Little Boy (de 20 mil toneladas de T.N.T – 20 KiloTons) e Fat Man, que seriam utilizadas em Hiroshima e Nagasaki em 6 e 9 de Agosto de 1945.

O húngaro Edward Teller (1908-2003), sob protestos de Fermi e Szilard, chefiou o desenvolvimento da bomba de fusão de hidrogênio, que utiliza uma bomba de fissão como gatilho para iniciar a colisão do deutério com o trítio. A bomba de hidrogênio, Ivy Mike (com intensidade equivalente à detonação de 10,4 megatoneladas de T.N.T.) foi testada a 31 de Outubro de 1952, em Eniwetok.

A primeira bomba de hidrogênio explodiu durante uma experiência feita pelos Estados Unidos em 1952. Detonou com uma força de dez megatons, igual à explosão de dez milhões de toneladas de TNT, um forte explosivo convencional. A potência desta terrível arma mostrou ser 750 vezes superior à das primeiras bombas atômicas e suficiente para arrasar qualquer grande cidade.

Em 1961, a Rússia experimentou a bomba mais poderosa até então concebida (apelidada de Tsar Bomba), à qual foi atribuída uma força de 57 megatons. Inicialmente, a Tsar era uma bomba de 100 megatons. Porém, temendo que a explosão resultasse em uma tempestade radioativa que atingiria a Europa ou o próprio território russo, sua potência foi reduzida pela metade.
Já o teste nuclear mais potente realizado pelos Estados Unidos foi o Castle Bravo, realizado no dia 1 de março de 1954. O projeto da bomba previa um rendimento de 6 Megatons, mas devido a um erro de cálculo, explodiu com uma força de 15 MT.

Explicação científica
Na bomba de hidrogênio, um disparador de bomba atômica inicia uma reação de fusão nuclear num composto químico de deutério e trítio, produzindo instantaneamente o hélio-4, que por sua vez reage com o deutério. Porém, os cientistas militares foram mais além, no que diz respeito ao poder destrutivo da bomba, envolvendo-a em urânio natural. Os poderosos neutrões libertos pela fusão causam depois uma explosão por fissão nuclear no invólucro de urânio.

Para que uma reação nuclear ocorra, as partículas precisam vencer a Barreira de Coulomb repulsiva entre as partículas (descoberta por Charles Augustin de Coulomb, 1736-1806), dada por- enquanto que a energia cinética entre as partículas é determinada por uma distribuição de velocidades de Maxwell-Boltzmann correspondente à energia térmica.

A astrofísica demonstrou que as leis físicas que conhecemos na nossa limitada experiência na Terra são suficientes para estudar completamente o interior das estrelas. Desde as descobertas de Bethe, o cálculo de evolução estelar através da união da estrutura estelar com as taxas de reações nucleares tornou-se um campo bem desenvolvido e astrônomos calculam com confiança o fim de uma estrela como o nosso Sol daqui a 6,5 bilhões de anos como uma anã branca, após a queima do hélio em carbono pela reação.
A maior bomba de hidrogênio detonada pelo homem teve um poder de destruição 4000 vezes superior ao da bomba de Hiroshima.

13.344 – Militares israelenses compram drones capazes de lançar granadas


drones
Conforme relata o Engadget, os dispositivos são produzidos pela empresa norte-americana Duke Robotics. A aerodinâmica e a física dizem que não é possível prender uma arma em um drone e esperar que ele voe e ainda atinja o alvo, no entanto, a empresa planejou uma maneira de manter o zangão firme enquanto compensa o recuo da arma.
Aparentemente, o drone conta com um sistema de partes flexíveis que distribui o peso na hora do ataque para manter o dispositivo parado no ar. O sistema, por exemplo, permite que uma drone de 4,5 kg se mantenha estável ao lançar uma granada ou carregar armas de até 10 kg.
A empresa afirma que o uso de drones remotos reduziria a necessidade de manter soldados na linha de frente, logo, reduziria o número de mortes.
Além de drones, os militares também devem estar cada vez mais armados tecnologicamente. Foi divulgado recentemente que os militares russos desenvolveram um exoesqueleto motor a prova de balas com o objetivo de reduzir o cansaço dos soldados e que os Estados Unidos estão trabalhando em uma armadura semelhante a do Homem de Ferro.

13.331 – Espiritismo – Inteligência artificial pôs à prova psicografia de Chico Xavier


Chico_Psicografia_Emmanuel
Francisco Cândido Xavier morreu há 15 anos, deixando para trás mais de 412 livros escritos. Mas ele sempre rejeitou a autoria de todos: a obra seria inteira psicografada, ditada diretamente de espíritos que falavam ao médium.
Com o aniversário de falecimento do líder espírita, uma empresa brasileira resolveu investigar a obra de Chico usando inteligência artificial. Ao longo da vida, ele psicografou livros de vários autores diferentes. A ideia era usar todo o poder de computação para responder duas perguntas: esse autores têm cada um seu estilo próprio? Eles são suficientemente diferentes entre si?

A Stilingue, uma empresa que trabalha com análise de textos via inteligência artificial para “resumir a internet”, encontrando tendências nas redes sociais, resolveu testar como as obras psicografadas seriam analisadas por uma técnica de aprendizado de máquinas chamada Deep Learning.
A partir de grandes quantidades de dados, o computador aprende a criar relações entre eles, sem precisar aprender, por exemplo, o que é um verbo, um adjetivo, um substantivo. Se fosse reconstruir a Bíblia, o computador logo ia aprender que precisa colocar um número antes de cada frase, porque o livro é estruturado em versículos.
A mesma técnica também já foi usada para recriar Shakespeare. Depois de ler milhões de caracteres do dramaturgo, o computador era capaz de escrever sozinho “imitando” o estilo do inglês, sem nunca ter passado por uma aula de literatura. Nem sempre as frases fazem total sentido, mas os tempos verbais e a mania de criar palavras novas mudando o final delas ficam reproduzidos, igualzinho.
No caso de Chico Xavier, o estudo da Stilingue selecionou três dos principais autores psicografados pelo médium: Emmanuel, André Luiz e Humberto de Campos.
Para “alimentar” a rede neural artificial, eles selecionaram três livros de cada autor – que precisam ser enormes, porque a técnica deep learning exige, no mínimo, um milhão de caracteres por autor conseguir aprender com sucesso. “No caso de Humberto de Campos, sentimos um pouco de falta de mais material. Ele é um autor mais desafiador porque escrevia diferentes tipos de texto [contos, anedotas e poesias]”, explica Milton Stiilpen Jr., fundador da Stilingue.
Devidamente treinado, o computador começou a reproduzir os textos. André Luiz, por exemplo, tinha o hábito de colocar falas espaçadas entre blocos de texto maiores, ao invés de criar longos blocos de diálogos.

André Luiz: entidade espírita vs. bot

Este primeiro texto foi psicografado por Chico Xavier
Os encarnados presentes viam tão-somente o corpo de Otávia, dominado pelo sacerdote que lhes era invisível, quase a rebentar-se de soluços atrozes, mas nós víıamos além. A nobre senhora desencarnada postou-se ao lado do filho e começou a beijá-lo, em lágrimas de reconhecimento e amor. Pranto copioso identificava-os. Cobrando forças novas, a genitora continuou:

– Perdoe-me, filho querido, se noutra época induzi o seu coração à responsabilidade eclesiástica, modificando o curso de suas tendências. Suas lutas de agora me atingem a alma angustiada. Seja forte, Marinho, e ajude-me! Desvencilhe-se dos maus companheiros! Não vale rebelar-se. Nunca fugiremos à lei do Eterno! Onde você estiver, a voz divina se fará ouvir no imo da consciência…

Nesse momento, observei que o sacerdote recordou instintivamente os amigos, tocado de profundo receio. Agora que reencontrava a mãezinha carinhosa e devotada a Deus, que sentia a vibração confortadora do ambiente de fraternidade e féé, sentia medo de regressar ao convívio dos colegas endurecidos no mal.

Já este foi criação da inteligência artificial

A primeira vez mais providencial de serviço de sua consciência, a senhora Laura encontrava-se com a presença de alguns, com a sua consciência espiritual e a medicina de amor, acrescentou:

– O controlador de serviço está disposto a escapar com as mesmas expressões de alegria.

A primeira vez mais forte de algum tempo, a senhora de Alexandre prosseguiu a companheira de serviço e considerando a alegria da conversação despediu-se:

– Neste momento, a maioria dos companheiros encarnados estão através de construções destruidoras e desencarnadas. A consciência tem sempre a construção do coração.
Depois de criar três bots capazes de imitar os autores com uma precisão considerável (erro de 22% para André Luiz, 5% para Emmanuel e 32% para o Humberto de Campos), dá para dizer que cada autor tem um estilo razoavelmente marcante e uniforme.
Agora, dá para dizer que eles são diferentes entre si? Ou será que o estilo delata que teriam sido escritos por uma só pessoa? Para fazer o teste, eles decidiram confundir a máquina. Misturaram os textos de diferentes autores. Mandaram o bot do Emmanuel escrever com base na obra do Humberto, o do Humberto imitar o André e assim por diante. Deu errado: a taxa de erro disparou. Os modelos eram incapazes de encontrar os mesmos padrões de estilo de uma entidade espírita nos livros da outra. Os autores são, sim, marcadamente diferentes.

A questão que resta é: há outras formas de explicar o resultado?
Misturar textos de diferentes temas e épocas de um mesmo autor já é suficiente para aumentar a taxa de erro. Mas não tanto assim. “Fizemos um teste com o Paulo Coelho justamente para testar um único autor com diferentes livros e muitos textos. A taxa de erro aumenta – mas mesmo assim continua baixa”, explica Milton. O teste com Paulo Coelho retornou uma taxa de apenas 10%.
Outra possibilidade cética seria a criação consciente e deliberada de Chico Xavier de diferentes personas, uma para cada autor – coisa parecida com o que o escritor Fernando Pessoa fez, com seis heterônimos marcadamente diferentes.
Milton também tinha uma resposta para isso: eles fizeram o teste de deep learning também com Fernando Pessoa. “Faltou quantidade de dados suficiente para atender essa técnica”, responde Stiilpen. A Stilingue não conseguiu acesso fácil e digitalizado à quantidade necessária de material de cada heterônimo de Pessoa. Relembrando, o mínimo necessário para a análise usando deep learning é de 1 milhão de caracteres o que significa, nesse caso, 6 milhões para uma análise de todos os “autores” em questão. E isso só para aquecer.
Graças a esses resultados, a análise textual deve virar um projeto de pesquisa oficial que vai, inclusive, selecionar outras técnicas mais adequadas a autores como Fernando Pessoa e Nelson Rodrigues. Mas, de tudo isso, qual foi o veredito do estudo sobre Chico Xavier?
A psicografia segue como uma questão de fé. Mas se o estudo atesta algo, é a genialidade do médium. Escrever o volume de texto que ele escreveu, com personas comprovadamente distintas, mas uniformes entre si, não precisa nem ser sobrenatural para ser absolutamente impressionante. Ou, como colocou Monteiro Lobato, “Se Chico Xavier produziu tudo aquilo por conta própria, então ele merece ocupar quantas cadeiras quiser na Academia Brasileira de Letras.”

13.329 – Novo telescópio da Nasa poderá ver as primeiras galáxias do Universo


telescopio
Existe uma grande ansiedade para o lançamento do Telescópio Espacial James Webb, em outubro do ano que vem, sobretudo em conexão com o estudo de exoplanetas e a busca de potenciais evidências de habitabilidade e vida fora do Sistema Solar. Mas, quando o próximo grande observatório da Nasa foi projetado, seu objetivo era outro: sua missão principal era — e continua sendo — observar as primeiras galáxias do Universo.
Quem conta essa história é Duília de Mello, astrofísica, pesquisadora associada da agência espacial americana e vice-reitora da Universidade Católica da América, em Washington (EUA).
Os resultados que o novo telescópio trará com exoplanetas também empolgam a cientista. “Depois vamos ter de ter uma missão dedicada a exoplanetas, mas com o James Webb já se espera que se possa fazer alguma coisa transformadora, algo que vá ser legal.”
Em termos de pesquisa de exoplanetas, o foco estará sobre os mundos a orbitar estrelas menores e menos brilhantes — as anãs vermelhas, como Proxima Centauri, a estrela mais próxima do Sol. Contudo, há grande discussão entre os astrônomos se planetas na zona habitável dessas estrelas poderiam ou não ter ambientes favoráveis à vida. O James Webb pode ser o tira-teima neste caso.
Antes que ele possa fazer isso, contudo, o telescópio precisa ser lançado e funcionar corretamente. E Duília de Mello, astrônoma brasileira, afirma que, no momento, esta é a maior preocupação de todos os envolvidos com o projeto. “Ele vai abrir [no espaço] igual a um guarda-chuvinha, e são 65 pontos de abertura. Se um desses der errado, são muitos bilhões de dólares, muita gente a perder o sono. Essa é a ansiedade atual.”

13.326 – Mega Byte – WhatsApp libera função de apagar mensagens enviadas


whats ap
As próximas atualizações do WhatsApp trarão a função de “anular” uma mensagem. Hoje, o usuário que quiser apagar uma mensagem enviada, até consegue, porém o destinatário ainda a recebe e vê seu conteúdo. Com o novo recurso, o remetente tem até cinco minutos para decidir se quer ou não apagar a mensagem — e dessa vez a pessoa ou grupo do outro lado não a recebe.
A função foi anunciada na página de perguntas e respostas frequentes do site do WhatsApp. Pouco depois de sua publicação, a página foi deletada, porém ainda é possível consultá-la no cachê da internet.
Segundo o anúncio, quando uma mensagem for apagada, o destinatário apenas verá o lembrete “esta mensagem foi anulada” na conversa. No entanto, para que o recurso funcione, é necessário que os dois lados da linha estejam usando a versão mais recente do WhatsApp. E caso não funcione, o usuário que tentou apagar a mensagem não será notificado.

Como ativar o recurso
Além de estar com a versão mais atualizada do aplicativo, é necessário:
No Android, tocar a mensagem e segurá-la para que fique destacada e, em seguida, clicar em ‘menu > anular’.
No iPhone e no Windows Phone, tocar e segurar a mensagem para destacá-la e clicar em ‘anular’.

Fonte: Galileu

13.314 – Energia X Ambiente – Novas hidrelétricas na Amazônia podem prejudicar clima e ecossistemas


rio tapajos
Se forem em frente os atuais planos de construir centenas de hidrelétricas na Amazônia nas próximas décadas, o efeito dominó sobre todas as regiões banhadas pelo Amazonas e seus afluentes será imenso: muito menos nutrientes para os peixes e a floresta, um litoral menos produtivo e possíveis alterações climáticas que alcançariam até a América do Norte.
Esse prognóstico nada animador vem da primeira análise integrada do impacto das usinas no maior rio do mundo, conduzida por uma equipe internacional de pesquisadores e publicada na revista científica “Nature”.
O grupo, que inclui cientistas do Inpa (Instituto Nacional de Pesquisas da Amazônia), da Universidade Federal do Amazonas e da Universidade do Texas em Austin (EUA), formulou um índice de vulnerabilidade dos rios amazônicos diante das obras atuais e futuras e concluiu que dois importantes afluentes que atravessam o território brasileiro, o Madeira e o Tapajós, estão entre os que mais sofrerão (e, aliás, já estão sofrendo) com a febre das novas hidrelétricas.
Para o coordenador do estudo, o geólogo argentino Edgardo Latrubesse, da Universidade do Texas, não se trata de impedir a geração de energia na região, mas de levar em conta os impactos dela e pensar em modelos alternativos para a Amazônia.
No caso do rio Tapajós, o principal temor está ligado ao grande número de empreendimentos hidrelétricos (90 planejados mais 28 já em funcionamento), bem como a fatores como a falta de áreas protegidas nas margens do rio e a ocupação humana já relativamente intensa na região.
Alterações de grande porte no fluxo da água e dos sedimentos pela bacia amazônica inevitavelmente vão influenciar o que acontece no oceano Atlântico quando o Amazonas deságua nele. Podem acontecer efeitos negativos nos maiores manguezais ainda intactos na América do Sul, que ficam justamente na costa amazônica.
O estudo não se limita a profetizar a catástrofe iminente, porém. Os pesquisadores propõem que só uma gestão integrada e transnacional dos rios amazônicos será capaz de evitar o mau uso desses recursos.
Para isso, o órgão ideal seria a Organização do Tratado de Cooperação Amazônica, que já reúne os países cujo território integra o bioma. Um painel formado por cientistas de todas essas nações poderia fornecer recomendações sobre a maneira mais racional de produzir energia, com a ajuda dos rios ou por outras fontes renováveis, como a solar e a eólica.

13.298 – Mega Techs – Falecido em 2012 o criador do primeiro controle remoto sem fio para TV


controle
Se você consegue trocar o canal da sua televisão sem sair debaixo das cobertas, agradeça a Eugene Polley. O inventor do primeiro controle remoto sem fio para aparelhos de TV morreu aos 96 anos, nos Estados Unidos.
Polley começou a sua carreira na década de 30, trabalhando para a empresa Zenith Radio Corporation (hoje Zenith Eletronics, subsidiária da LG). Em 1955 ele criou o primeiro controle remoto sem fio para TV, batizado de Flash-Matic. O aparelho não funcionava muito bem e era preciso ajustar perfeitamente o ângulo de mira para que ele pudesse ser eficaz.
A invenção de Polley representou uma revolução na televisão. Pela primeira vez, os espectadores puderam mudar de canal durante o intervalo comercial ou ainda ver um pedaço de um programa em cada emissora sem precisar levantar do sofá. Eugene dedicou 47 anos de trabalho à Zenith.

Saiba mais com o Mega
Na Primeira Guerra Mundial, o controle remoto foi usado como um aparelho de rádio frequência que monitorava navios alemães. Com objetivos militares, foram desenvolvidos rádios controladores de navios, de bombas e armas que eram usados remotamente para destruir o inimigo. Na Segunda Guerra Mundial, ele foi usado como detonador de bombas.
No fim da guerra, os cientistas tinham uma tecnologia, mas não sabiam como aplicá-la. Os Estados Unidos foram aprimorando o uso do controle remoto e os cientistas começaram a testá-lo para outros fins.
O criador dessa nova tecnologia foi Nikola Tesla, um cientista que nasceu na Croácia. Com uma excelente memória capaz de dar origem a várias invenções, Nikola, em 1898, patenteou um dispositivo capaz de controlar um barco via rádio.
Em 1903, foi lançado o Telekino, um robô com comandos transmitidos via ondas eletromagnéticas. Ele foi o primeiro controle remoto via rádio no mundo e pioneiro no controle remoto. O robô foi uma criação de Leonardo Torres Quevedo, que registrou sua patente na França, Espanha, Grã-Bretanha e Estados Unidos.
No final de 1930, os fabricantes de rádio criaram vários controles remotos em modelos superiores e a maioria estava ligada ao controle sem fios. A Philco lança o Mystery Control, um controle para rádios à pilha de baixa frequência.
Em 1940, são criados os controles automáticos de garagem. E, em 1950, com a chegada dos televisores eles foram sendo adaptados para TV.
No início dos anos 50, foi criado o primeiro controle remoto da Zenith Eletronics Corporation por Robert Adler. A TV foi revolucionada pelo aparelho. Ela criou um controle sem fio com som de alta frequência usado para transmitir comandos para a TV, o “Space Command”. Não funcionava por meio de baterias e serviu como exemplo para a criação de outros controles até o início da década de 80. A partir daí, começou a ser substituído por aparelhos movidos a raios infravermelhos, que eram simples e baratos. E foi por isso que o controle remoto se tornou mais atrativo e popular.
Nos aprofundando mais na história, em 1941, Robert Adler, um austríaco, começou a trabalhar na Zenith Eletronics (uma empresa norte-americana que tem uma relação com a criação da televisão). Inicialmente, eles teriam fabricado dois tipos de controle remoto: com fio e sem fio. O controle com fio possuía cabo e era chamado de Lazy Bones (1950), acionado pelo polegar. Como ele era conectado a TV, o público não se familiarizou. Pessoas tropeçavam nos cabos e diziam que não era bonito ter um cabo daqueles conectados à TV, em sua sala de estar.
Então, decidiram criar o Flash-matic (1955), um aparelho que emitia flashs de luz através de um tipo de “revólver” e acionava fotocélulas localizadas nos quatro cantos da tela de TV. Cada fotocélula era responsável por uma função: abaixar e diminuir o volume e mudar de canal. O novo modelo ainda não havia agradado a muitos, pois além da dificuldade de lembrar qual das fotocélulas fazia o que, outro problema ocorria quando a TV era exposta à claridade: as fotocélulas se ativavam sem o uso do controle. Imagine a confusão: som altíssimo, canais desregulados e outros problemas.

Um controle para marcar época
O chefe da Zenith, Eugene F. McDonals Jr., alertou e reuniu a sua equipe para resolver o problema. Em meio à reunião, Adler sugeriu a criação de um controle com o uso do ultrassom, cuja frequência de som é tão alta que os ouvidos humanos não conseguem escutar. Houve contradições quanto à ideia dele. Mas, no final, ele e seus colegas de trabalho decidiram fazer um experimento. O incrível Zenith Space Command (1956). A ideia foi um sucesso.
Em 1955, eles começaram fazendo os testes e em 1956 concluíram a obra. Foi criado um controle sem baterias. Na época, os únicos objetos que utilizavam baterias eram as lanternas e os aparelhos para auxiliar na audição. Se o controle remoto parasse de funcionar por causa da bateria, as pessoas iriam achar que ele estava estragado, e daí surgiu essa necessidade.
Uma das dificuldades encontradas pela equipe de Adler foi a descoberta de que mulheres jovens tem uma audição superior à de outras pessoas. Assim constatou o fato num livro científico que utilizou na época. No laboratório, uma jovem profissional deu um pulo quando eles produziram o som que era um pouco mais alto do que os ouvidos poderiam captar. Além disso, o som também pode incomodar os cães.
Conseguindo ultrapassar essa barreira, buscaram trabalhar com uma frequência de som mais alta da qual ninguém poderia ouvir. Utilizaram ondas de ultrassom para transmitir os sinais para a TV e por causa dessa tecnologia, o custo tornou-se mais elevado. Na década de 70 foi necessário usar números de três dígitos e mudar para diferentes canais.
O controle remoto com ultrassom foi usado por duas décadas. Com suas desvantagens, foi necessária a criação do controle infravermelho (1977). A BBC criou o Protocolo ITT de comunicação infravermelha. Nela, cada botão possui um comando que, quando acionado, é enviado para TV.
Há também um pequeno sensor (fotodetector) que identifica cada feixe infravermelho e converte o código em um comando, permitindo a mudança de canais. Uma das desvantagens é que o sinal infravermelho deve estar de frente ao sinal de TV.
Para Adler, uma das motivações maiores de se criar um controle remoto era puramente lógica. A pessoa não teria que se levantar toda hora para mudar canais, ou apagar uma luz por exemplo.
E, inicialmente, ele não pensou que o controle remoto se tornaria algo tão popular, embora desejasse que isso ocorresse. Apesar do controle ter demorado 25 anos para sua popularização, (antes a tecnologia usada encareciam a TV) com a tecnologia da luz infravermelha isso foi possível.
Em 1980, Steve Wozniak, o co-fundador da Apple, se interessou pelo desenvolvimento do controle remoto universal e com o lançamento do CORE (controlador remoto de equipamentos, 1987), um controlador remoto que poderia aprender sinais remotos de outros aparelhos eletrônicos que pode ser ligado ao computador e carregada uma lista de códigos de um software específico do site do fabricante. No entanto, as funcionalidades de cada botão do CORE foram consideradas complexas e difíceis de serem executadas. Foi um dos primeiros controles remotos de aprendizagem controlados por um software de computador.
De acordo com a Consumer Eletronics Association, até o início de 2000, o número de pessoas que utilizam dispositivos eletrônicos em sua casa aumentou, assim como o número de controles remotos. É raro encontrarmos um só controle em nossa casa. Existem diferentes aparelhos e para cada um, temos um controle. Por esse motivo, surgiu a ideia da criação de aparelhos remotos universais capazes de controlar qualquer dispositivo eletrônico.

Entenda a tecnologia
Para aqueles que querem aprender como um controle infravermelho funciona, é necessário estar acompanhado de um bom professor e livro de eletrônica. Mas, a título de curiosidade, seguem alguns componentes do controle infravermelho e suas funções.
A maioria dos controles infravermelhos possui uma placa de circuito impresso (CI) em seu interior com:
Microprocessador – um componente que possui todo o controle lógico do controle remoto. Ao apertamos as teclas, ele lê a informação e processa o comando necessário. Esse processo é chamado de matriz (o mesmo contato passa por várias ilhas, formando uma informação digital). Ex.: Verificação de botões pressionados, emissão do comando completo para o sistema de comunicação infravermelho, verificação de pilhas fracas, etc.
Cristal oscilador – através da ressonância, o cristal vibra com a pizoeletricidade, capacidade de alguns cristais gerarem corrente elétrica devido a uma pressão mecânica, assim, é criado um sinal elétrico com frequência bem precisa. Ele que ditará a velocidade com que o microprocessador irá processar os comandos.
Componentes em geral – capacitores cerâmicos, resistores, diodos e transistores. São componentes secundários necessários para o funcionamento do circuito como um todo.
LED infravermelho ou diodo emissor de luz – responsável por gerar luz infravermelha que é invisível ao olho humano e que transmite o comando para a TV.

Outros componentes do controle:
A Placa de CI – é um pedaço fino de fenolite, com caminhos feitos de cobre, gravados em sua superfície. Os componentes são montados na placa de circuito impresso, por causa da facilidade de produção e montagem em grande quantidade. Nessa placa, também existem pistas de Carbono, com o objetivo de fechar os contatos com as conexões quando a tecla é pressionada.
Conjunto de pontos ou trilhas pretas de tinta condutiva – elas que fazem contato com os botões.
Botões – são feitos por uma lâmina fina emborrachada (chamada de manta). Para cada botão, encontramos um disco condutor preto. Quando o disco toca na placa de circuito impresso, eles se conectam e o microprocessador consegue receber essa conexão.

E como o processo acontece:
Quando pressionamos um botão, dois ou mais pinos do microprocessador são conectados de forma única, permitindo assim que ele saiba qual comando foi escolhido pelo usuário. O microprocessador produz uma sequência de piscos rápidos no LED infravermelho na forma de um código binário específico para o botão pressionado. Os transistores amplificam esses pulsos enviados pelo microprocessador para o LED, que traduz o sinal em luz infravermelha. O sensor na TV pode ver a luz infravermelha e reage apropriadamente ao ver o sinal. Na TV, há um outro microprocessador que lê o sinal emitido pelo controle e efetua os comandos específicos, como trocar de canal, aumentar o volume e todos os outros que atuam no equipamento.

Problemas com seu controle remoto?
O que fazer quando eles param de funcionar? Ou não obedecem ao seu comando quando você aperta a tecla? Ou mesmo, as pilhas utilizadas já foram trocadas e você não consegue encontrar o defeito.
A maior parte dos problemas acontece na manta de borracha. Quando se torna rígida e coberta por impurezas originadas pela exposição contínua ao ambiente.
Devido a esse composto da manta, a placa de circuito impresso, nas áreas de pressão das teclas, é contaminada e mesmo sem pressionarmos a tecla, ela provoca erros de interpretação.
Abra o controle com cuidado e retire a poeira com um pincel limpo e seco. Após isso, passe um pouco de tinta condutiva nos botões defeituosos. Deixe secar por uma hora, verifique se secou mesmo (caso contrário pode piorar a situação), monte o controle e veja se funciona. Pode haver também sujeira no contato com a bateria: veja se há alguma ferrugem ou sujeira no local onde se colocam as pilhas.
Pode haver um fio solto também. São essas pequenas coisas que afetam o funcionamento do controle. Resolva isso usando álcool isopropílico e passe no terminais de contato das pilhas. Espere secar e coloque as pilhas novamente.
Lembre-se que você precisa ter ferramentas adequadas e algum conhecimento de Eletrônica para qualquer tipo de manutenção. Caso não possua, será melhor procurar um técnico experiente.

Controle Remoto de Aprendizagem
A aprendizagem por controle remoto universal é o processo pelo qual o controle captura e armazena os sinais infravermelhos de outros controles. Quando os códigos não se encontram na memória do controle universal, eles são aprendidos do controle original. Basta apontar um controle para o outro. Há controles remotos universais que reconhecem a lista de códigos programados no velho controle remoto.
Normalmente, esses controles já vêm pré-programados com códigos capazes de controlar vários aparelhos. É só você selecionar a marca, o fabricante e usá-lo. Já outros recebem o feixe infravermelho dos controles convencionais e armazenam os códigos em sua memória. Com essa função, ele é capaz de armazenar a função de qualquer botão do controle remoto, com as teclas de aprendizagem e ainda você pode utilizar a gravação macro.
Ele suporta novas marcas ou modelos de todos os tipos de aparelhos. Há controles universais que necessitam ser conectados a um computador, através do cabo USB, para serem configurados.
Exemplo de controles com função de aprendizagem: Philips Controle remoto SRU5040 Universal, Controle Remoto Logitech Harmony 670 Universal Avançado, One for All Xsight Touch e One for All Xsight Color etc.

13.294 – Projeto biotecnológico devolve visão a cegos


olho bionico
Em uma das jornadas internacionais de estudos organizadas pela Solve for X (o laboratório de ideias da Google que promove projetos inovadores com tecnologias avançadas), a professora Yael Hanein, diretora do Centro de Nanociência, Nanotecnologia e Nanomedicina do Instituto da Universidade de Tel Aviv, apresentou o resultado do seu trabalho de 10 anos: uma retina artificial, capaz de substituir a ação dos fotorreceptores naturais dos olhos que foram danificados pela degeneração macular relacionada à idade (AMD).
A AMD consiste na degeneração progressiva, causada pela idade, da mácula (parte central da retina), e que pode afetar a capacidade visual a partir dos 50 anos. Quando um paciente sofre de AMD, seus fotorreceptores são prejudicados – e o olho perde a capacidade de receber os raios de luz e transformá-los em sinais elétricos transmitidos ao cérebro através do nervo ótico.
De acordo com Hanein, sua retina artificial substitui esses fotorreceptores por um dispositivo capaz de transferir sinais elétricos ao cérebro, emulando o processo natural. Embora ainda faltem detalhes importantes, já se comprovou que essa tecnologia funciona e é capaz de estimular e restaurar a informação visual da retina, mesmo que em um sistema essencialmente cego.

13.277 – Física – Como funciona um Dínamo?


dinamo
O dínamo é constituído por um imã fixo em um eixo móvel, ao redor deste eixo existe uma bobina (fio condutor enrolado, constituindo um conjunto de espiras). Não existe contato físico entre o imã e a bobina. No caso do dínamo de bicicleta, o movimento de rotação da roda, ou da correia, é transferido para o eixo do dínamo.
É um gerador de eletricidade, um aparelho que transforma Energia Mecânica em Energia Elétrica.
Hans Orsted observou que a agulha de uma bússola oscilava quando aproximada de um fio condutor percorrido por corrente elétrica. Michel Faraday se interessou pelo fenômeno e após alguns experimentos, observou que quando um imã se move próximo de um circuito elétrico, a corrente elétrica do circuito é alterada. Este fenômeno, chamado de indução magnética é explicado pela Lei de Lenz, que estabelece: o sentido da corrente induzida é oposto da variação do campo magnético que a gera.
Logo, sabemos hoje que a variação de campo magnético gera corrente elétrica. No dínamo o imã gira com a bobina ao seu redor. Este movimento gera a variação do campo magnético do imã, surgindo então, uma corrente elétrica no conjunto de espiras da bobina. Esta corrente elétrica é utilizada para acender o farol do bicicleta, ou qualquer led que seja instalado no circuito.
Este mecanismo funciona de acordo com o princípio de conservação de energia, ou seja, parte da energia utilizada para girar a roda da bicicleta é transformada em energia elétrica através da indução magnética.

Dinamotor é um sistema eletromecânico é uma fonte de bateria de acumuladores de 24 volt e um gerador alimentado por motor.

 

13.269 – Mega Byte – A Ciência da Computação


ciencia da computacao

“ Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio, a biologia com o microscópio, ou a química com os tubos de ensaio. A ciência não estuda ferramentas, mas o que fazemos e o que descobrimos com elas. ”

É a ciência que estuda as técnicas, metodologias e instrumentos computacionais, que automatiza processos e desenvolve soluções baseadas no uso do processamento digital. Não se restringe apenas ao estudo dos algoritmos, suas aplicações e implementação na forma de software, extrapolando para todo e qualquer conhecimento pautado no computador, que envolve também a telecomunicação, o banco de dados e as aplicações tecnológicas que possibilitam atingir o tratamento de dados de entrada e saída, de forma que se transforme em informação. Assim, a Ciência da Computação também abrange as técnicas de modelagem de dados e os protocolos de comunicação, além de princípios que abrangem outras especializações da área.
Enquanto ciência, classifica-se como ciência exata, apesar de herdar elementos da lógica filosófica aristotélica, tendo por isto um papel importante na formalização matemática de algoritmos, como forma de representar problemas decidíveis, i.e., os que são susceptíveis de redução a operações elementares básicas, capazes de serem reproduzidas através de um qualquer dispositivo mecânico/eletrônico capaz de armazenar e manipular dados. Um destes dispositivos é o computador digital, de uso generalizado, nos dias de hoje. Também de fundamental importância para a área de Ciência da Computação são as metodologias e técnicas ligadas à implementação de software que abordam a especificação, modelagem, codificação, teste e avaliação de sistemas de software.
Os estudos oriundos da Ciência da Computação podem ser aplicados em qualquer área do conhecimento humano em que seja possível definir métodos de resolução de problemas baseados em repetições previamente observadas. Avanços recentes na Ciência da Computação tem impactado fortemente a sociedade contemporânea, em particular as aplicações relacionadas às áreas de redes de computadores, Internet, Web e computação móvel que têm sido utilizadas por bilhões de pessoas ao redor do globo.

abaco

Um pouco de História
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a habitantes da Mesopotâmia, em torno de 2700–2300 a.C.. Seu uso original era desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.
No século VII a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou transformações e recursividade com tamanha sofisticação que sua gramática possuía o poder computacional teórico tal qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os logaritmos para uso computacional no século XVI, seguiu-se um período de considerável progresso na construção de ferramentas de cálculo.
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o sistema de numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o matemático persa al-Khwarizmi escreveu o livro Calculando com numerais hindus, responsável pela difusão do sistema de numeração hindu-arábico no Oriente Médio, e posteriormente na Europa. Por volta do século XII houve uma tradução do mesmo livro para o latim: Algoritmi de numero Indorum. Tais livros apresentaram novos conceitos para definir sequências de passos para completar tarefas, como aplicações de aritmética e álgebra. Por derivação do nome do matemático,actualmente usa-se o termo algoritmo.

Lógica binária
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de numeração binário. Ainda usado atualmente no processamento de todos computadores modernos, o sistema estabelece que sequências específicas de uns e zeros podem representar qualquer informação.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e matemático, utilizando o sistema binário. Em seu sistema, uns e zeros também representam conceitos como verdadeiro e falso, ligado e desligado, válido e inválido. Mais de um século depois, George Boole publicou a álgebra booleana (em 1854), com um sistema completo que permitia a construção de modelos matemáticos para o processamento computacional. Em 1801, apareceu o tear controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual buracos indicavam os uns e, áreas não furadas, indicavam os zeros. O sistema está longe de ser um computador, mas ilustrou que as máquinas poderiam ser controladas pelo sistema binário.

Foi com Charles Babbage que o computador moderno começou a ganhar forma, através de seu trabalho no engenho analítico. O equipamento descrito originalmente em 1837, mais de um século antes de seu sucessor, nunca foi construído com sucesso, mas possuía todas as funções de um computador moderno. O dispositivo de Babbage se diferenciava por ser programável, algo imprescindível para qualquer computador moderno.
Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros programas de computador em uma série de notas para o engenho analítico. Por isso, Lovelace é popularmente considerada como a primeira programadora.

Nascimento da Ciência da Computação
Antes da década de 1920, computador era um termo associado a pessoas que realizavam cálculos, geralmente liderados por físicos. Milhares de computadores eram empregados em projetos no comércio, governo e sítios de pesquisa. Após a década de 1920, a expressão máquina computacional começou a ser usada para referir-se a qualquer máquina que realize o trabalho de um profissional, especialmente aquelas de acordo com os métodos da Tese de Church-Turing.
O termo máquina computacional acabou perdendo espaço para o termo reduzido computador no final da década de 1940, com as máquinas digitais cada vez mais difundidas. Alan Turing, conhecido como pai da Ciência da Computação, inventou a Máquina de Turing, que posteriormente evoluiu para o computador moderno.
Os fundamentos matemáticos da Ciência da Computação moderna começaram a ser definidos por Kurt Gödel com seu teorema da incompletude (1931). Essa teoria mostra que existem limites no que pode ser provado ou desaprovado em um sistema formal; isso levou a trabalhos posteriores por Gödel e outros teóricos para definir e descrever tais sistemas formais, incluindo conceitos como recursividade e cálculo lambda.
Em 1936 Alan Turing e Alonzo Church independentemente, e também juntos, introduziram a formalização de um algoritmo, definindo os limites do que pode ser computador e um modelo puramente mecânico para a computação. Tais tópicos são abordados no que atualmente chama-se Tese de Church-Turing, uma hipótese sobre a natureza de dispositivos mecânicos de cálculo. Essa tese define que qualquer cálculo possível pode ser realizado por um algoritmo sendo executado em um computador, desde que haja tempo e armazenamento suficiente para tal.
Turing também incluiu na tese uma descrição da Máquina de Turing, que possui uma fita de tamanho infinito e um cabeçote para leitura e escrita que move-se pela fita. Devido ao seu caráter infinito, tal máquina não pode ser construída, mas tal modelo pode simular a computação de qualquer algoritmo executado em um computador moderno. Turing é bastante importante para a Ciência da Computação, tanto que seu nome é usado para o Prêmio Turing e o teste de Turing. Ele contribuiu para a quebra do código da Alemanha pela Grã-Bretanha[3] na Segunda Guerra Mundial, e continuou a projetar computadores e programas de computador pela década de 1940; cometeu suicídio em 1954.
Até a década de 1930, engenheiros eletricistas podiam construir circuitos eletrônicos para resolver problemas lógicos e matemáticos, mas a maioria o fazia sem qualquer processo, de forma particular, sem rigor teórico para tal. Isso mudou com a tese de mestrado de Claude Shannon de 1937, A Symbolic Analysis of Relay and Switching Circuits. Enquanto tomava aulas de Filosofia, Shannon foi exposto ao trabalho de George Boole, e percebeu que poderia aplicar esse aprendizado em conjuntos eletro-mecânicos para resolver problemas. Shannon desenvolveu a teoria da informação no artigo de 1948: A Mathematical Theory of Communication , cujo conteúdo serve como fundamento para áreas como compressão de dados e criptografia.
Apesar de sua pequena história enquanto uma disciplina acadêmica, a Ciência da Computação deu origem a diversas contribuições fundamentais para a ciência e para a sociedade. Esta ciência foi responsável pela definição formal de computação e computabilidade, e pela prova da existência de problemas insolúveis ou intratáveis computacionalmente.
Também foi possível a construção e formalização do conceito de linguagem de computador, sobretudo linguagem de programação, uma ferramenta para a expressão precisa de informação metodológica flexível o suficiente para ser representada em diversos níveis de abstração.
Para outros campos científicos e para a sociedade de forma geral, a Ciência da Computação forneceu suporte para a Revolução Digital, dando origem a Era da Informação.
A computação científica é uma área da computação que permite o avanço de estudos como o mapeamento do genoma humano (ver Projeto Genoma Humano).

Blaise Pascal, desenvolveu a calculadora mecânica e tem seu nome em uma linguagem de programação;
Charles Babbage, projetou um computador mecânico, a máquina analítica;
Ada Lovelace, considerada a primeira pessoa programadora, deu nome à uma linguagem de programação;
Alan Turing, participou do projeto Colossus e foi um dos cérebros que decifra a Enigma. Também inventou um tipo teórico de máquina super-simples capaz de realizar qualquer cálculo de um computador digital, a Máquina de Turing
John von Neumann, descreveu o computador que utiliza um programa armazenado em memória, a Arquitetura de von Neumann, que é a base da arquitetura dos computadores atuais
John Backus, líder da equipe que criou o Fortran e criou a notação BNF
Maurice Vicent. Wilkes, inventor do somador binário
Howard Aiken, inventor do Mark I
Walter H. Brattain, inventor do transístor
William Shockley, inventor do transístor
John Bardeen, inventor do transístor
Fred Williams, inventor da memória RAM
Tom Kilburn, inventor da memória RAM
Konrad Zuse, inventor independente do computador digital e de linguagens de programação na Alemanha nazista
John Atanasoff, inventor do primeiro computador digital, o Atanasoff–Berry Computer, ABC
Clifford Berry, assistente de Atanasoff
Almirante Grace Hopper, programadora do Mark I, desenvolveu o primeiro compilador; primeira mulher a receber um Ph.D. em matemática
Edsger Dijkstra, líder do ALGOL 60, publicou o artigo original sobre programação estruturada
J. Presper Eckert, criador do ENIAC
John William Mauchly, criador do ENIAC

Abrange
Arquitetura de computadores — o desenvolvimento, a organização, a otimização e a verificação de sistemas computacionais
Computação distribuída — computação sendo executada em diversos dispositivos interligados por uma rede, todos com o mesmo objetivo comum
Computação paralela — computação sendo executada em diferentes tarefas; geralmente concorrentes entre si na utilização de recursos
Computação quântica — representação e manipulação de dados usando as propriedades quânticas das partículas e a mecânica quântica
Sistemas operacionais — sistemas para o gerenciamento de programas de computador e para a abstração da máquina, fornecendo base para um sistema utilizável
Por ser uma disciplina recente, existem várias definições alternativas para a Ciência da Computação. Ela pode ser vista como uma forma de ciência, uma forma de matemática ou uma nova disciplina que não pode ser categorizada seguindo os modelos atuais. Várias pessoas que estudam a Ciência da Computação o fazem para tornarem-se programadores, levando alguns a acreditarem que seu estudo é sobre o software e a programação. Apesar disso, a maioria dos cientistas da computaçao são interessados na inovação ou em aspectos teóricos que vão muito além de somente a programação, mais relacionados com a computabilidade.
Apesar do nome, muito da Ciência da Computação não envolve o estudo dos computadores por si próprios. De fato, o conhecido cientista da computação Edsger Dijkstra é considerado autor da frase “Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio […]”. O projeto e desenvolvimento de computadores e sistemas computacionais são geralmente considerados disciplinas fora do contexto da Ciência da Computação. Por exemplo, o estudo do hardware é geralmente considerado parte da engenharia da computação, enquanto o estudo de sistemas computacionais comerciais são geralmente parte da tecnologia da informação ou sistemas de informação.
Por vezes a Ciência da Computação também é criticada por não ser suficientemente científica, como exposto na frase “Ciência é para a Ciência da Computação assim como a hidrodinâmica é para a construção de encanamentos”, credita a Stan Kelly-Bootle.
Apesar disso, seu estudo frequentemente cruza outros campos de pesquisa, tais como a inteligência artifical, física e linguística.
Ela é considerada por alguns por ter um grande relacionamento com a matemática, maior que em outras disciplinas. Isso é evidenciado pelo fato que os primeiros trabalhos na área eram fortemente influenciados por matemáticos como Kurt Gödel e Alan Turing; o campo continua sendo útil para o intercâmbio de informação com áreas como lógica matemática, teoria das categorias e álgebra. Apesar disso, diferente da matemática, a Ciência da Computação é considerada uma disciplina mais experimental que teórica.

Várias alternativas para o nome da disciplina já foram cogitadas. Em francês ela é chamada informatique, em alemão Informatik, em espanhol informática, em holandês, italiano e romeno informatica, em polonês informatyka, em russo информатика e em grego Πληροφορική. Apesar disso, tanto em inglês quanto em português informática não é diretamente um sinônimo para a Ciência da Computação; o termo é usado para definir o estudo de sistemas artificiais e naturais que armazenam processos e comunicam informação, e refere-se a um conjunto de ciências da informação que engloba a Ciência da Computação. Em Portugal, no entanto, apesar de a palavra estar dicionarizada com esse sentido amplo, o termo é usado como sinónimo de Ciência da Computação.
De forma geral, cientistas da computação estudam os fundamentos teóricos da computação, de onde outros campos derivam, como as áreas de pesquisa supracitadas. Como o nome implica, a Ciência da Computação é uma ciência pura, não aplicada. Entretanto, o profissional dessa área pode seguir aplicações mais práticas de seu conhecimento, atuando em áreas como desenvolvimento de software, telecomunicação, consultoria, análise de sistemas, segurança em TI, governança em TI, análise de negócios e tecnologia da informação. O profissional de computação precisa ter muita determinação na apreensão tecnológica, uma vez que esta área sofre contínuas transformações, modificando rapidamente paradigmas.

13.262 – Política – Como funciona a perícia de um áudio?


temer

Da Super para o ☻Mega

Dois dias depois do escândalo Temer, a Folha de S.Paulo publicou uma matéria onde o perito Ricardo Caires afirmava que o áudio havia sido editado em 50 partes diferentes. O Globo, então, afirmou ter conversado com Caires, que havia mudado sua versão (dessa vez eram só 14 pontos de edição). Agora, nesta segunda, a Folha diz que o perito continua sustentando a teoria de que havia meia centena de cortes na gravação.

Mas, afinal, como funciona a perícia de uma gravação?
A resposta não é tão simples. “Cada áudio é particular, ele tem singularidades que vão guiando a forma como a perícia é feita. A análise é conduzida de forma diferente para cada áudio”, explica André Morisson, diretor Associação Nacional dos Peritos Criminais Federais (APCF). Isso não significa, no entanto, que alguns passos costumam ser mais comuns. É eles que vamos explicar no box abaixo.

Me empresta, rapidinho
Ter em mãos o gravador utilizado pode ajudar nas conclusões finais. Assim, existe a possibilidade de realizar testes, e simulações que recriam as situações dos áudios. Um defeitinho no microfone, ou um gravador antigo podem caracterizar um áudio. Funciona como uma espécie de impressão digital auditiva, que assim como a dos seus dedos, deixa marcas cruciais para um estudo criminal (Joesley, diga-se, usou um pen drive com gravador embutido).

A cópia perfeita
O arquivo tem que ser transportado para o computador do perito, onde vai ser feita a análise, da forma mais fidedigna possível. Se você, aí da sua casa, colocar uma música em um pendrive para ouvi-la na caixinha de som da sala, por exemplo, o arquivo pode sofrer modificações conforme passa de um dispositivo para o outro. Coisa pequena, mas que pode fazer diferença na hora da investigação: uma compressão na frequência ou até mesmo a exclusão de metadados, ou seja, informações sobre hora, dia e até local em que foi gravado o material. Os profissionais usam softwares específicos que conseguem copiar o arquivo, sem modificá-lo. É a chamada cópia bit a bit.

A primeira escutada
Chamada de análise oitiva, é a audição do arquivo sem necessariamente estar acompanhado de equipamentos especializados para a dissecação do áudio. “O perito passa por treinamentos que apuram sua audição para esse tipo de áudio. Ele percebe com mais facilidade se há algo errado na gravação”, conta Morisson. A ideia é que nessa fase o perito já comece a direcionar em que partes ele vai focar em um primeiro momento da análise. Um ruído meio estranho no minuto 7? Melhor analisá-lo com mais atenção desde o começo. Isso não significa, no entanto, que o restante do arquivo será ignorado. O áudio inteiro é investigado, mas esse é o momento de direcionar os primeiros esforços.

Não entendi
Uma frase ficou sem sentido? Pode ser indicação de que algo foi tirado do arquivo. O contexto acaba servindo como ferramenta na detecção de edições. Podem ser perguntas sem respostas, ou simplesmente afirmações que não fazem muito sentido naquela situação. Tudo é analisado.

maluf

13.255 – Santos ganha 1º ônibus sustentável movido a energia elétrica e diesel


Santos ingressou para o seleto grupo de cidades do País a contar com ônibus híbrido, que funciona com um motor elétrico e outro a diesel. Um veículo do tipo entrou em operação na tarde desta terça-feira (16) na linha 20, que liga o Centro ao Gonzaga. Além da economia de combustível, o modelo reduz a emissão de poluentes e a geração de ruído.
O novo veículo chama a atenção pelo design moderno e é mais alongado que o ônibus convencional, com 12,40 metros de comprimento – o outro tem 11 metros -, oferecendo 36 assentos. Dispõe de ar-condicionado e acessibilidade para pessoas com deficiência e mobilidade reduzida.
Ao acompanhar a entrega do veículo na Praça Mauá, o prefeito Paulo Alexandre Barbosa destacou que um dos tópicos do plano de melhorias do transporte coletivo é a modernização do sistema e a chegada do ônibus híbrido é mais um avanço.
“Estamos sempre buscando novas tecnologias”, disse o prefeito. Ele lembrou que hoje quase metade da frota está climatizada e 100% opera com wi-fi, além de o usuário contar com o aplicativo ‘Quanto Tempo Falta’, que informa o horário de chegada do ônibus no ponto.
A Viação Piracicaba informou que houve treinamento especial para os motoristas que vão trabalhar com o novo veículo adquirido pela empresa. A operação do híbrido deve atender as normas do fabricante, inclusive para que ocorra a recarga da bateria do motor elétrico.

Bateria elétrica
Os dois motores do ônibus híbrido funcionam de forma paralela ou independente. Quando o veículo está parado ou em velocidade de até 20km/h, é movido pela energia elétrica. Nas velocidades mais altas, entra em operação o sistema a diesel.
A bateria do motor elétrico é recarregada durante as frenagens. O veículo não emite ruído no arranque e fica silencioso quando parado em semáforos e nos pontos de embarque e desembarque de passageiros, momentos em que o motor a diesel permanece totalmente desligado.
Segundo a Volvo, fabricante do veículo, o híbrido gera economia de até 35% de combustível em relação ao veículo convencional e, por consequência, emite também 35% menos gás carbônico.

Saiba mais
No Brasil, há 41 unidades em circulação no momento. São 30 em Curitiba, cinco no Parque Nacional de Foz do Iguaçu, onde atende turistas, um em linha turística em São Paulo (onde há outros três em teste), além de um também em teste em Caxias do Sul e mais o de Santos. No mundo, são 3,3 mil veículos do tipo circulando em 21 países.

Cidades Sustentáveis

13.247 – O que se sabe até agora do mega-ataque cibernético em todo o mundo


hacker-attack-7849576-260120170021
Um ataque cibernético de grandes proporções atingiu diversas empresas e organizações pelo mundo nesta sexta-feira, afetando até mesmo os serviços de saúde britânicos.
Trata-se de uma aparente campanha de ransomware —em que computadores são infectados com um vírus que codifica e “sequestra” os arquivos. Os invasores, então, pedem um “resgate”: ameaçam destruir (ou tornar públicos) os arquivos caso não recebam dinheiro.
Há relatos de computadores infectados em até 74 países, incluindo Reino Unido, EUA, China, Rússia, Espanha e Itália, o que leva especialistas em segurança acreditar que se trate de uma ação coordenada.
Uma análise da empresa de antivírus Avast identificou um “enorme pico” de ransomwares pelo vírus WanaCrypt0r 2.0 (ou WCry). “Foram mais de 57 mil infecções até agora”, diz o blog da empresa, atualizado nesta tarde. “Segundo nossos dados, o ransomware alveja principalmente Rússia, Ucrânia e Taiwan, mas teve sucesso em infectar grandes instituições.”
No Reino Unido, houve significativo impacto sobre os arquivos digitais do NHS, equivalente ao SUS britânico. Dados de pacientes foram encriptados pelos invasores e se tornaram inacessíveis. Até ambulâncias e clínicas médicas foram afetadas.
Nos computadores invadidos, uma tela dizia “ops, seus arquivos foram codificados” e pedia pagamento de US$ 600 em bitcoins (moeda digital) para recuperá-los.
Outra grande empresa infectada foi a espanhola Telefónica, que disse em comunicado estar ciente de um “incidente de cibersegurança”. Segundo a empresa, clientes e serviços não foram afetados, apenas a rede interna.
Na Itália, um usuário compartilhou imagens de um laboratório de informática universitário aparentemente infectado pelo mesmo programa.
Nos EUA, a empresa de logística FedEx disse que, “assim como outras empresas, está vivenciando interferência com alguns de nossos sistemas baseados em Windows, por culpa de um malware (software malicioso) Faremos correções assim que possível”.

AMEAÇA CRESCENTE
Os ransomwares estão se tornando uma das mais importantes ameaças cibernéticas da atualidade.
E o ataque desta sexta se destaca: “Foi muito grande, impactando organizações pela Europa em uma escala que nunca havia visto”, disse o especialista em segurança cibernética Kevin Beaumont.
Especialistas apontam que o ataque explora uma vulnerabilidade que havia sido divulgada por um grupo que se autointitula The Shadow Brokers. Esse grupo recentemente declarou ter usado ferramentas digitais roubadas da NSA, a agência nacional de segurança dos EUA.
A empresa Microsoft havia conseguido criar proteções contra a invasão, mas os hackers parecem ter tirado proveito de redes de computadores que ainda não haviam atualizado seus sistemas.
Segundo especialistas, a proteção contra ransomwares passa por medidas básicas, como evitar clicar em links suspeitos e fazer cópia de arquivos importantes.

hacker resgate

13.245 – Audiotecnologia – A invenção do k7


Depois do vinil, derivado do gramofone, foi a tecnologia de gravação que mais tempo demorou no mercado.
A fita cassete (também conhecida como K7 ou compact cassette) reproduz áudios. É formada por dois carretéis e uma fita magnética coberta por substância à base de ferro ou de cromo. Nela, há milhões de imãs bem pequenos que formam um campo magnético. Ao gravar uma música, as partículas se ordenam de modo que conseguem captar o som.
Todo esse mecanismo é revestido por plástico para facilitar o manuseio e a utilização. Diferentemente do CD e MP3, se quiser escutar a mesma música é preciso rebobinar, ou seja, apertar o botão que faz a fita voltar e dar stop no ponto que deseja ouvir.
O K7 foi lançado oficialmente em 1963 pela empresa holandesa Philips. Tinha cerca de 10 cm e caixa plástica que permitia maior economia de espaço e excelente manuseio comparado às fitas tradicionais da época, que eram de rolo (uma forma ainda mais antiga de gravar áudios).
No início, era possível gravar apenas 30 minutos em cada lado da fita, totalizando uma hora de gravação. Se usasse mais tempo, a qualidade do som ficava ruim. Ao longo do tempo, foram acrescentados recursos tecnológicos e as fitas passaram a armazenar conteúdo por 45, 60, 90 e até 120 minutos. A invenção representava uma revolução na época, pois ampliava as possibilidades de reproduzir música.
Lógico que há muito mais pra se falar dessa tecnologia, pois surgiram depois as fitas de cromo e metal para alta fidelidade, mas isso pode ser visto em outro artigo do ☻ Mega.

O walkman, primeiro leitor de áudio portátil, ajudou a aumentar o número de usuários das fitas. Assim como o MP3, fez muito sucesso entre pessoas que adoravam ouvir música em todo lugar. No entanto, era bem maior do que os aparelhos que temos hoje e precisava de pilhas.

Do vinil ao CD player
Atualmente é difícil ver alguém usar fita cassete para ouvir a música preferida ou para gravar um som. Há anos esse mecanismo não é mais utilizado. O mercado de cassetes entrou em decadência no fim da década de 1980 devido ao aparecimento do CD player, que tem maior espaço para armazenamento de dados e músicas e qualidade de áudio superior. Também permite mudar as faixas rapidamente e pode durar por mais tempo. Afinal, as fitas magnéticas são facilmente danificadas pelo calor.
Desde os anos 2000, a forma de armanezar músicas e dados é feita por meio da mídia digital. Chamada MP3, a nova tecnologia pode vir em um CD, cartão de memória ou DVD. Tem qualidade de som superior e maior duração.

MAIS ANTIGO
O CD é a versão moderna do disco de vinil, que toca na vitrola. É feito de resina plástica derivada do petróleo, chamada policloreto de vinila ou PVC (mesmo material dos tubos e conexões usados em construções). O vinil surgiu em 1948, mas só começou a ser produzido em grandes quantidades na década de 1970. Ele era chamado de Long-Play (LP).

 

Fita Gradiente

som3fitas

13.241 – Neurociência – Elon Musk: o projeto que mesclará cérebros humanos e inteligência artificial


neurociencia
Elon Musk, CEO da SpaceX e da Tesla, está no processo de desenvolvimento de uma nova empresa de interfaces cérebro-computador. Chamada Neuralink, ela será voltada à criação de dispositivos que poderão ser implantados no cérebro humano.
Sua função será unir o cérebro humano a um software, permitindo o aperfeiçoamento da memória e a criação de interfaces diretas com aparelhos informáticos.
Embora, até o momento, esse tipo de interface exista apenas na ficção científica, na medicina as matrizes de eletrodos e outros implantes já são utilizados para ajudar no alívio de sintomas do mal de Parkinson, da epilepsia e de outras doenças neurodegenerativas.
Operar o cérebro humano é bastante complexo e invasivo e, segundo os pesquisadores, temos um entendimento muito limitado sobre como os neurônios reagem no cérebro humano. Por isso, é compreensível que somente as pessoas que tenham uma condição médica muito séria e já tenham esgotado todas as outras possibilidades estejam suscetíveis à ideia de um implante cerebral – pelo menos, em uma primeira fase.

13.239 – Museu do Automóvel – Aero Willys, o Rebelde


aero willys
Foi um automóvel sedan fabricado pela Willys Overland do Brasil entre 1960 e 1971.
O Aero Willys brasileiro foi lançado em 25 de março de 1960, mas seu projeto vinha sendo discutido na montadora brasileira desde 1958. O Aero Willys era um carro herdado de um projeto americano que havia sido desativado por insucesso. Lá as versões desse automóvel eram conhecidas como Aero-Ace, Aero-Eagle, Aero-Wing, Bermuda (um cupê duas portas), fabricados pela Willys Overland dos EUA, com os componentes mecânicos dos Jeep Willys.
O ferramental veio para o Brasil e a Willys começou a produzir automóveis (apenas os modelos 4 portas). Toda a linha Aero foi concebida sobre a plataforma do Jeep, com suspensão e direção do Jeep, e com freios a tambor nas quatro rodas. Eram carros duros, com uma linha arredondada, típica do início dos anos 50, que representavam à época a única opção para quem não quisesse entrar num Simca Chambord e precisasse de um automóvel maior que os Volkswagen, DKW e Dauphine. Seu motor era de seis cilindros em linha, o mesmo usado no Jeep (que mais tarde passou a ser usado no modelo Rural, e nos demais modelos derivados do Jeep, e até mesmo nos Mavericks fabricados pela Ford), a partir de 1973. Esse motor tinha uma característica incomum: a válvula de admissão situava-se no cabeçote, mas a válvula de escapamento ficava no bloco.
O início da fabricação deu-se em outubro de 1962 e sua primeira aparição foi em Paris, no mais famoso Salão do Automóvel do mundo. Entre as muitas novidades internacionais aparecia, um carrão com monobloco brasileiro, 110 cavalos no motor, concepção e estilos novos. Era o primeiro carro inteiramente concebido na América Latina.
Em julho de 1963 era lançado o Aero Willys 2600, o primeiro carro genuinamente brasileiro. As primeiras peças, como os primeiros carros eram inteiramente feitas à mão. O sucesso foi imediato, tanto que em 1966 foi lançado uma nova versão mais luxuosa batizada de Itamaraty, também chamado de Palácio sobre Rodas. O Itamaraty vinha equipado com acessórios a época sofisticados como bancos de couro e ar condicionado. Em 1967, foi lançada a Itamaraty Executivo, a primeira limusine fabricada em série no Brasil.
Em 1968 a Willys foi comprada pela Ford, que aos poucos foi fundindo o Aero Willys no seu Ford Galaxie. Houve uma tentativa de adaptação do motor V8 do Galaxie no Aero. Um dos engenheiros testou o desempenho do automovel, na estrada para Santos. Entretanto, a falta de estabilidade e deficiência de frenagem do carro com o potente motor V8, na estrada em descida e cheia de curvas, encerrou o episódio. Em 1971 a Ford anunciou que aquele seria o último ano de fabricação do automóvel, devido à queda nas vendas. Em 1972 foram vendidos os últimos Aero e Itamaratys, sendo sua mecânica utilizada como base do futuro Maverick, em 1973.

Aerowillys_original

13.234 – Segurança Pública – Habilitações passam a utilizar código de segurança digital para evitar fraude


habilitação
As Carteiras Nacionais de Habilitação (CNHs) emitidas a partir deste mês passarão a ter um QR Code –códigos de barra que podem ser escaneados por aparelhos ou dispositivos móveis com câmeras fotográficas.
De acordo com o Denatran (Departamento Nacional de Trânsito), do Ministério das Cidades, a mudança é uma forma de aumentar a segurança contra fraudes e cópias ilícitas do documento.
Através da leitura do QR Code, informações biográficas e foto do documento original dos motoristas armazenadas no banco de dados do Denatran poderão ser acessadas.
Segundo Elmer Vicenzi, diretor do departamento, a novidade permite que “qualquer setor da sociedade tenha acesso às informações, seja numa relação civil, seja numa relação empresarial, como bancos, cartórios e empresas de locadoras de veículos, por exemplo. Antes, a verificação se dava apenas dos dados presentes na CNH, podendo a foto não ser a do titular de fato, configurando fraude”.
A leitura do código –que fica na parte interna do documento–, é feita por um aplicativo, o “Lince”, disponível para os sistemas Android e iOS e foi desenvolvido pelo Serpro (Serviço Federal de Processamento de Dados).
A checagem das informações pode ser feita offline, o que permite que autoridades como as polícias rodoviárias possam ter acesso aos dados mesmo em lugares distantes.
Apesar de Vicenzi ressaltar que não há nenhum custo adicional que justifique o aumento da taxa de emissão, o órgão reconhece que faz parte da autonomia administrativa de cada Estado definir se haverá ou não aumento.
Mais de 300 mil habilitações foram emitidas com a funcionalidade desde 1º de maio, data em que a iniciativa entrou em vigor. A previsão é que, dentro de cinco anos, todos os motoristas brasileiros já possuam a nova CNH.