13.346 – Robótica – Novo guepardo robótico do MIT foi criado para ajudar a salvar vidas


cheeta
Pesquisadores do MIT apresentaram a nova versão do guepardo robótico Cheetah 3, um robô bastante rápido feito com o objetivo de ajudar a salvar vidas.
Até agora, as apresentações de robôs do MIT focavam em mostrar feitos impressionantes que eles são capazes de atingir, mas para o novo modelo houve uma mudança de filosofia, e os cientistas querem mostrar uma utilidade prática para a criação.
Assim, o novo guepardo robótico foi desenvolvido para monitorar o ambiente e situações de emergência em uma área que representa muitos riscos para seres humanos. Ele não será o primeiro a frequentar o cenário radioativo de Fukushima: outros robôs, como o Packbot da Endeavor, já fez estudos na região.
Mas o Cheetah 3 pode ir mais longe do que outros robôs: por contar com quatro patas articuladas e não com rodas, ele consegue se locomover para áreas mais remotas do que outros robôs.
O professor Kim ressalta que o Cheetah 3 não está pronto para ser usado, e ainda falta muito desenvolvimento até que ele de fato possa andar pela região da usina nuclear de Fukushima. Atualmente, ele está sendo testado no campus do MIT, e a ideia é que a partir do ano que vem ele incorpore funções dos modelos anteriores. Portanto, ele ainda está em estágio inicial de desenvolvimento.

13.340 – Invasão de Privacidade – O Google quer fazer backup do seu computador


google de olho
Fazer backup é tão essencial quanto escovar os dentes. Mas quase ninguém faz – em parte, porque é uma tarefa meio chata. O Google quer mudar isso com seu novo aplicativo: o Backup and Sync, que foi lançado. Você instala o programa no seu PC ou Mac, diz quais pastas ele deve copiar, e não precisa mais se preocupar com nada – o software manda tudo para o Google Drive. Ele também monitora as pastas, salvando automaticamente arquivos novos ou modificados.
Parece muito bom – mas tem dois poréns. Primeiro, a própria capacidade do Google Drive. Ele só dá 15 gigabytes de espaço, o que pode não ser suficiente para fazer backup de todos os seus arquivos. Se você quiser mais capacidade, tem de pagar: o plano de 100 gigabytes custa 7 reais por mês, e o de 1 terabyte sai por R$ 35 mensais. Não é pouca coisa.
A outra questão diz respeito aos termos de uso do serviço.”Quando você faz upload de conteúdo, você dá ao Google uma licença global para utilizar, hospedar, reproduzir, modificar, criar versões derivadas, comunicar, mostrar publicamente e distribuir esse conteúdo (…) Essa licença permanece mesmo se você deixar de usar os nossos serviços”. Ou seja: essencialmente, o Google pode fazer o que quiser com os arquivos que você subir no Drive.
Inclusive ler o conteúdo deles. “Nossos sistemas automatizados analisam o seu conteúdo (incluindo emails) para fornecer recursos relevantes, como resultados personalizados para buscas, publicidade customizada e detecção de spam e vírus”. Nada impede, por exemplo, que um dia o Google decida compartilhar metadados do seu disco rígido com anunciantes.
Vale lembrar que isso já acontece, há mais de uma década, com o Gmail – cujas mensagens são lidas pelos robôs do Google. Isso chegou a gerar certa preocupação no começo, mas não impediu que o Gmail se tornasse o maior serviço de email do mundo, com mais de 1 bilhão de usuários. Curiosamente, ele agora faz o caminho oposto: em junho, o Google anunciou que o Gmail não vai mais xeretar as mensagens dos usuários.

13.339 – Teletransporte: Engatinhando, mas é assim que começa – Cientistas teletransportam partícula da Terra para o espaço


teletransporte-williammpark-shuttersock.com_
Equipe chinesa que lançou o satélite Micius anunciou que conseguiu usar a rede quântica do dispositivo para teletransportar uma partícula da superfície terrestre para a atmosfera pela primeira vez.
A técnica utilizada consiste em um estranho fenômeno conhecido como “entrelaçamento”, que pode acontecer quando partículas quânticas, como os fótons, se formam ao mesmo tempo e no mesmo ponto do espaço, dividindo a existência. Em termos técnicos, eles são descritos com a mesma função de onda — o interessante é que a experiência continua mesmo quando os objetos estão distantes no Universo. Logo, quando um é afetado o outro também é.
Apesar de a informação já ser conhecida há anos, uma experiência como a chinesa nunca havia sido realizada. Isso porque a técnica é muito frágil, pois as partículas interagem com a matéria na atmosfera ou dentro de fibras óticas, o que faz com que a relação entre elas seja perdida. No caso do experimento, os fótons continuaram se relacionando, mesmo estando a 500 km de distância.
“Experimentos anteriores de teletransporte entre locais distantes foram limitados a cem quilômetros, devido à perda de fótons em fibras ópticas ou canais terrestres livres”, afirmou a equipe em entrevista ao MIT Technology Review. Por isso o feito dos chineses foi tão surpreendente.
O time de cientistas mandou milhões de fótons para o espaço durante 32 dias, mas só obtiveram 911 respostas positivas. “Relatamos o primeiro teletransporte quântico de qubits independentes de um único fóton a partir de um observatório terrestre até um satélite na órbita terrestre — através de um canal de ligação ascendente — com uma distância de até 1,4 mil km”, afirmaram.
O feito coloca os chineses em posição de liderança da área, que era até então dominada pela Europa e pelos Estados Unidos. “Esse trabalho estabelece a primeira ligação ascendente terra-satélite para o teletransporte quântico ultra-longo, um passo essencial para a internet quântica de escala global”.

13.352 – Arma de Guerra – A Bomba de Hidrogênio


Fat_man
A bomba termonuclear, é um tipo de armamento que consegue ser até 50 vezes mais forte do que qualquer bomba nuclear de fissão.
Hans Albrecht Bethe (1906-2005) foi um dos responsáveis pelas descrição de como a fusão nuclear podia produzir a energia que faz as estrelas brilharem. Esta teoria foi publicada no seu artigo A Produção de Energia das Estrelas, publicado em 1939, e que lhe valeu o prêmio Nobel em 1967.

Hans Bethe tomou os melhores dados das reações nucleares existentes e mostrou, em detalhe, como quatro prótons poderiam ser unidos e transformados em um núcleo de hélio, libertando a energia que Eddington havia sugerido. O processo que Bethe elaborou no seu artigo, atualmente conhecido como o Ciclo do carbono, envolve uma cadeia complexa de seis reações nucleares em que átomos de carbono e nitrogênio agem como catalisadores para a fusão nuclear. Naquela época, os astrônomos calculavam que a temperatura no interior do Sol fosse de cerca de 19 milhões de Kelvin, e Bethe demonstrou que, àquela temperatura, o ciclo do carbono seria o modo dominante de produção de energia.

Na mesma época, além de Hans Bethe, o físico alemão Carl Friedrich von Weizäcker (1912-2007) e Charles Critchfield (1910-1994) identificaram várias das reações de fusão nuclear que mantêm o brilho das estrelas.

A descoberta da fissão nuclear ocorreu a 10 de dezembro de 1938 e foi descrita num artigo submetido ao Naturwissenchaften a 22 de dezembro de 1938, pelos alemães Otto Hahan (1879-1968) e Fritz Strassmann (1902-1980) e pela austríaca Lise Meitner (1878-1968).

O italiano Enrico Fermi (1901-1954) foi uma das pessoas mais importantes no desenvolvimento teórico e experimental da bomba atômica. Quando Benito Mussolini (1883-1945) aprovou o Manifesto della Razza a 14 de Julho de 1938, impondo leis racistas na Itália fascista, Enrico decidiu aceitar o emprego oferecido pela Columbia University, nos Estados Unidos. Ele e a sua família partiram de Roma para a cerimônia de entrega do Prémio Nobel a Fermi em Dezembro de 1938 e nunca retornaram à Itália. O Nobel foi-lhe dado por seu estudo sobre a radioatividade artificial, com as suas experiências de bombardeamento de urânio com neutrões, criando novos elementos mais pesados, e o seu aumento pela redução da velocidade dos neutrões. Fermi havia descoberto que quando ele colocava uma placa de parafina entre a fonte de neutrões e o urânio, aumentava a radioactividade, pois aumentava a chance do neutrão ser absorvido pelo núcleo de urânio.

Em 1934, o húngaro Leo Szilard (1898-1964) já havia patenteado a ideia da reação em cadeia e, a 2 de dezembro de 1942, Fermi conseguiu construir uma massa crítica de U235/U238 não separados (na natureza somente 0,7% são do U235 que é ativo), usando grafite para reduzir a velocidade dos neutrões e acelerar a produção de neutrões secundários. Na experiência, ele utilizou barras de cádmio como absorventes de neutrões para regular a experiência e produziu um crescimento exponencial do número de neutrões, isto é, uma reação em cadeia.

Em 1939, os físicos já sabiam que água pesada agia como um moderador, isto é, redutor de velocidade dos neutrões, como a parafina. A água normal (leve) consiste de dois átomos de hidrogênio (H) e um átomo de oxigênio (O). Na água pesada, dois isótopos de hidrogênio, deutério, unem-se com o oxigênio. Água pesada é ainda hoje utilizada como moderador em reatores nucleares de urânio natural.

Em 1939, Szilard convenceu Albert Einstein (1879-1955), um importante físico, com quem ele tinha trabalhado em 1919 em Berlim, a mandar uma carta para o presidente americano Franklin Delano Roosevelt (1933-1945) sobre o desenvolvimento pelos alemães de armas atômicas e pedindo ao presidente que iniciasse um programa americano, que mais tarde se chamaria Projecto Manhattan, chefiado pelo americano Julius Robert Oppenheimer (1904-1967), e levaria ao desenvolvimento do Los Alamos National Laboratory, ao teste Trinity, a 16 de Julho de 1945, com a explosão da primeira bomba atômica em Alamogordo, no Novo México, e à construção das bombas Little Boy (de 20 mil toneladas de T.N.T – 20 KiloTons) e Fat Man, que seriam utilizadas em Hiroshima e Nagasaki em 6 e 9 de Agosto de 1945.

O húngaro Edward Teller (1908-2003), sob protestos de Fermi e Szilard, chefiou o desenvolvimento da bomba de fusão de hidrogênio, que utiliza uma bomba de fissão como gatilho para iniciar a colisão do deutério com o trítio. A bomba de hidrogênio, Ivy Mike (com intensidade equivalente à detonação de 10,4 megatoneladas de T.N.T.) foi testada a 31 de Outubro de 1952, em Eniwetok.

A primeira bomba de hidrogênio explodiu durante uma experiência feita pelos Estados Unidos em 1952. Detonou com uma força de dez megatons, igual à explosão de dez milhões de toneladas de TNT, um forte explosivo convencional. A potência desta terrível arma mostrou ser 750 vezes superior à das primeiras bombas atômicas e suficiente para arrasar qualquer grande cidade.

Em 1961, a Rússia experimentou a bomba mais poderosa até então concebida (apelidada de Tsar Bomba), à qual foi atribuída uma força de 57 megatons. Inicialmente, a Tsar era uma bomba de 100 megatons. Porém, temendo que a explosão resultasse em uma tempestade radioativa que atingiria a Europa ou o próprio território russo, sua potência foi reduzida pela metade.
Já o teste nuclear mais potente realizado pelos Estados Unidos foi o Castle Bravo, realizado no dia 1 de março de 1954. O projeto da bomba previa um rendimento de 6 Megatons, mas devido a um erro de cálculo, explodiu com uma força de 15 MT.

Explicação científica
Na bomba de hidrogênio, um disparador de bomba atômica inicia uma reação de fusão nuclear num composto químico de deutério e trítio, produzindo instantaneamente o hélio-4, que por sua vez reage com o deutério. Porém, os cientistas militares foram mais além, no que diz respeito ao poder destrutivo da bomba, envolvendo-a em urânio natural. Os poderosos neutrões libertos pela fusão causam depois uma explosão por fissão nuclear no invólucro de urânio.

Para que uma reação nuclear ocorra, as partículas precisam vencer a Barreira de Coulomb repulsiva entre as partículas (descoberta por Charles Augustin de Coulomb, 1736-1806), dada por- enquanto que a energia cinética entre as partículas é determinada por uma distribuição de velocidades de Maxwell-Boltzmann correspondente à energia térmica.

A astrofísica demonstrou que as leis físicas que conhecemos na nossa limitada experiência na Terra são suficientes para estudar completamente o interior das estrelas. Desde as descobertas de Bethe, o cálculo de evolução estelar através da união da estrutura estelar com as taxas de reações nucleares tornou-se um campo bem desenvolvido e astrônomos calculam com confiança o fim de uma estrela como o nosso Sol daqui a 6,5 bilhões de anos como uma anã branca, após a queima do hélio em carbono pela reação.
A maior bomba de hidrogênio detonada pelo homem teve um poder de destruição 4000 vezes superior ao da bomba de Hiroshima.

13.344 – Militares israelenses compram drones capazes de lançar granadas


drones
Conforme relata o Engadget, os dispositivos são produzidos pela empresa norte-americana Duke Robotics. A aerodinâmica e a física dizem que não é possível prender uma arma em um drone e esperar que ele voe e ainda atinja o alvo, no entanto, a empresa planejou uma maneira de manter o zangão firme enquanto compensa o recuo da arma.
Aparentemente, o drone conta com um sistema de partes flexíveis que distribui o peso na hora do ataque para manter o dispositivo parado no ar. O sistema, por exemplo, permite que uma drone de 4,5 kg se mantenha estável ao lançar uma granada ou carregar armas de até 10 kg.
A empresa afirma que o uso de drones remotos reduziria a necessidade de manter soldados na linha de frente, logo, reduziria o número de mortes.
Além de drones, os militares também devem estar cada vez mais armados tecnologicamente. Foi divulgado recentemente que os militares russos desenvolveram um exoesqueleto motor a prova de balas com o objetivo de reduzir o cansaço dos soldados e que os Estados Unidos estão trabalhando em uma armadura semelhante a do Homem de Ferro.

13.339 – Hackers pedem dinheiro para desbloquear PCs atingidos pelo vírus Petya


hacker
O mistério por trás do mega-ataque que afetou milhares de computadores ao redor do mundo na semana passada continua a se intensificar. Desta vez, hackers surgiram na deep web pedindo 100 bitcoins para descriptografar as máquinas afetadas pelo vírus Petya (ou NotPetya).
O vírus que se espalhou por diversos países e fez vítimas até no Brasil era uma versão modificada de um ransomware conhecido como Petya, por isso alguns especialistas o chamaram de “NotPetya”. De qualquer maneira, logo surgiu a especulação de que o vírus não era realmente um ransomware.
Ransomware é um tipo de programa malicioso que deixa todos os arquivos de um computador criptografados, e só libera a chave para desbloqueá-los mediante o pagamento de um resgate. Acontece que especialistas descobriram que o novo Petya não fornecia uma chave de desbloqueio, o que indicava que os PCs infectados não tinham mais salvação.
Ou seja, mesmo que as vítimas pagassem o resgate, os hackers por trás do ataque não poderiam liberar as máquinas sequestradas. A conclusão foi de que o objetivo do ataque não era mesmo arrecadar dinheiro, mas sim causar confusão – uma atitude possivelmente motivada por questões políticas, e tendo como alvo principal apenas a Ucrânia.
Seja como for, o site Motherboard revelou nesta quarta-feira, 5, que hackers supostamente ligados ao Petya apareceram na internet pedindo um novo pagamento em dinheiro. Numa postagem feita numa página oculta da deep web, alguém está pedindo 100 bitcoins – equivalente a quase US$ 256 mil – para liberar uma chave “universal” que promete desbloquear todos os PCs infectados pelo vírus da semana passada.
É neste ponto que a história fica ainda mais confusa. Isso porque já se sabe que os arquivos criptografados não têm salvação, já que o Petya não fornece uma chave de desbloqueio personalizada para cada vítima. O que os hackers que surgiram hoje estão dizendo é que eles podem fornecer uma chave universal, capaz de desbloquear todas as máquinas igualmente.
Outro ponto ainda pouco claro é que, ao contrário do que se imaginaria num caso como esse, os hackers não forneceram o endereço de uma carteira de bitcoin para onde os pagamentos devem ser enviados. Em vez disso, o anúncio pede que os interessados os procurem numa outra sala de chat online na deep web.
De acordo com informações do site The Verge, a chave oferecida pelos hackers pode descriptografar arquivos individuais, mas não pode salvar todo o sistema de uma máquina sequestrada – este, sim, já está perdido para sempre. De qualquer forma, não é possível ainda garantir se os hackers que fizeram este novo pedido de resgate são os mesmos que deram início ao ataque da semana passada, ou se a promessa de desbloqueio universal é real ou mais uma fraude para extorquir dinheiro de vítimas.

13.298 – Mega Techs – Falecido em 2012 o criador do primeiro controle remoto sem fio para TV


controle
Se você consegue trocar o canal da sua televisão sem sair debaixo das cobertas, agradeça a Eugene Polley. O inventor do primeiro controle remoto sem fio para aparelhos de TV morreu aos 96 anos, nos Estados Unidos.
Polley começou a sua carreira na década de 30, trabalhando para a empresa Zenith Radio Corporation (hoje Zenith Eletronics, subsidiária da LG). Em 1955 ele criou o primeiro controle remoto sem fio para TV, batizado de Flash-Matic. O aparelho não funcionava muito bem e era preciso ajustar perfeitamente o ângulo de mira para que ele pudesse ser eficaz.
A invenção de Polley representou uma revolução na televisão. Pela primeira vez, os espectadores puderam mudar de canal durante o intervalo comercial ou ainda ver um pedaço de um programa em cada emissora sem precisar levantar do sofá. Eugene dedicou 47 anos de trabalho à Zenith.

Saiba mais com o Mega
Na Primeira Guerra Mundial, o controle remoto foi usado como um aparelho de rádio frequência que monitorava navios alemães. Com objetivos militares, foram desenvolvidos rádios controladores de navios, de bombas e armas que eram usados remotamente para destruir o inimigo. Na Segunda Guerra Mundial, ele foi usado como detonador de bombas.
No fim da guerra, os cientistas tinham uma tecnologia, mas não sabiam como aplicá-la. Os Estados Unidos foram aprimorando o uso do controle remoto e os cientistas começaram a testá-lo para outros fins.
O criador dessa nova tecnologia foi Nikola Tesla, um cientista que nasceu na Croácia. Com uma excelente memória capaz de dar origem a várias invenções, Nikola, em 1898, patenteou um dispositivo capaz de controlar um barco via rádio.
Em 1903, foi lançado o Telekino, um robô com comandos transmitidos via ondas eletromagnéticas. Ele foi o primeiro controle remoto via rádio no mundo e pioneiro no controle remoto. O robô foi uma criação de Leonardo Torres Quevedo, que registrou sua patente na França, Espanha, Grã-Bretanha e Estados Unidos.
No final de 1930, os fabricantes de rádio criaram vários controles remotos em modelos superiores e a maioria estava ligada ao controle sem fios. A Philco lança o Mystery Control, um controle para rádios à pilha de baixa frequência.
Em 1940, são criados os controles automáticos de garagem. E, em 1950, com a chegada dos televisores eles foram sendo adaptados para TV.
No início dos anos 50, foi criado o primeiro controle remoto da Zenith Eletronics Corporation por Robert Adler. A TV foi revolucionada pelo aparelho. Ela criou um controle sem fio com som de alta frequência usado para transmitir comandos para a TV, o “Space Command”. Não funcionava por meio de baterias e serviu como exemplo para a criação de outros controles até o início da década de 80. A partir daí, começou a ser substituído por aparelhos movidos a raios infravermelhos, que eram simples e baratos. E foi por isso que o controle remoto se tornou mais atrativo e popular.
Nos aprofundando mais na história, em 1941, Robert Adler, um austríaco, começou a trabalhar na Zenith Eletronics (uma empresa norte-americana que tem uma relação com a criação da televisão). Inicialmente, eles teriam fabricado dois tipos de controle remoto: com fio e sem fio. O controle com fio possuía cabo e era chamado de Lazy Bones (1950), acionado pelo polegar. Como ele era conectado a TV, o público não se familiarizou. Pessoas tropeçavam nos cabos e diziam que não era bonito ter um cabo daqueles conectados à TV, em sua sala de estar.
Então, decidiram criar o Flash-matic (1955), um aparelho que emitia flashs de luz através de um tipo de “revólver” e acionava fotocélulas localizadas nos quatro cantos da tela de TV. Cada fotocélula era responsável por uma função: abaixar e diminuir o volume e mudar de canal. O novo modelo ainda não havia agradado a muitos, pois além da dificuldade de lembrar qual das fotocélulas fazia o que, outro problema ocorria quando a TV era exposta à claridade: as fotocélulas se ativavam sem o uso do controle. Imagine a confusão: som altíssimo, canais desregulados e outros problemas.

Um controle para marcar época
O chefe da Zenith, Eugene F. McDonals Jr., alertou e reuniu a sua equipe para resolver o problema. Em meio à reunião, Adler sugeriu a criação de um controle com o uso do ultrassom, cuja frequência de som é tão alta que os ouvidos humanos não conseguem escutar. Houve contradições quanto à ideia dele. Mas, no final, ele e seus colegas de trabalho decidiram fazer um experimento. O incrível Zenith Space Command (1956). A ideia foi um sucesso.
Em 1955, eles começaram fazendo os testes e em 1956 concluíram a obra. Foi criado um controle sem baterias. Na época, os únicos objetos que utilizavam baterias eram as lanternas e os aparelhos para auxiliar na audição. Se o controle remoto parasse de funcionar por causa da bateria, as pessoas iriam achar que ele estava estragado, e daí surgiu essa necessidade.
Uma das dificuldades encontradas pela equipe de Adler foi a descoberta de que mulheres jovens tem uma audição superior à de outras pessoas. Assim constatou o fato num livro científico que utilizou na época. No laboratório, uma jovem profissional deu um pulo quando eles produziram o som que era um pouco mais alto do que os ouvidos poderiam captar. Além disso, o som também pode incomodar os cães.
Conseguindo ultrapassar essa barreira, buscaram trabalhar com uma frequência de som mais alta da qual ninguém poderia ouvir. Utilizaram ondas de ultrassom para transmitir os sinais para a TV e por causa dessa tecnologia, o custo tornou-se mais elevado. Na década de 70 foi necessário usar números de três dígitos e mudar para diferentes canais.
O controle remoto com ultrassom foi usado por duas décadas. Com suas desvantagens, foi necessária a criação do controle infravermelho (1977). A BBC criou o Protocolo ITT de comunicação infravermelha. Nela, cada botão possui um comando que, quando acionado, é enviado para TV.
Há também um pequeno sensor (fotodetector) que identifica cada feixe infravermelho e converte o código em um comando, permitindo a mudança de canais. Uma das desvantagens é que o sinal infravermelho deve estar de frente ao sinal de TV.
Para Adler, uma das motivações maiores de se criar um controle remoto era puramente lógica. A pessoa não teria que se levantar toda hora para mudar canais, ou apagar uma luz por exemplo.
E, inicialmente, ele não pensou que o controle remoto se tornaria algo tão popular, embora desejasse que isso ocorresse. Apesar do controle ter demorado 25 anos para sua popularização, (antes a tecnologia usada encareciam a TV) com a tecnologia da luz infravermelha isso foi possível.
Em 1980, Steve Wozniak, o co-fundador da Apple, se interessou pelo desenvolvimento do controle remoto universal e com o lançamento do CORE (controlador remoto de equipamentos, 1987), um controlador remoto que poderia aprender sinais remotos de outros aparelhos eletrônicos que pode ser ligado ao computador e carregada uma lista de códigos de um software específico do site do fabricante. No entanto, as funcionalidades de cada botão do CORE foram consideradas complexas e difíceis de serem executadas. Foi um dos primeiros controles remotos de aprendizagem controlados por um software de computador.
De acordo com a Consumer Eletronics Association, até o início de 2000, o número de pessoas que utilizam dispositivos eletrônicos em sua casa aumentou, assim como o número de controles remotos. É raro encontrarmos um só controle em nossa casa. Existem diferentes aparelhos e para cada um, temos um controle. Por esse motivo, surgiu a ideia da criação de aparelhos remotos universais capazes de controlar qualquer dispositivo eletrônico.

Entenda a tecnologia
Para aqueles que querem aprender como um controle infravermelho funciona, é necessário estar acompanhado de um bom professor e livro de eletrônica. Mas, a título de curiosidade, seguem alguns componentes do controle infravermelho e suas funções.
A maioria dos controles infravermelhos possui uma placa de circuito impresso (CI) em seu interior com:
Microprocessador – um componente que possui todo o controle lógico do controle remoto. Ao apertamos as teclas, ele lê a informação e processa o comando necessário. Esse processo é chamado de matriz (o mesmo contato passa por várias ilhas, formando uma informação digital). Ex.: Verificação de botões pressionados, emissão do comando completo para o sistema de comunicação infravermelho, verificação de pilhas fracas, etc.
Cristal oscilador – através da ressonância, o cristal vibra com a pizoeletricidade, capacidade de alguns cristais gerarem corrente elétrica devido a uma pressão mecânica, assim, é criado um sinal elétrico com frequência bem precisa. Ele que ditará a velocidade com que o microprocessador irá processar os comandos.
Componentes em geral – capacitores cerâmicos, resistores, diodos e transistores. São componentes secundários necessários para o funcionamento do circuito como um todo.
LED infravermelho ou diodo emissor de luz – responsável por gerar luz infravermelha que é invisível ao olho humano e que transmite o comando para a TV.

Outros componentes do controle:
A Placa de CI – é um pedaço fino de fenolite, com caminhos feitos de cobre, gravados em sua superfície. Os componentes são montados na placa de circuito impresso, por causa da facilidade de produção e montagem em grande quantidade. Nessa placa, também existem pistas de Carbono, com o objetivo de fechar os contatos com as conexões quando a tecla é pressionada.
Conjunto de pontos ou trilhas pretas de tinta condutiva – elas que fazem contato com os botões.
Botões – são feitos por uma lâmina fina emborrachada (chamada de manta). Para cada botão, encontramos um disco condutor preto. Quando o disco toca na placa de circuito impresso, eles se conectam e o microprocessador consegue receber essa conexão.

E como o processo acontece:
Quando pressionamos um botão, dois ou mais pinos do microprocessador são conectados de forma única, permitindo assim que ele saiba qual comando foi escolhido pelo usuário. O microprocessador produz uma sequência de piscos rápidos no LED infravermelho na forma de um código binário específico para o botão pressionado. Os transistores amplificam esses pulsos enviados pelo microprocessador para o LED, que traduz o sinal em luz infravermelha. O sensor na TV pode ver a luz infravermelha e reage apropriadamente ao ver o sinal. Na TV, há um outro microprocessador que lê o sinal emitido pelo controle e efetua os comandos específicos, como trocar de canal, aumentar o volume e todos os outros que atuam no equipamento.

Problemas com seu controle remoto?
O que fazer quando eles param de funcionar? Ou não obedecem ao seu comando quando você aperta a tecla? Ou mesmo, as pilhas utilizadas já foram trocadas e você não consegue encontrar o defeito.
A maior parte dos problemas acontece na manta de borracha. Quando se torna rígida e coberta por impurezas originadas pela exposição contínua ao ambiente.
Devido a esse composto da manta, a placa de circuito impresso, nas áreas de pressão das teclas, é contaminada e mesmo sem pressionarmos a tecla, ela provoca erros de interpretação.
Abra o controle com cuidado e retire a poeira com um pincel limpo e seco. Após isso, passe um pouco de tinta condutiva nos botões defeituosos. Deixe secar por uma hora, verifique se secou mesmo (caso contrário pode piorar a situação), monte o controle e veja se funciona. Pode haver também sujeira no contato com a bateria: veja se há alguma ferrugem ou sujeira no local onde se colocam as pilhas.
Pode haver um fio solto também. São essas pequenas coisas que afetam o funcionamento do controle. Resolva isso usando álcool isopropílico e passe no terminais de contato das pilhas. Espere secar e coloque as pilhas novamente.
Lembre-se que você precisa ter ferramentas adequadas e algum conhecimento de Eletrônica para qualquer tipo de manutenção. Caso não possua, será melhor procurar um técnico experiente.

Controle Remoto de Aprendizagem
A aprendizagem por controle remoto universal é o processo pelo qual o controle captura e armazena os sinais infravermelhos de outros controles. Quando os códigos não se encontram na memória do controle universal, eles são aprendidos do controle original. Basta apontar um controle para o outro. Há controles remotos universais que reconhecem a lista de códigos programados no velho controle remoto.
Normalmente, esses controles já vêm pré-programados com códigos capazes de controlar vários aparelhos. É só você selecionar a marca, o fabricante e usá-lo. Já outros recebem o feixe infravermelho dos controles convencionais e armazenam os códigos em sua memória. Com essa função, ele é capaz de armazenar a função de qualquer botão do controle remoto, com as teclas de aprendizagem e ainda você pode utilizar a gravação macro.
Ele suporta novas marcas ou modelos de todos os tipos de aparelhos. Há controles universais que necessitam ser conectados a um computador, através do cabo USB, para serem configurados.
Exemplo de controles com função de aprendizagem: Philips Controle remoto SRU5040 Universal, Controle Remoto Logitech Harmony 670 Universal Avançado, One for All Xsight Touch e One for All Xsight Color etc.

13.277 – Física – Como funciona um Dínamo?


dinamo
O dínamo é constituído por um imã fixo em um eixo móvel, ao redor deste eixo existe uma bobina (fio condutor enrolado, constituindo um conjunto de espiras). Não existe contato físico entre o imã e a bobina. No caso do dínamo de bicicleta, o movimento de rotação da roda, ou da correia, é transferido para o eixo do dínamo.
É um gerador de eletricidade, um aparelho que transforma Energia Mecânica em Energia Elétrica.
Hans Orsted observou que a agulha de uma bússola oscilava quando aproximada de um fio condutor percorrido por corrente elétrica. Michel Faraday se interessou pelo fenômeno e após alguns experimentos, observou que quando um imã se move próximo de um circuito elétrico, a corrente elétrica do circuito é alterada. Este fenômeno, chamado de indução magnética é explicado pela Lei de Lenz, que estabelece: o sentido da corrente induzida é oposto da variação do campo magnético que a gera.
Logo, sabemos hoje que a variação de campo magnético gera corrente elétrica. No dínamo o imã gira com a bobina ao seu redor. Este movimento gera a variação do campo magnético do imã, surgindo então, uma corrente elétrica no conjunto de espiras da bobina. Esta corrente elétrica é utilizada para acender o farol do bicicleta, ou qualquer led que seja instalado no circuito.
Este mecanismo funciona de acordo com o princípio de conservação de energia, ou seja, parte da energia utilizada para girar a roda da bicicleta é transformada em energia elétrica através da indução magnética.

Dinamotor é um sistema eletromecânico é uma fonte de bateria de acumuladores de 24 volt e um gerador alimentado por motor.

 

13.269 – Mega Byte – A Ciência da Computação


ciencia da computacao

“ Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio, a biologia com o microscópio, ou a química com os tubos de ensaio. A ciência não estuda ferramentas, mas o que fazemos e o que descobrimos com elas. ”

É a ciência que estuda as técnicas, metodologias e instrumentos computacionais, que automatiza processos e desenvolve soluções baseadas no uso do processamento digital. Não se restringe apenas ao estudo dos algoritmos, suas aplicações e implementação na forma de software, extrapolando para todo e qualquer conhecimento pautado no computador, que envolve também a telecomunicação, o banco de dados e as aplicações tecnológicas que possibilitam atingir o tratamento de dados de entrada e saída, de forma que se transforme em informação. Assim, a Ciência da Computação também abrange as técnicas de modelagem de dados e os protocolos de comunicação, além de princípios que abrangem outras especializações da área.
Enquanto ciência, classifica-se como ciência exata, apesar de herdar elementos da lógica filosófica aristotélica, tendo por isto um papel importante na formalização matemática de algoritmos, como forma de representar problemas decidíveis, i.e., os que são susceptíveis de redução a operações elementares básicas, capazes de serem reproduzidas através de um qualquer dispositivo mecânico/eletrônico capaz de armazenar e manipular dados. Um destes dispositivos é o computador digital, de uso generalizado, nos dias de hoje. Também de fundamental importância para a área de Ciência da Computação são as metodologias e técnicas ligadas à implementação de software que abordam a especificação, modelagem, codificação, teste e avaliação de sistemas de software.
Os estudos oriundos da Ciência da Computação podem ser aplicados em qualquer área do conhecimento humano em que seja possível definir métodos de resolução de problemas baseados em repetições previamente observadas. Avanços recentes na Ciência da Computação tem impactado fortemente a sociedade contemporânea, em particular as aplicações relacionadas às áreas de redes de computadores, Internet, Web e computação móvel que têm sido utilizadas por bilhões de pessoas ao redor do globo.

abaco

Um pouco de História
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a habitantes da Mesopotâmia, em torno de 2700–2300 a.C.. Seu uso original era desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.
No século VII a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou transformações e recursividade com tamanha sofisticação que sua gramática possuía o poder computacional teórico tal qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os logaritmos para uso computacional no século XVI, seguiu-se um período de considerável progresso na construção de ferramentas de cálculo.
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o sistema de numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o matemático persa al-Khwarizmi escreveu o livro Calculando com numerais hindus, responsável pela difusão do sistema de numeração hindu-arábico no Oriente Médio, e posteriormente na Europa. Por volta do século XII houve uma tradução do mesmo livro para o latim: Algoritmi de numero Indorum. Tais livros apresentaram novos conceitos para definir sequências de passos para completar tarefas, como aplicações de aritmética e álgebra. Por derivação do nome do matemático,actualmente usa-se o termo algoritmo.

Lógica binária
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de numeração binário. Ainda usado atualmente no processamento de todos computadores modernos, o sistema estabelece que sequências específicas de uns e zeros podem representar qualquer informação.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e matemático, utilizando o sistema binário. Em seu sistema, uns e zeros também representam conceitos como verdadeiro e falso, ligado e desligado, válido e inválido. Mais de um século depois, George Boole publicou a álgebra booleana (em 1854), com um sistema completo que permitia a construção de modelos matemáticos para o processamento computacional. Em 1801, apareceu o tear controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual buracos indicavam os uns e, áreas não furadas, indicavam os zeros. O sistema está longe de ser um computador, mas ilustrou que as máquinas poderiam ser controladas pelo sistema binário.

Foi com Charles Babbage que o computador moderno começou a ganhar forma, através de seu trabalho no engenho analítico. O equipamento descrito originalmente em 1837, mais de um século antes de seu sucessor, nunca foi construído com sucesso, mas possuía todas as funções de um computador moderno. O dispositivo de Babbage se diferenciava por ser programável, algo imprescindível para qualquer computador moderno.
Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros programas de computador em uma série de notas para o engenho analítico. Por isso, Lovelace é popularmente considerada como a primeira programadora.

Nascimento da Ciência da Computação
Antes da década de 1920, computador era um termo associado a pessoas que realizavam cálculos, geralmente liderados por físicos. Milhares de computadores eram empregados em projetos no comércio, governo e sítios de pesquisa. Após a década de 1920, a expressão máquina computacional começou a ser usada para referir-se a qualquer máquina que realize o trabalho de um profissional, especialmente aquelas de acordo com os métodos da Tese de Church-Turing.
O termo máquina computacional acabou perdendo espaço para o termo reduzido computador no final da década de 1940, com as máquinas digitais cada vez mais difundidas. Alan Turing, conhecido como pai da Ciência da Computação, inventou a Máquina de Turing, que posteriormente evoluiu para o computador moderno.
Os fundamentos matemáticos da Ciência da Computação moderna começaram a ser definidos por Kurt Gödel com seu teorema da incompletude (1931). Essa teoria mostra que existem limites no que pode ser provado ou desaprovado em um sistema formal; isso levou a trabalhos posteriores por Gödel e outros teóricos para definir e descrever tais sistemas formais, incluindo conceitos como recursividade e cálculo lambda.
Em 1936 Alan Turing e Alonzo Church independentemente, e também juntos, introduziram a formalização de um algoritmo, definindo os limites do que pode ser computador e um modelo puramente mecânico para a computação. Tais tópicos são abordados no que atualmente chama-se Tese de Church-Turing, uma hipótese sobre a natureza de dispositivos mecânicos de cálculo. Essa tese define que qualquer cálculo possível pode ser realizado por um algoritmo sendo executado em um computador, desde que haja tempo e armazenamento suficiente para tal.
Turing também incluiu na tese uma descrição da Máquina de Turing, que possui uma fita de tamanho infinito e um cabeçote para leitura e escrita que move-se pela fita. Devido ao seu caráter infinito, tal máquina não pode ser construída, mas tal modelo pode simular a computação de qualquer algoritmo executado em um computador moderno. Turing é bastante importante para a Ciência da Computação, tanto que seu nome é usado para o Prêmio Turing e o teste de Turing. Ele contribuiu para a quebra do código da Alemanha pela Grã-Bretanha[3] na Segunda Guerra Mundial, e continuou a projetar computadores e programas de computador pela década de 1940; cometeu suicídio em 1954.
Até a década de 1930, engenheiros eletricistas podiam construir circuitos eletrônicos para resolver problemas lógicos e matemáticos, mas a maioria o fazia sem qualquer processo, de forma particular, sem rigor teórico para tal. Isso mudou com a tese de mestrado de Claude Shannon de 1937, A Symbolic Analysis of Relay and Switching Circuits. Enquanto tomava aulas de Filosofia, Shannon foi exposto ao trabalho de George Boole, e percebeu que poderia aplicar esse aprendizado em conjuntos eletro-mecânicos para resolver problemas. Shannon desenvolveu a teoria da informação no artigo de 1948: A Mathematical Theory of Communication , cujo conteúdo serve como fundamento para áreas como compressão de dados e criptografia.
Apesar de sua pequena história enquanto uma disciplina acadêmica, a Ciência da Computação deu origem a diversas contribuições fundamentais para a ciência e para a sociedade. Esta ciência foi responsável pela definição formal de computação e computabilidade, e pela prova da existência de problemas insolúveis ou intratáveis computacionalmente.
Também foi possível a construção e formalização do conceito de linguagem de computador, sobretudo linguagem de programação, uma ferramenta para a expressão precisa de informação metodológica flexível o suficiente para ser representada em diversos níveis de abstração.
Para outros campos científicos e para a sociedade de forma geral, a Ciência da Computação forneceu suporte para a Revolução Digital, dando origem a Era da Informação.
A computação científica é uma área da computação que permite o avanço de estudos como o mapeamento do genoma humano (ver Projeto Genoma Humano).

Blaise Pascal, desenvolveu a calculadora mecânica e tem seu nome em uma linguagem de programação;
Charles Babbage, projetou um computador mecânico, a máquina analítica;
Ada Lovelace, considerada a primeira pessoa programadora, deu nome à uma linguagem de programação;
Alan Turing, participou do projeto Colossus e foi um dos cérebros que decifra a Enigma. Também inventou um tipo teórico de máquina super-simples capaz de realizar qualquer cálculo de um computador digital, a Máquina de Turing
John von Neumann, descreveu o computador que utiliza um programa armazenado em memória, a Arquitetura de von Neumann, que é a base da arquitetura dos computadores atuais
John Backus, líder da equipe que criou o Fortran e criou a notação BNF
Maurice Vicent. Wilkes, inventor do somador binário
Howard Aiken, inventor do Mark I
Walter H. Brattain, inventor do transístor
William Shockley, inventor do transístor
John Bardeen, inventor do transístor
Fred Williams, inventor da memória RAM
Tom Kilburn, inventor da memória RAM
Konrad Zuse, inventor independente do computador digital e de linguagens de programação na Alemanha nazista
John Atanasoff, inventor do primeiro computador digital, o Atanasoff–Berry Computer, ABC
Clifford Berry, assistente de Atanasoff
Almirante Grace Hopper, programadora do Mark I, desenvolveu o primeiro compilador; primeira mulher a receber um Ph.D. em matemática
Edsger Dijkstra, líder do ALGOL 60, publicou o artigo original sobre programação estruturada
J. Presper Eckert, criador do ENIAC
John William Mauchly, criador do ENIAC

Abrange
Arquitetura de computadores — o desenvolvimento, a organização, a otimização e a verificação de sistemas computacionais
Computação distribuída — computação sendo executada em diversos dispositivos interligados por uma rede, todos com o mesmo objetivo comum
Computação paralela — computação sendo executada em diferentes tarefas; geralmente concorrentes entre si na utilização de recursos
Computação quântica — representação e manipulação de dados usando as propriedades quânticas das partículas e a mecânica quântica
Sistemas operacionais — sistemas para o gerenciamento de programas de computador e para a abstração da máquina, fornecendo base para um sistema utilizável
Por ser uma disciplina recente, existem várias definições alternativas para a Ciência da Computação. Ela pode ser vista como uma forma de ciência, uma forma de matemática ou uma nova disciplina que não pode ser categorizada seguindo os modelos atuais. Várias pessoas que estudam a Ciência da Computação o fazem para tornarem-se programadores, levando alguns a acreditarem que seu estudo é sobre o software e a programação. Apesar disso, a maioria dos cientistas da computaçao são interessados na inovação ou em aspectos teóricos que vão muito além de somente a programação, mais relacionados com a computabilidade.
Apesar do nome, muito da Ciência da Computação não envolve o estudo dos computadores por si próprios. De fato, o conhecido cientista da computação Edsger Dijkstra é considerado autor da frase “Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio […]”. O projeto e desenvolvimento de computadores e sistemas computacionais são geralmente considerados disciplinas fora do contexto da Ciência da Computação. Por exemplo, o estudo do hardware é geralmente considerado parte da engenharia da computação, enquanto o estudo de sistemas computacionais comerciais são geralmente parte da tecnologia da informação ou sistemas de informação.
Por vezes a Ciência da Computação também é criticada por não ser suficientemente científica, como exposto na frase “Ciência é para a Ciência da Computação assim como a hidrodinâmica é para a construção de encanamentos”, credita a Stan Kelly-Bootle.
Apesar disso, seu estudo frequentemente cruza outros campos de pesquisa, tais como a inteligência artifical, física e linguística.
Ela é considerada por alguns por ter um grande relacionamento com a matemática, maior que em outras disciplinas. Isso é evidenciado pelo fato que os primeiros trabalhos na área eram fortemente influenciados por matemáticos como Kurt Gödel e Alan Turing; o campo continua sendo útil para o intercâmbio de informação com áreas como lógica matemática, teoria das categorias e álgebra. Apesar disso, diferente da matemática, a Ciência da Computação é considerada uma disciplina mais experimental que teórica.

Várias alternativas para o nome da disciplina já foram cogitadas. Em francês ela é chamada informatique, em alemão Informatik, em espanhol informática, em holandês, italiano e romeno informatica, em polonês informatyka, em russo информатика e em grego Πληροφορική. Apesar disso, tanto em inglês quanto em português informática não é diretamente um sinônimo para a Ciência da Computação; o termo é usado para definir o estudo de sistemas artificiais e naturais que armazenam processos e comunicam informação, e refere-se a um conjunto de ciências da informação que engloba a Ciência da Computação. Em Portugal, no entanto, apesar de a palavra estar dicionarizada com esse sentido amplo, o termo é usado como sinónimo de Ciência da Computação.
De forma geral, cientistas da computação estudam os fundamentos teóricos da computação, de onde outros campos derivam, como as áreas de pesquisa supracitadas. Como o nome implica, a Ciência da Computação é uma ciência pura, não aplicada. Entretanto, o profissional dessa área pode seguir aplicações mais práticas de seu conhecimento, atuando em áreas como desenvolvimento de software, telecomunicação, consultoria, análise de sistemas, segurança em TI, governança em TI, análise de negócios e tecnologia da informação. O profissional de computação precisa ter muita determinação na apreensão tecnológica, uma vez que esta área sofre contínuas transformações, modificando rapidamente paradigmas.

13.247 – O que se sabe até agora do mega-ataque cibernético em todo o mundo


hacker-attack-7849576-260120170021
Um ataque cibernético de grandes proporções atingiu diversas empresas e organizações pelo mundo nesta sexta-feira, afetando até mesmo os serviços de saúde britânicos.
Trata-se de uma aparente campanha de ransomware —em que computadores são infectados com um vírus que codifica e “sequestra” os arquivos. Os invasores, então, pedem um “resgate”: ameaçam destruir (ou tornar públicos) os arquivos caso não recebam dinheiro.
Há relatos de computadores infectados em até 74 países, incluindo Reino Unido, EUA, China, Rússia, Espanha e Itália, o que leva especialistas em segurança acreditar que se trate de uma ação coordenada.
Uma análise da empresa de antivírus Avast identificou um “enorme pico” de ransomwares pelo vírus WanaCrypt0r 2.0 (ou WCry). “Foram mais de 57 mil infecções até agora”, diz o blog da empresa, atualizado nesta tarde. “Segundo nossos dados, o ransomware alveja principalmente Rússia, Ucrânia e Taiwan, mas teve sucesso em infectar grandes instituições.”
No Reino Unido, houve significativo impacto sobre os arquivos digitais do NHS, equivalente ao SUS britânico. Dados de pacientes foram encriptados pelos invasores e se tornaram inacessíveis. Até ambulâncias e clínicas médicas foram afetadas.
Nos computadores invadidos, uma tela dizia “ops, seus arquivos foram codificados” e pedia pagamento de US$ 600 em bitcoins (moeda digital) para recuperá-los.
Outra grande empresa infectada foi a espanhola Telefónica, que disse em comunicado estar ciente de um “incidente de cibersegurança”. Segundo a empresa, clientes e serviços não foram afetados, apenas a rede interna.
Na Itália, um usuário compartilhou imagens de um laboratório de informática universitário aparentemente infectado pelo mesmo programa.
Nos EUA, a empresa de logística FedEx disse que, “assim como outras empresas, está vivenciando interferência com alguns de nossos sistemas baseados em Windows, por culpa de um malware (software malicioso) Faremos correções assim que possível”.

AMEAÇA CRESCENTE
Os ransomwares estão se tornando uma das mais importantes ameaças cibernéticas da atualidade.
E o ataque desta sexta se destaca: “Foi muito grande, impactando organizações pela Europa em uma escala que nunca havia visto”, disse o especialista em segurança cibernética Kevin Beaumont.
Especialistas apontam que o ataque explora uma vulnerabilidade que havia sido divulgada por um grupo que se autointitula The Shadow Brokers. Esse grupo recentemente declarou ter usado ferramentas digitais roubadas da NSA, a agência nacional de segurança dos EUA.
A empresa Microsoft havia conseguido criar proteções contra a invasão, mas os hackers parecem ter tirado proveito de redes de computadores que ainda não haviam atualizado seus sistemas.
Segundo especialistas, a proteção contra ransomwares passa por medidas básicas, como evitar clicar em links suspeitos e fazer cópia de arquivos importantes.

hacker resgate

13.241 – Neurociência – Elon Musk: o projeto que mesclará cérebros humanos e inteligência artificial


neurociencia
Elon Musk, CEO da SpaceX e da Tesla, está no processo de desenvolvimento de uma nova empresa de interfaces cérebro-computador. Chamada Neuralink, ela será voltada à criação de dispositivos que poderão ser implantados no cérebro humano.
Sua função será unir o cérebro humano a um software, permitindo o aperfeiçoamento da memória e a criação de interfaces diretas com aparelhos informáticos.
Embora, até o momento, esse tipo de interface exista apenas na ficção científica, na medicina as matrizes de eletrodos e outros implantes já são utilizados para ajudar no alívio de sintomas do mal de Parkinson, da epilepsia e de outras doenças neurodegenerativas.
Operar o cérebro humano é bastante complexo e invasivo e, segundo os pesquisadores, temos um entendimento muito limitado sobre como os neurônios reagem no cérebro humano. Por isso, é compreensível que somente as pessoas que tenham uma condição médica muito séria e já tenham esgotado todas as outras possibilidades estejam suscetíveis à ideia de um implante cerebral – pelo menos, em uma primeira fase.

13.234 – Segurança Pública – Habilitações passam a utilizar código de segurança digital para evitar fraude


habilitação
As Carteiras Nacionais de Habilitação (CNHs) emitidas a partir deste mês passarão a ter um QR Code –códigos de barra que podem ser escaneados por aparelhos ou dispositivos móveis com câmeras fotográficas.
De acordo com o Denatran (Departamento Nacional de Trânsito), do Ministério das Cidades, a mudança é uma forma de aumentar a segurança contra fraudes e cópias ilícitas do documento.
Através da leitura do QR Code, informações biográficas e foto do documento original dos motoristas armazenadas no banco de dados do Denatran poderão ser acessadas.
Segundo Elmer Vicenzi, diretor do departamento, a novidade permite que “qualquer setor da sociedade tenha acesso às informações, seja numa relação civil, seja numa relação empresarial, como bancos, cartórios e empresas de locadoras de veículos, por exemplo. Antes, a verificação se dava apenas dos dados presentes na CNH, podendo a foto não ser a do titular de fato, configurando fraude”.
A leitura do código –que fica na parte interna do documento–, é feita por um aplicativo, o “Lince”, disponível para os sistemas Android e iOS e foi desenvolvido pelo Serpro (Serviço Federal de Processamento de Dados).
A checagem das informações pode ser feita offline, o que permite que autoridades como as polícias rodoviárias possam ter acesso aos dados mesmo em lugares distantes.
Apesar de Vicenzi ressaltar que não há nenhum custo adicional que justifique o aumento da taxa de emissão, o órgão reconhece que faz parte da autonomia administrativa de cada Estado definir se haverá ou não aumento.
Mais de 300 mil habilitações foram emitidas com a funcionalidade desde 1º de maio, data em que a iniciativa entrou em vigor. A previsão é que, dentro de cinco anos, todos os motoristas brasileiros já possuam a nova CNH.

13.229 – Mega Byte – WhatsApp voltou a funcionar após instabilidade de mais de 2 horas


aplicativo-whatsapp-20121220-01-1-original
Após mais de 2 horas de instabilidade, o WhatsApp voltou a funcionar por volta das 19h20 desta quarta-feira (3 de maio). Segundo relatos nas redes sociais, o aplicativo de mensagens estava fora do ar desde as 17h no Brasil e em outros países do mundo.
Procurado pelo G1, o WhatsApp afirmou por meio de sua assessoria de imprensa que “está ciente do problema e trabalhando para corrigi-lo o mais rápido possível”.
Um mapa feito pela página mostra que os relatos se concentram na Europa ocidental e no Brasil. Na seção de comentários do site, porém, usuários de todo o mundo afirmaram que o aplicativo esteve fora do ar em seus respectivos países.

13.226 – Internet e Conhecimento – China lançará enciclopédia virtual para concorrer com a Wikipedia


enciclopedia virtual chinesa
O governo chinês chamou 20 mil cientistas e acadêmicos do próprio país para criar uma versão estatal da Wikipedia, a maior enciclopédia virtual do mundo. Segundo a agência estatal responsável, a obra ambiciosa, que terá conteúdo de mais de 100 áreas do conhecimento, entrará no ar em 2018.
A plataforma online é novidade, mas a enciclopédia em si, não. Essa é a terceira edição da Enciclopédia Chinesa, cuja primeira edição foi impressa em 1993 após 15 anos de trabalho. Ela tinha 74 volumes físicos.
O projeto prevê 300 mil verbetes de mil palavras cada um. Se tudo der certo, afirma o jornal neozelandês NZ Herald, o resultado final será duas vezes maior que a Encyclopædia Britannica. Do ponto de vista numérico, ela não chegará aos pés da Wikipedia chinesa, com 939 mil artigos.
Essas comparações, porém, são arriscadas. Desde 1974 a Britannica é publicada em três partes: a primeira é reservada a verbetes curtos, de consulta rápida. A segunda, a versões aprofundadas dos principais tópicos mencionados antes. A terceira, a índices e informações sobre os autores.
Essas diferenças tornam uma comparação direta muito difícil – critérios de contagem diferentes trarão resultados diferentes.
Além disso, tamanho não é documento. A padronização do conteúdo e a seleção de boas fontes e colaboradores são essenciais, e, nesse aspecto, a Wikipedia inevitavelmente perde para suas concorrentes de papel mais antigas.

 

13.225 – Tecnologia – Brasil vai lançar e controlar satélite de telecomunicações


satelite2
De Kourou, na Guiana Francesa, parte para o espaço o Satélite Geoestacionário de Defesa e Comunicações Estratégicas (SGDC).
Ele será apenas uma das muitas espaçonaves que hoje pairam sobre o território nacional e fornecem conexões via satélite para os mais variados fins, como telefonia, televisão e internet.
Mas será a primeira a ser operada e controlada pelo governo brasileiro -numa parceria entre o Ministério da Defesa e a Telebras.
De acordo com o governo brasileiro, o novo satélite é indispensável para a preservação da soberania nacional, permitindo comunicações seguras das Forças Armadas e a implementação do Plano Nacional de Banda Larga, que pretende levar internet rápida, pelo espaço, a locais do país onde a infraestrutura de telecomunicações por solo é deficitária.
Discutido desde 2011, o contrato para a construção do SGDC foi assinado em novembro de 2013, dois meses depois que documentos revelaram que contas de e-mail de diversos membros do governo brasileiro, inclusive da ex-presidente Dilma Rousseff, foram alvo de espionagem pela NSA, agência de segurança nacional dos EUA.
Os satélites geoestacionários são assim chamados porque se localizam num anel ao redor do equador terrestre, a cerca de 36 mil km de altitude. Nessa posição, têm a propriedade especial de evoluir em torno da Terra no mesmo ritmo da rotação do próprio planeta -com isso, é como se estivessem o tempo todo sobre o mesmo ponto do globo.
Por essa razão, a órbita geoestacionária é a preferencial para satélites de telecomunicações, pois podem atender ininterruptamente uma grande região territorial.
As tecnologias envolvidas num desses artefatos espaciais de última geração, contudo, não são dominadas pelo Brasil. Por isso, o governo decidiu criar uma empresa integradora nacional -a Visiona, uma joint venture entre a Telebras e a Embraer- e contratar, por meio dela, a construção do satélite no exterior.
A vencedora da licitação foi a empresa franco-italiana Thales Alenia, que se comprometeu a realizar transferência de tecnologias envolvidas na construção do SGDC e construiu o satélite com a colaboração de dezenas de engenheiros brasileiros.
O lançamento será feito pelo foguete Ariane 5, da empresa francesa Arianespace, que opera seus voos a partir de Kourou, na Guiana Francesa. Com 5,7 toneladas, o SGDC será a carga principal, e um segundo satélite, o KoreaSat-7, da Coreia do Sul, voará como carga útil secundária.
O satélite transmitirá em duas bandas: a X (entre 8 e 12 gigahertz) e a Ka (26 a 40 gigahertz). A primeira será usada exclusivamente para uso da Defesa e a segunda será parcialmente dedicada à implementação, pela Telebras, do Plano Nacional de Banda Larga. A capacidade excedente será licitada para uso por outras empresas interessadas.
A iniciativa pode dar algum retorno imediato ao governo, que investiu R$ 2,7 bilhões no projeto, entre satélite, lançamento e investimentos na infraestrutura de solo para suas operações.
Contudo, ao chegar à sua conclusão, o projeto deixa um enorme vazio para o futuro. Originalmente, a ideia era que o SGDC fosse o primeiro de uma constelação de três satélites geoestacionários de telecomunicações, incorporando gradualmente tecnologia nacional.
Contudo, o segundo satélite da série está apenas em fase de conceito, e sem essas especificações e um contrato firmado, a Visiona -empresa criada para integrar esse e os futuros satélites- basicamente fica sem o que fazer.

13.219 – Eletricidade – Qual a função de um alternador?


alternador
Todo carro tem uma alternador. É ele que que mantém a bateria sempre carregada, exatamente como ela saiu de fábrica. A função dele é a de converter a energia mecânica do motor em energia elétrica, devolvendo a carga à bateria.
Mesmo com o passar dos anos o alternador quase nada mudou, a não ser na aparência para ser instalado nos diversos modelos existentes, e na potência devido ao aumento dos componentes elétricos.
Mas o princípio do funcionamento é o mesmo. Ele é composto internamente por um rotor, escovas, regulador de voltagem, estator e mesa retificadora de diodos. Todos são assim, como o da foto acima, que é de um Ford Corcel com mais de 40 anos de fabricação.
Dizer que um alternador é um carregador de baterias é um exagero e pouco conhecimento dos fatos. Quase seria uma utopia esperar isso de uma peça como esta. Basta observar que quando sua bateria descarregou por um rádio ligado ou uma luz esquecida acesa, uma chupeta parece que resolveu tudo. Mas é apenas uma solução de emergência, para deslocar o carro de uma situação desagradável. Com o tempo a bateria vai arriar de novo. Um alternador gera energia apenas para repor uma determinada carga usada, como as que vem dos faróis, luz de freio, sistema de injeção, enfim, de toda a parte elétrica e eletrônica do carro. Confiar apenas no alternador para carregar sua bateria descarregada seria um erro, e uma troca de nome. Quem realmente carrega uma bateria descarregada é um carregador profissional, uma peça grande semelhante as usadas pelas fábricas. Algo parecido com a foto abaixo.

carregador de baterias

 

Uma bateria precisa ficar aos “cuidados”de um carregador como esse da foto acima por pelo menos 9 horas a uma carga constante de 10 amperes, o que é algo muito maior, em termos de gerar energia, do esperado de um alternador que subdivide a energia produzida.
Outro mito sobre um alternador é que ele aumenta o consumo de combustível do carro. Isso é irreal. O que pode causar isso é o equipamento interligado ao alternador, como o compressor do ar condicionado que também é tocado pela correia do motor, o que aumenta o esforço do motor e assim aumenta também o consumo. Alguns também afirmam que ao trocarmos uma bateria de menor capacidade por uma maior, devemos também trocar o alternador por um mais possante. Não é uma verdade. Basta pensar em um caminhão, dos antigos, que sempre foram equipados com baterias de 150 amperes (uma gigante do segmento) carregadas por um alternador de 35 amperes. Então por que um alternador de 60 amperes não conseguiria manter uma bateria de 60, ou 70?
O que importa é quanto de energia está sendo retirada da bateria do seu carro. Quanto mais equipamentos, acessórios como mídia, e som de competição, mais o alternador vai ser exigido.

13.217 – Notícias Falsas no Ar – Não acredite neste novo boato que está circulando pelo WhatsApp


waths
O WhatsApp é um aplicativo de comunicação pessoal, e não uma plataforma de mídia. Mas tem muita gente usando o serviço para compartilhar “notícias urgentes”, que, como é o caso dessa nova, não passam de conversa fiada.
O mais novo boato vem na forma de uma corrente, compartilhada entre usuários, alertando que a Justiça brasileira teria mandado bloquear o WhatsApp. A mensagem, copiada e colada sem atenção pelos usuários, pede que as pessoas não atualizem o app para que possam evitar o suposto bloqueio.
“Assim que vc atualizar irá bloquear automaticamente e vc não vai mais conseguir entrar (sic)”, diz o texto da corrente, repleto de muitos outros erros de ortografia. O boato ainda vem acompanha de um link do YouTube com referência à TV Globo e uma citação à Folha de S. Paulo e ao UOL, como forma de dar mais credibilidade à história.
Só que tudo não passa de uma farsa. A Justiça brasileira não emitiu qualquer ordem de bloqueio do WhatsApp desde o ano passado. E, mesmo que isso tivesse acontecido, o bloqueio do app seria instantâneo, sem necessidade de atualização.
Atualizações servem apenas para corrigir erros no código do app e adicionar novas funcionalidades. Portanto, pode atualizar o seu WhatsApp sem medo (se houver updates disponíveis). Como com qualquer boato na internet, não é possível saber quem ou por quê inventaram mais essa história falsa.

13.216 – Exterminador do Presente – Curadores do jogo Baleia Azul podem ser robôs


robo ressicitador
O jogo “Baleia Azul”, em que um “curador” seleciona os jogadores e distribui 50 desafios a serem cumpridos até o suicídio, vem deixando pais e especialistas preocupados.
Mas de acordo com uma nova pesquisa, os curadores podem ser robôs. Na teoria, o curador utiliza uma inteligência artificial através de “chatbot” ou bots. Esses chatbots são capazes de se comunicar nas redes sociais e se passar por pessoas. Segundo Thiago Zaninotti, CTO da Aker N-Stalker, a comunicação interativa usada pelo modelo do jogo é compatível com os atuais bots, baseados em princípios de computação cognitiva.
“Em geral, os bots sociais, utilizados para finalidades criminosas ou lícitas, dispõem de recursos poderosos de aprendizado e são movidos por algoritmos de engenharia social que, embora relativamente sofisticados, estão se tornando cada vez mais corriqueiros nas estratégias de atração e engajamento de vítimas”, explicou.
Tudo faz sentido quando pensamos que as tarefas selecionadas são simples para um robô, como por exemplo, se cortar com uma lâmina, assistir a um filme de terror ou fazer voto de silêncio por um dia. “Para efeitos de comunicação verbal, tudo isto compreende um número pequeno de variáveis, passíveis de serem semanticamente mapeadas em esquemas de ação e reação bastante restritivos”.

13.215 – Cultura e Tecnologia – O brasileiro está lendo menos por causa da internet?


bienal_do_livro_de_sp
A pesquisa Retratos da Leitura no Brasil, feita pelo instituto Pró-Livro em parceria com o Ibope Inteligência, revelou que o brasileiro está lendo menos. De acordo com o levantamento nacional, o número de brasileiros considerados leitores – aqueles que haviam lido ao menos uma obra nos três meses que antecederam a pesquisa – caiu de 95,6 milhões (55% da população estimada), em 2007, para 88,2 milhões (50%), em 2011. Outro dado revela a queda do apreço do brasileiro pela leitura como hobby. Em 2007, ler era a quarta atividade mais prazerosa no tempo livre; em 2011, o hábito caiu para sétimo lugar. Na sua opinião, o afastamento entre leitores e livros pode ser motivado pelo uso crescente da internet no Brasil?
Pesquisa Ibope revela que hábito de leitura cai no Brasil. A internet tem culpa nisso?
Criancas reproduzem habitos dos pais, nao adianta a escola frisar a importância da leitura se os pais a despreza!
E você leitor do ☻Mega, qual a sua opinião?

13.212 – Energia – Brasil constrói ponte para a eficiência com novas usinas solares


paineis solares
Em 2017, o Brasil deve ter a capacidade de produzir seu primeiro gigawatt de energia solar fotovoltaica, estima a ABSolar (associação do setor).
O montante seria suficiente para atender a cerca de 800 mil residências, de acordo com Rafael Kelman, diretor da consultoria PSR.
Se confirmado, o marco vai representar um salto gigantesco sobre os 84 MW (megawatts) registrados em 2016 pela EPE (Empresa de Pesquisa Energética), do Ministério de Minas e Energia. O número, contudo, continua tímido se comparado aos 9,65 GW de capacidade das usinas hidrelétricas em 2015, último dado disponível.
Reforço para o segmento, a EGPB (Enel Green Power Brasil), subsidiária da italiana Enel, deve colocar em funcionamento neste ano quatro parques solares, adicionando 807 MW à capacidade instalada no país.
Três das estações ficam na Bahia e uma no Piauí. As plantas de Nova Olinda (PI), com 292 MW, e Ituverava (BA), de 254 MW, serão, segundo a empresa, as maiores da América Latina. A EGPB estima que, juntas, as quatro plantas serão capazes de gerar o suficiente para atender ao consumo anual de 845 mil famílias.
A empresa venceu leilões em 2014 e 2015 e investiu cerca de US$ 980 milhões nos projetos. “A vantagem do Brasil em relação à Europa é que o maior potencial solar está em áreas semiáridas do Nordeste não aproveitáveis para agricultura”, diz Carlo Zorzoli, presidente da Enel no Brasil.
O Brasil assumiu objetivos ambiciosos dentro do Acordo de Paris, ratificado no ano passado. A contribuição do setor energético inclui expandir a participação de energias renováveis na geração elétrica, além da hídrica, para pelo menos 23% até 2030. Em 2015, a oferta hídrica representava 64% da matriz brasileira; a solar não passava de 0,01%.