14.447 – Mercado de impressão 3D começa a crescer no Brasil



Poder criar modelos de brinquedos, móveis, bijouterias, sapatos e até órgãos a partir de um desenho em três dimensões não é mais algo tão impossível assim. As impressoras e o mercado de impressão 3D já começam a ganhar força no Brasil, e ter uma máquina dessas em casa pode ser possível em um futuro próximo.
As impressoras 3D já são utilizadas em larga escala em países como Estados Unidos e Japão, onde elas são responsáveis por produzir desde soluções para a medicina até produtos bizarros como, por exemplo, uma miniatura do feto no útero de sua mãe.
O mercado brasileiro começa a perceber e entender as inúmeras possibilidades da impressão 3D para a criação de produtos inovadores e cheios de criatividade, porém, este setor ainda precisa se popularizar no país. “A impressora 3D é muito flexível, capaz de ser utilizada em diversos setores da economia e mercados. Costumamos dizer que a principal virtude da impressora 3D é sua capacidade de personalização, que permite que as pessoas imprimam qualquer coisa em três dimensões”, afirma Luiz Fernando Dompieri, diretor da Robtec, primeira produtora de impressoras 3D da América Latina.
Atualmente, o serviço de impressão é muito utilizado em grandes empresas como, por exemplo, em montadoras, onde o sistema ajuda na criação de protótipos. Outro setor que já descobriu a impressão 3D é o do design e da arquitetura, que utiliza o serviço para transformar desenhos em peças de verdade.
“A impressão 3D ainda não conquistou muito espaço no Brasil, mas acredito que no futuro ela poderá se firmar no mercado. Principalmente, porque nós somos um povo muito criativo que adora novidades”, relata Vinícius Dourado, gerente da Imprima 3D.
A fabricação de peças com esse tipo de impressora é considerada muito simples e dinâmica. O desenho do projeto é feito em um software 3D e salvo no formato adequado em um pen drive comum. Logo em seguida, o pen drive é acoplado à impressora, que possui um software de leitura que reconhece o projeto, e a impressão começa.
Um filamento de ABS, um tipo de plástico, é aquecido a altas temperaturas por um bico injetor e, depois de derretido, o material é depositado em camadas pela máquina, formando assim as peças. A utilização de molde não é necessária com esse tipo de equipamento, o que ajuda a baratear o serviço.
Para ter uma ideia, o tempo gasto em média para a impressora produzir uma peça em três dimensões de cinco centímetros de altura é de 25 minutos. Os valores da impressão variam com base no tamanho da peça e no material utilizado. Por exemplo, um anel, com um pouco mais de dois centímetros de altura, pode sair por aproximadamente R$ 2,86, enquanto um objeto com 8x8x7,9cm pode chegar a R$ 442,53.
Os empresários e especialistas do setor estão muito confiantes em relação ao futuro da tecnologia no Brasil e sua popularização. “No futuro, acredito que as impressoras 3D irão se popularizar tanto que as pessoas terão um modelo em casa ou no trabalho – assim como aconteceu com as multifuncionais, que antes eram caras e encontradas apenas em grandes empresas. Agora, qualquer pessoa pode ter uma em casa”, nos relata Vinícius Dourado.
Além dessa possibilidade, acredita-se que as impressoras receberão melhorias em sua resolução e acabamento nos próximos anos para atender as futuras demandas. Dompieri também ressalta que outro aspecto que deverá ser aprimorado é a utilização de outros materiais e suas aplicações.
“Poderemos utilizar materiais produzidos a partir de células humanas, que podem criar próteses e até órgãos, e serem implantados no corpo humano sem risco de rejeição”, ressalta o diretor da Robtec.

14.433 – Mega Byte – Adicionar memória RAM sempre vai deixar o meu PC mais rápido?



Ao transitar entre as abas do navegador ou abrir o player de música para avançar a faixa em execução, o computador apresenta um comportamento estranho: leva vários segundos para realizar a ação, até que em um momento ele fica completamente paralisado.
É bem possível que em uma situação como essa muitas pessoas cheguem à imediata conclusão de que a máquina está precisando de mais memória RAM e já comecem a pesquisar o preço de mais um pente com 2 GB ou 4 GB. Mas será que adicionar RAM sempre vai deixar o seu PC mais rápido? É exatamente isso o que vamos tentar desmistificar neste artigo.
Colocar mais e mais memória RAM toda a vez que o computador dá um sinal de lentidão não significa necessariamente que a sua máquina vá apresentar um aumento de desempenho — embora, em alguns casos, um pouco mais de RAM possa ser suficiente para “desafogar” o PC e mantê-lo utilizável.
A memória RAM acessa os dados de forma não sequencial. Qualquer setor livre encontrado é preenchido com a nova informação a ser processada pela CPU, acelerando em muito os procedimentos de leitura e escrita. Outra peculiaridade deste componente é a sua volatilidade, o que significa que todos os dados armazenados nele podem ser perdidos quando o computador é desligado.

Assim, basicamente, a RAM funciona como um mecanismo de apoio para o processador, armazenando os dados mais utilizados pelos programas em uso e colaborando para a transferência deles pelo disco de armazenamento permanente (ROM). Como você deve ter percebido, a memória RAM atua em completa cooperação com outros componentes.
Dessa forma, ela não é a única responsável pela velocidade do PC. Em outras palavras, não adiantaria você colocar 12 GB de RAM no computador se o HD e a CPU dele estão ultrapassados.
Atualmente, é difícil encontrar um computador novo à venda que possua menos do que 2 GB de RAM — quantidade satisfatória para as atividades mencionadas no parágrafo anterior. Contudo, existe uma enorme variedade de modelos com preços acessíveis que trazem 4 GB de memória de acesso aleatório (do inglês Random Access Memory).
Tais computadores já aguentam um cotidiano mais exigente, incluindo o uso de editores de imagem profissionais, o processamento de um número grande de tarefas simultâneas e a jogatina de alguns jogos mais recentes e pesados — embora, como já vimos antes, existam outros componentes essenciais para que todas essas atividades sejam desempenhadas de forma satisfatória.

Você realmente necessitará de 6 GB, 8 GB ou mais de memória RAM caso pretenda realizar atividades extremamente exigentes da máquina, como editar vídeos profissionalmente, ou deseje jogar os games recém-lançados e cheios de detalhamento gráficos com todas as configurações no “máximo”.

O que fazer para ter um PC mais rápido?
Conforme já explicamos, entupir o computador de memória RAM não é garantia de obter um PC mais veloz e eficiente. Se você está tendo problemas para rodar o Photoshop ou máquinas virtuais, por exemplo, é possível que adicionar mais RAM ao seu computador resolva os travamentos.
Mas, para tornar a sua máquina efetivamente mais rápida, o ideal seria investir também em um processador mais moderno e um disco de armazenamento SSD. Apesar de muitas pessoas não acreditarem, a presença de um SSD pode fazer muita diferença.
De acordo com nossos testes, você nem precisa comprar um disco SSD com 500 GB, por exemplo, para substituir o disco rígido convencional (componente que tem um elevadíssimo custo no Brasil). Adotando uma unidade de menor tamanho, 32 GB ou 64 GB, em paralelo com o HD comum já pode oferecer uma performance melhorada bastante relevante.

14.432 – O que falta para o carro elétrico pegar?



A Agência Internacional de Energia estima que, em 2030, eles vão representar 15% da frota mundial de veículos. Logo, você tem boas chances de ter um carro elétrico num futuro não muito distante.
1) Autonomia
A principal pedra no caminho dos carros elétricos é a bateria — elas ainda não resistem por muito mais de 150 km. Com essa autonomia, não dá pra chegar nem na metade do caminho entre Rio de Janeiro e São Paulo, por exemplo. Como as baterias também demoram para recarregar, isso inviabiliza os elétricos para viagens.

Apesar de todo o investimento em pesquisa dos últimos anos, elas não estão muito melhores do que as da década de 90 — apesar de os carros atuais terem melhor performance.

Na opinião de diversos especialistas, porém, a autonomia dos modelos atuais é mais que suficiente para os deslocamentos urbanos típicos. “Fizemos vários estudos para determinar quanto as pessoas realmente rodam diariamente com os seus carros e vimos que a distância de 64 km cobre o uso de mais de 80% da população”, diz Plínio Cabral Júnior, diretor de Engenharia Elétrica da GM.

E se os carros fossem equipados com mais de uma bateria? “A autonomia aumentaria, mas considerando-se as dimensões e pesos dos veículos atuais, o tempo de carregamento e o custo sairiam do razoável”, diz Ennio Peres da Silva, engenheiro da Unicamp especialista em carros elétricos. Isso porque, além de não aguentarem muito, as baterias são caras: de 20% a 40% do custo total de um carro elétrico.
2) Recarga
Outro desafio é aprimorar o tempo e a oferta de opções de recarga. Atualmente a maior parte dos veículos elétricos pode ser recarregado em tomadas convencionais, mas uma carga completa requer entre 6 e 8 horas. Nos Estados Unidos e na Europa, já existem dispositivos especiais (foto) que recarregam 80% da bateria em 30 minutos. Não é instantâneo como encher um tanque, mas é rápido o suficiente para reabastecer enquanto se faz um lanche.

Alguns países estão empenhados em expandir a infraestrutura de recarga. Nos Estados Unidos já há mais de 10 mil recarregadores. Em Londres, a prefeitura implementa uma rede pública e subsidia a instalação em residências e empresas. Em Israel, um programa testa outra saída: em vez de recarregar a bateria, os motoristas vão a estações onde podem trocar a sua pilha fraca por uma cheia em cerca de 5 minutos, apenas.
Manutenção barata

custo por km

Esse é um quesito resolvido. Motores elétricos são mais eficientes do que os de combustão interna. E como queimar gasolina é um dos modos mais caros que existem de gerar energia, rodar com eles é mais barato (veja ao lado).

A manutenção de peças também é vantajosa. “O motor elétrico é bem mais simples e robusto. Não tem mais de 300 partes móveis, como o convencional. Então, só é preciso substituir itens que se desgastam, como pneus, amortecedores e pastilhas de freio”, diz Tony Saad, CEO da Vez, empresa paranaense que desenvolve um carro elétrico brasileiro.

  • Valores para o Brasil. Fonte: Celso Ribeiro Barbosa Novaes, coordenador do Projeto Verde/Itaipu Binacional. ** Considerando consumo médio de 10 km/l.

4) Pesquisa
É difícil ir a um salão do automóvel e não encontrar pelo menos um modelo de carro elétrico ou híbrido. Toda montadora que se preza tem pelo menos um protótipo para chamar de seu. Até porque, em tempos de sustentabilidade, ter um modelo verde no portfólio é um marketing importante.

“Um dos principais motivos para o investimento é a busca por um veículo que não polua o meio ambiente”, diz Plínio Cabral, da GM. “Mas também é importante o fato de o petróleo ser um produto finito.” Estima-se que, por volta de 2050, as reservas serão tão escassas e difíceis de acessar que seu preço vai se tornar inviável.
A busca por alternativas rendeu seu primeiro fruto comercial em 1997, quando a primeira versão do híbrido Toyota Prius chegou ao mercado japonês. Mas o último ano pode ser considerado um marco para essa indústria, com o lançamento (no exterior) de mais de uma dezena de modelos exclusivamente elétricos.
Um dos projetos de carro elétrico mais ousados é o do Hiriko (que aparece na primeira foto da matéria), desenvolvido no Massachusetts Institute of Technology.
Sua produção está a cargo de um consórcio de empresas, com apoio do governo do País Basco, na Espanha.
Mais do que elétrico, ele é um bicho urbano por essência: só leva duas pessoas, só chega a 50 km/h e é capaz até de dobrar para caber numa vaga — parte do chassi desliza sobre a outra para reduzir seu comprimento em 2/3.
Acredite se quiser, mas a Gurgel, antiga fabricante brasileira de carros, produziu cerca de 100 unidades de dois modelos de carros elétricos em 1976. Infelizmente, os projetos não tiveram apoio e o país ficou para trás no desenvolvimento da tecnologia. Atualmente, o único modelo de veículo elétrico produzido no Brasil com licença para circular nas ruas é um modelo de Palio Weekend (na foto ao lado) adaptado em parceria pela Fiat e a Usina Nacional de Itaipu, que usa mais de 30 unidades do carro. O Projeto Verde da usina ainda desenvolve outros veículos elétricos, incluindo um caminhão. A empresa curitibana Veículos de Emissão Zero (Vez) também desenvolve alguns modelos, usando uma tecnologia de baterias recicláveis. O primeiro pode sair ainda em 2013.
O preço dos carros elétricos disponíveis no mercado ainda é bem maior do que o dos convencionais, principalmente por causa do alto valor da bateria e pelo fato de serem produzidas poucas unidades. “O custo de produção ainda é cerca de duas vezes maior que o dos convencionais, mas já foi muito mais.
Nossas estimativas são de que será 50% mais caro de 3 a 4 anos, conforme os volumes de produção aumentarem e a tecnologia envolvida continuar seu desenvolvimento”, diz Reinaldo Muratori, diretor de engenharia da Mitsubishi.
Ou seja, a queda de preço depende de um fenômeno do tipo “o ovo ou a galinha”. Se mais gente comprar carros elétricos, eles podem ficar mais baratos, mas as pessoas só vão comprar mais carros elétricos se eles ficarem mais baratos. Mas não custa lembrar que a diferença entre um carro desse tipo e um convencional não é maior do que a de um popular e um luxuoso.
Não é apenas a indústria automobilística que tem se mostrado empenhada no desenvolvimento de carros elétricos: alguns governos têm oferecido cada vez mais incentivos para o desenvolvimento dessa tecnologia e de seu mercado. “Para os Estados, os principais apelos são a eliminação das emissões de gases poluentes e a luta incessante para a diminuição da dependência do petróleo, não só por motivos ambientais, mas também econômicos”, diz Ronaldo Mazará, coordenador da Comissão Técnica de Veículos Elétricos e Híbridos da Sae Brasil, associação para estudos de mobilidade e transporte.
China e Estados Unidos estão entre os que mais investem. Em 2009, os americanos lançaram um fundo de R$ 5 bilhões exclusivo para pesquisas na área. Já os chineses deram R$ 31 bilhões para incentivar a expansão de sua indústria de carros elétricos, para chegar em 2020 produzindo 1 milhão de unidades por ano e outros 5 milhões prontos, nas ruas. Neste ano, a Alemanha também entrou na corrida, anunciando investimentos de R$ 2,6 bilhões no setor.
Além de investir em pesquisa, os governos oferecem outros tipos de benefício para incentivar o mercado. No Reino Unido, por exemplo, o governo paga R$ 16 mil de cada carro elétrico vendido, e quem compra é isento de diversas taxas.
No Brasil, os investimentos são mínimos. A isenção de IPI regularmente concedida pelo governo federal para a indústria automobilística, por exemplo, não se aplica aos carros elétricos, por serem importados. Em 7 Estados, eles são isentos de IPVA.
Se num passe de mágica todos os automóveis do Brasil se tornassem elétricos, o consumo de energia aumentaria em 40%. “Mas o motor elétrico consome menos de 50% de energia do que um convencional.
Então, se usássemos o petróleo para gerar essa eletricidade, o gasto e as emissões seriam pelo menos a metade”, diz Celso Novaes, do Projeto Verde da usina de Itaipu.
Ele propõe uma hipótese mais realista: se 10% dos carros produzidos em 2011 fossem elétricos, nosso consumo aumentaria em 0,33%, de um ano para o outro. “Esse aumento já seria atendido pelo planejamento energético nacional.”
O que mudaria
Carros elétricos não têm escapamento, mas poluem indiretamente, quando se produz a eletricidade que eles consomem.

O balanço final depende da matriz energética de cada país. No Brasil, que produz mais de 80% de sua energia em hidrelétricas, carros elétricos são limpos de verdade.
Mas alguns estudos, como o apresentado ao lado, mostram que o carro a gasolina pode ser até mais limpo, se o país onde ele roda usa muitos combustíveis fósseis para gerar eletricidade. Nesse caso, a vantagem dos elétricos se resume a evitar a concentração de gases tóxicos nos centros urbanos.

14.429 – Internet – Censura na Internet



Trata-se do controle ou a supressão da publicação ou acesso de informação na Internet. Os problemas legais são similares aos da censura convencional.
Uma diferença é que as fronteiras nacionais são permeáveis pela Internet: residentes de um país que bane certas informações pode achá-las em sites hospedados fora do país. Também as tentativas por um governo de impedir os seus cidadãos de ver certos materiais podem ter o efeito de restringir estrangeiros, porque o governo talvez tome ações contra sites na Internet em qualquer lugar no planeta.
Censura total de informações na Internet é extremamente difícil (ou impossível) de se conseguir devido a natureza distribuída da Internet. Pseudoanonimato e data havens como a Freenet permitem incondicional liberdade de expressão, já que a tecnologia garante que materiais não podem ser removidos e o autor de qualquer informação irrastreável.
Existem várias técnicas de bloqueio na Internet. O bloqueio a sítios, portas e protocolos TCP/IP da Internet pode ser realizada por softwares específicos instalados no equipamento que acessa a Internet, através de roteadores locais, por exemplo doméstico ou empresarial, ou diretamente nos roteadores dos provedores de Internet. A censura imposta à Internet em alguns países utilizam preferencialmente o bloqueio através dos roteadores dos provedores da Internet que são mantidos sobre o controle de seus governos, mas até mesmo roteadores domésticos dos mais simples podem ser configurados pelo chefe de família para bloquear o acesso a diversos conteúdos no ambiente domiciliar. As principais técnicas utilizadas são:

Filtro IP: Os filtros IP permitem bloquear endereços IP, portas e protocolos. Considerando que um sítio da Internet normalmente tem um único número IP essa técnica permite bloquear sítios específicos bem como o acesso de alguns aplicativos que utilizam portas específicas do protocolo TCP/IP. O bloqueio de IP foi relatado por alguns usuários do provedor Telus, no Canadá em 2005.[1]
Bloqueio de URL: Os filtros de URL permitem bloquear o acesso sítios e conteúdos através de uma lista de palavras-chave. Essa lista de palavras-chave pode conter termos como “xxx” e “sex” (que sugerem textos de conteúdos sexual), “.mp3” e “.wav” (que sugerem material que violam direitos autorais) e “cialis” (que sugerem o acesso a SPAM’s na Internet). Administrar uma lista de bloqueio de URL é eficiente para negar o acesso a conteúdos mas também leva a uma enorme dificuldade administrativa: sítios oficiais de cidades como Essex, Sussex and Middlesex e mesmo pesquisas sobre “socialismo” podem ser bloqueadas pois contém um dos fragmentos das palavras-chave bloqueadas sendo necessário criar uma lista de exceções.
Filtros MAC: Os filtros MAC permitem bloquear o acesso de máquinas específicas à Internet; nesse sentido não são normalmente utilizados para filtrar ou censurar conteúdos, mas sim para negar o acesso a Internet a computadores específicos.
Bloqueio de Domínio: O filtro de domínios permite bloquear o acesso sítios específicos da Internet através de uma lista de sítios cujo acesso é negado. É eficiente para bloquear o acesso a todo e qualquer conteúdo de um sítio de forma semelhante aos resultados que se obtêm pelo filtro IP. Em 2007, no Brasil, o domínio youtube.com foi bloqueado através de uma determinação judicial provisória.
Enquanto não existe um acordo universal sobre a definição do que constitui “censura invasiva”, a organização Repórteres sem Fronteiras mantém uma lista de inimigos da Internet enquanto a OpenNet Initiative categoriza algumas nações como praticantes de níveis extremos de censura na Internet. Estas nações geralmente censuram conteúdo político e às vezes punem cidadãos que violem a censura com prisão.
Estados Unidos
Os Estados Unidos estão na lista nominal da ONI mas não na lista da RSF. Os Estados Unidos aprovaram em 1996 o Communications Decency Act, que restringia severamente conversar online. Apoiadores da liberdade de expressão, porém, conseguiram que a maior parte da lei fosse anulada na justiça. O DMCA criminaliza a discussão e a disseminação de tecnologia que possa ser utilizada para burlar mecanismos de proteção de copyright, e torna mais fácil agir contra atos considerados como violadores pela Internet. Muitos distritos escolares dos Estados Unidos frequentemente censuram material considerados inapropriado para escolas. Em 2000, o congresso aprovou a CIPA (Children’s Internet Protection Act), que requer que escolas e bibliotecas publicas recebendo fundo federal instalem software de filtragem de conteúdo.[40] O congresso está também considerando que as escolar e bibliotecas bloqueiem o acesso a todos os sites de relacionamento pela Internet. Oponentes da censura pela Internet argumentam que as provisões da liberdade de expressão da Primeira Emenda da constituição barra o governo de qualquer lei ou regulação que censure a Internet.
Sites de proxy
Sites de proxy geralmente são a mais rápida e simples solução de acessar sites banidos em nações censuradas. Estes sites trabalham por estarem eles mesmo em locais não sujeitos a censura, então são capazes de acessar material censurado. Isto usualmente se faz digitando a URL no site de proxy, e ele então irá pegar e mostrar a página. É recomendado que se use o protocolo https já que ele é criptografado e difícil de bloquear.
Sneakernet é um termo usado para descrever a transferência de informação eletrônica, especialmente arquivos de computador, por meios físicos, carreando a unidade de armazenamento de arquivos de um ponto a outro. Uma sneakernet pode mover dados independente das restrições da rede simplesmente não usado a rede.
Também é possível ficar no anonimato através do Internet Explorer 8, do Google Chrome ou até mesmo pelo Firefox. Mas o sistema de anonimato fornecido por esses navegadores é limitado à evitar o acúmulo de evidências locais do histórico de navegação, e esconder o IP do usuário dos sites acessados. Em geral, a fornecedora do serviço de Internet ainda pode obter acesso à todo o tráfego de dados de um determinado cliente, especialmente se exigido judicialmente.

14.428 – O que é Freenet?



É uma plataforma peer-to-peer de comunicação anticensura. Ele usa um sistema de arquivos distribuídos descentralizado para manter e fornecer informações, e tem uma suíte de software livre para publicação e comunicação na Web, sem medo de haver censura.
Ambas Freenet e algumas de suas ferramentas associadas foram originalmente desenvolvidas por Ian Clarke, que definiu a meta da Freenet como proporcionar a liberdade de expressão na Internet, com forte proteção do anonimato.
A rede responde adaptativamente a padrões de uso, replicando dinamicamente a informação para que ela fique mais próxima de onde ela é mais requisitada—o que tem sido chamado de transparent lazy replication. Isso otimiza o uso da banda e tem implicações que vão muito além do simples compartilhamento de arquivos.
A Freenet pretende ser um novo paradigma para a Internet. Quanto à questão do copyright, Ian Clarke é radical:
“O problema central do copyright é que o seu cumprimento exige o monitoramento das comunicações, e você não pode ter garantia de liberdade de expressão se alguém está monitorando tudo o que você diz.(…)
Você não pode garantir liberdade de expressão e cumprir a lei de copyright. É por essa razão que a Freenet, um sistema projetado para proteger a liberdade de expressão, tem de impedir o cumprimento do copyright.”
O link original do projeto é freenetproject.org E é uma rede patrocinada e mantida por micro pagamentos voluntários.

14.427 – Quando e Onde Surgiu a Deep Web?



Em 1980, Tim Berners-Lee, ainda como funcionário da CERN, começou a desenvolver uma forma de conectar os documentos produzidos em cada laboratório a partir da infraestrutura de rede já existente, assim todos em qualquer laboratório poderiam ter fácil acesso aos documentos produzidos e assim iniciou uma das maiores invenções da humanidade a WWW (World Wide Web). Em 1994 o primeiro navegador havia sido lançado, o Netscape que aliado à invenção de Tim, dava origem aos primórdios da internet como a conhecemos e que posteriormente, em 2000, Michael K Bergman propagada que o browser(navegador) serviria para “surfar” na rede e as diversas páginas seriam um oceano. Bergman então publicou o artigo The Deep Web: Surfacing Hidden Value. Este artigo foi a origem da expressão Deep Web ou a primeira vez em que ela apareceu publicamente, onde ele comenta:
“Embora muita coisa possa ser alcançada na rede, existe uma riqueza de informações que estão nas profundezas, portanto, perdidas”
O que é a Deep Web?
Tudo que conseguimos pesquisar e acessar via buscadores tradicionais é somente o que é indexado, ou seja, as páginas indexadas pelos motores de busca da web alimentados por web crawlers ou aranhas, que são robôs (programas) que varrem a internet indexando links e informações para viabilização de buscas e ranqueamento de sites. Esta parte visível já indexada é chamada de SURFACE WEB e todo o resto que está ora do alcance destes programas varredores de links e informações é chamado de DEEP WEB. Não confunda com páginas ocultadas intencionalmente, pois, em alguns governos totalitários, informações públicas na web podem ser ocultadas intencionalmente desindexando links para certas localidades específicas.

Alguns pesquisadores dizem que a Deep Web é tecnicamente imensurável devido ao vasto ciberespaço fora dos radares de busca das grandes empresas como a Google e, por isso, detém a maior parte da rede mundial. A Deep Web vai de redes descentralizadas com níveis fortes de criptografia e permissões de acesso visando o anonimato, onde os mitos sombrios moram, à Intranets de empresas privadas e dados de sistemas específicos como os da Receita Federal, por exemplo. Tais exemplos podem ser classificados como parte da Deep Web, pois estão fora dos mecanismos de buscas tradicionais da web e requerem softwares ou níveis específicos de permissão para acesso.
O Debate sobre o que de fato é a Deep Web não é de hoje e diversas questões são colocadas em pauta. Será realmente que a Deep Web é tudo que não se pode encontrar em buscas na web? Então seus e-mails pessoais estariam na Deep Web? Ou a Deep Web é apenas tudo que existe nas redes fechadas como a I2P, TOR, Freenet, Alienet, Demonsaw, GlobalLeaks, Infinit, Maelstron, Morphis, Hiperboria, entre outras? Muitos ainda utilizam a Deep Web e a “Dark Web” ou “Darnet” e seus mercados de drogas ilícitas e armas online, fóruns de ódio, terror, pedofilia, comércio de malwares, assassinos de aluguel, etc, como sinônimos.
Qual a razão de páginas estarem fora do radar dos buscadores?
Há basicamente dois motivos: ações deliberadas ou intencionais e limitações técnicas. No primeiro caso podemos citar a rede TOR criada intencionalmente para ser oculta aos olhos de curiosos e ficar longe da vigilância estatal, inicialmente visando a privacidade e a livre informação. Podemos citar também bancos de dados de artigos científicos ou revistas científicas em que para se ter acesso exige-se ser assinante e uma autenticação (um login e uma senha) ou qualquer outro tipo de conteúdo privado. Outros exemplos são os bloqueios dos indexadores pelos desenvolvedores de certos conteúdos a partir de ajustes em servidores como o uso do arquivo robots.txt na raiz do site indicando a sua exibição ou não aos indexadores.

Em relação à limitação técnica podemos citar as intranets de corporações em que os dados estão em databases internas inviabilizando a indexação de informações por mecanismos de buscas tradicionais fora desta intranet.. Antigamente certos tipos de arquivos também eram ignorados pelos buscadores como PDFs, arquivos Flashs, executáveis e arquivos compactados. Porém, atualmente a tecnologia evoluiu e tais arquivos não só são exibidos em buscas como podem ser buscados diretamente por seu tipo digitando a palavra que deseja buscar seguida do comando filetype=pdf no Google, por exemplo, para buscar arquivos pdfs. Levando em consideração este fato vale citar que Sherman e Price abordaram ainda a seguinte questão de que o visível ou invisível destina-se somente a um momento específico no tempo.

“O que é invisível hoje pode não ser amanhã caso os mecanismos de buscam decidam adicionar mais capacidade para indexar coisas novas”

Qual a profundidade da rede?
A Internet (rede mundial de computadores e demais dispositivos capazes de estabelecer conexão) permite a troca de informações por meio de protocolos de comunicação em uma infraestrutura de rede em desenvolvimento contínuo desde a década de 1960. A Web, apesar de ser usada no mesmo sentido, é apenas um componente desta rede que permite o acesso à videos, imagens, páginas de conteúdos, etc, por meio de um navegador. E a Web Profunda, Escura, Invisível? É uma web diferente? Tecnicamente falando a ideia de comunicação por trás dos protocolos e a relação com os servidores de armazenamento nunca mudaram. Ou seja, qualquer estrutura simples que fuja dos indexadores, como já mencionado, pode-se desdobrar em infinitas possibilidades e por isso não é fácil definir ou medir a Deep Web.

Pode-se exemplificar se pensarmos em um endereço na internet que termine em “.com.br” ou “.com”. Estes sufixos são gerenciados pelo Domain Name System ou DNS que garante a identificação de um site, o lugar onde ele está hospedado e consequentemente o seu IP (Internet Protocol – que possibilita a localização física do endereço). A entidade por trás do DNS a nível internacional é o ICANN e no Brasil é o CGI (Comitê Gestor da Internet).

14.418 – Nanorobótica é Nova Aliada da Medicina



Pela primeira vez na história, o especialista em cirurgia gastrointestinal Antonio de Lacy realizou uma cirurgia com telementoria por meio de uma rede de quinta geração (5G) de telefonia móvel. Diante de um auditório lotado durante apresentação no MWC19, evento realizado em Barcelona no final de fevereiro passado, o médico auxiliou remotamente uma equipe cirúrgica formada por cinco médicas e dois anestesistas do Hospital Clínic de Barcelona na retirada de um tumor de intestino.
De acordo com relatório da Frost & Sullivan, o mercado global de Ciências da Vida deverá chegar a US$ 1,5 trilhão em 2022 por conta do interesse das gigantes de tecnologia no setor, entre elas Amazon, Google, Apple, IBM, Microsoft e Samsung. Das 10 tecnologias mais inovadoras do momento apontadas este ano por Bill Gates para MIT Technology Review, revista do Instituto de Tecnologia de Massachusetts, quatro estão diretamente relacionadas com a área de saúde:
A possibilidade de uma grávida saber se tem maiores chances de ter um bebê prematuro a partir da descoberta do bioengenheiro Stephen Quake, da Universidade de Stanford, de como detectar e sequenciar as pequenas quantidades de material genético cell-free analisando uma pequena amostra de sangue, eliminado a necessidade de procedimentos invasivos.
O uso de uma pílula contendo microscópios em miniatura, desenvolvida por Guillermo Tearney, patologista do Hospital Geral de Massachusetts, que, ao ser engolida, analisa o intestino em busca de sinais de EED (Disfunção Entérica Ambiental), doença assintomática que causa inflamações crônicas que impedem o órgão de absorver todos os nutrientes necessários, causando desnutrição e comprometendo o desenvolvimento.
Novas vacinas personalizadas contra o câncer, desenvolvidas pela startup alemã BioNTech, que ainda estão em teste e, se bem sucedidas, poderão acionar o sistema imunológico do paciente para produzir células para identificar, atacar e eliminar células cancerígenas.
Relógios inteligentes que fazem eletrocardiograma, permitindo identificar sintomas de um derrame ou ataque cardíaco com a mesma precisão de um aparelho médico utilizado nas clínicas e hospitais.
Além da telemedicina, que será cada vez mais praticada na medida em que a Internet ganha estradas cada vez mais velozes, os avanços tecnológicos em áreas como Inteligência Artificial e Internet das Coisas irão trazer dois grandes ganhos para nossa saúde: uma medicina mais preventiva e, ao mesmo tempo, uma maior rapidez em chegar a diagnósticos precisos, o que irá viabilizar o início do tratamento em estágio inicial, diminuir as emergências médicas e aumentar as chances de cura.
Com uma análise de dados coletados de diversas fontes e a possibilidade de consultar outros médicos a distância, inclusive realizando procedimentos complexos como demonstrou de Lacy, a expectativa é que iremos cada vez menos aos consultórios e os profissionais de saúde terão cada vez mais informações para orientar que condutas devemos tomar para manter uma rotina mais saudável e os cuidados imediatos no caso de apresentarmos determinados sintomas.
Os wearables serão incorporados no nosso guarda-roupa para monitorar nossa saúde 24 horas por dia em tempo real. Seu celular, seu relógio e até mesmo sua aliança estarão coletando o tempo todo dados sobre sua saúde que irão alimentar pela nuvem seu prontuário eletrônico. No caso de um ataque súbito, seu plano de saúde será imediatamente informado e você receberá as informações do que fazer enquanto espera a chegada dos paramédicos.
O Relatório Economia da Saúde divulgado pelo Imperial College Health Partners (ICHP) mostrou que, no Reino Unido, são necessários em média 5,6 anos, oito clínicos (incluindo quatro especialistas) e três diagnósticos incorretos até que uma doença rara seja corretamente identificada. Quanto mais dados estiverem disponíveis, quanto mais informações disponibilizarmos sobre nossa saúde, mais vidas serão salvas e mais epidemias serão controladas antes de se espalharem.
Teleconsultas
Em pesquisa realizada em dezembro de 2018 pela Associação Paulista de Medicina/Global Summit, com retorno espontâneo de 848 entrevistados, 84,67% dos médicos afirmaram usar ferramentas de TI para observação dos pacientes e para otimizar o tempo da consulta. O prontuário eletrônico é a ferramenta mais utilizada, com 76,75% das respostas entre os que já incorporaram a tecnologia na rotina.
O Conselho Federal de Medicina chegou a aprovar recentemente resolução que autorizava os médicos brasileiros a atenderem seus pacientes pela Internet para realização de consultas, diagnósticos e outros procedimentos a distância. Mas depois de muita polêmica, a resolução foi revogada.
O assunto ainda vai gerar muita discussão entre as entidades médicas, mas me parece inevitável o avanço da telemedicina e da consulta virtual para casos mais simples, o que aceleraria o atendimento especialmente em um País como o Brasil, que tem muitas populações que moram em regiões muito afastadas onde não há profissionais de saúde.
Na Europa, 24 dos 28 países membros possuem legislação sobre teleconsulta. Destes, 17 permitem a consulta remota de forma plena e apenas três com restrições (emergências, áreas com carência de médicos e necessidade de primeira consulta presencial). Alemanha, Eslováquia e Itália ainda não permitem o atendimento a distância.

Medicina mais preventiva
Para acelerar a descoberta do diagnóstico, a startup Human Longevity Inc realiza a análise da sequência completa do genoma para descobrir um tumor ou uma anormalidade cerebral em desenvolvimento e cortar rapidamente o mal pela raiz antes que se desenvolva.
No final de 2018, a HLI publicou resultados reveladores dos primeiros 1190 clientes, principalmente porque os pacientes eram todos financeiramente confortáveis (o acompanhamento custa na faixa de 25 mil dólares) e tinham acesso aos melhores médicos.
Os dados mostraram que 2% tinham tumores previamente desconhecidos e foram detectados pela ressonância magnética; 2,5% tinham aneurismas previamente não detectados; 8% tinham arritmia cardíaca; e 30% tinham gordura hepática elevada não identificada anteriormente.
Resumindo, 14,4% dos clientes descobriram informações relevantes sobre a saúde que exigiam acompanhamento ou intervenção imediata. Já 40% descobriram informações de longo prazo que serão fundamentais para a saúde.
Um relatório da Wise Guy Reports sobre “Internet das Coisas (IoT) no mercado de assistência médica” revelou que esse setor deve alcançar US$ 477,9 bilhões em 2025. De acordo com projeções do Plano Nacional de IoT, uma iniciativa do BNDES, estima-se que até 2025 o mercado global de saúde tenha um ganho potencial gerado pela Internet das Coisas de US$ 1,7 trilhão. No Brasil, estima-se que o valor poderá chegar a US$ 39 bilhões.
Nessa linha, temos um bom exemplo de algo que já está no mercado: o anel inteligente Oura, que analisa informações como batimento cardíaco, temperatura e atividades físicas. Dentre os recursos interessantes do anel estão a conexão Bluetooth, funcionamento autônomo e sensor de acelerômetro. O acessório tem ainda uma memória que armazena até três semanas de dados e um chip ARM Cortex no processamento.
O aplicativo para controlar os dados pelo celular oferece dicas para otimizar o sono, atividades diárias e outras dicas para melhorar a saúde do usuário. São apresentados gráficos indicativos dos resultados em uma plataforma pessoal fácil de usar. O registro é analisado e identifica etapas do sono entre o mais profundo, REM, sono leve e períodos desperto.
Já com o avanço dos nanorobôs será possível monitorar inúmeros novos parâmetros e até mesmo diagnosticar doenças. Recentemente, os pesquisadores do MIT construíram robôs em escala micro capazes de detectar, registrar e armazenar informações sobre o corpo humano. Esses minúsculos robôs, com cerca de 100 microcentimetros de diâmetro, podem realizar tarefas computacionais pré-programadas.
Os engenheiros da Universidade da Califórnia, em San Diego, desenvolveram nanorobôs alimentados por ultrassom que nadam eficientemente pelo sangue, removendo bactérias nocivas e as toxinas que produzem. Em breve, com o desenvolvimento da tecnologia, esses robôs farão entrega direcionada de medicamentos e ações corretivas no corpo humano.
E você? Aceitaria ser monitorado o tempo todo pelo seu médico? Faria uma teleconsulta? Tomaria uma pílula com um robô para navegar pelos seus órgãos e analisar se está doente? A tecnologia vai colocar sua saúde na palma da sua mão. Cuidar da sua vida dependerá mais e mais do compartilhamento dos seus dados. Só vai depender de você.

14.401 – Mega Byte – Sistema Operacional Windows



É uma família de sistemas operacionais desenvolvidos, comercializados e vendidos pela Microsoft. É constituída por várias famílias de sistemas operacionais, cada qual atendendo a um determinado setor da indústria da computação, sendo que o sistema geralmente é associado com a arquitetura IBM PC compatível. As famílias ativas do Windows incluem Windows NT, Windows Embedded e Windows Phone; estes podem abranger subfamílias, como Windows CE ou Windows Server.
Entre as famílias Windows extintas estão o Windows 9x; o Windows 10 Mobile é um produto ativo, não relacionado à família defunta Windows Mobile. A Microsoft introduziu um ambiente operacional chamado Windows em 20 de novembro de 1985, como um shell para MS-DOS, em resposta ao crescente interesse em interfaces gráficas de usuário (GUIs).
O Microsoft Windows passou a dominar o mercado de computadores pessoais (PC) do mundo, com mais de 90% de participação de mercado, superando o Mac OS, que havia sido introduzido em 1984. A Apple chegou a ver o Windows como uma invasão injusta em sua inovação no desenvolvimento de produtos GUI, como o Lisa e o Macintosh (eventualmente resolvido na Justiça em favor da Microsoft em 1993). Nos PCs, o Windows ainda é o sistema operacional mais popular.

No entanto, em 2014, a Microsoft admitiu a perda da maioria do mercado global de sistemas operacionais do sistema operacional móvel Android, devido ao enorme crescimento nas vendas de smartphones. Em 2014, o número de dispositivos Windows vendidos era menos de 25% dos dispositivos Android vendidos. Essas comparações, no entanto, podem não ser totalmente relevantes, já que os dois sistemas operacionais visam plataformas tradicionalmente diferentes. Em setembro de 2016, a versão mais recente do Windows para PCs, tablets, smartphones e dispositivos embutidos era o Windows 10. As versões mais recentes para servidores era o Windows Server 2016. Uma versão especializada do Windows é executada no console de jogos Xbox One.
Histórico
A Microsoft começou a desenvolver o Microsoft Windows em setembro de 1981. Os primeiros Windows, como o 1.0, 2.0, são compatíveis apenas com partições formatadas em sistema de ficheiros FAT, nesse caso, o FAT 16.
O 3.x poderia ser instalado em FAT 32, porém necessita ser instalado o MS-DOS 7.10, que era incluído nos disquetes de inicialização do Windows 95 OSR2 e Windows 98, necessitando modificar alguns arquivos para permitir seu funcionamento.
Ao mudar do 3.1 para o 95B (Windows 95 OSR 2/OSR 2.1), os HD’s poderiam ser formatados em FAT 32.
Inicialmente lançado com o Windows NT, a tecnologia NTFS é ainda hoje (2020) o padrão de fato para esta classe. Com a convergência de ambos sistemas, o Windows XP passou também a preferir este formato.
O Windows 95 foi lançado em 24 de agosto de 1995. Ele era um Windows completamente novo, e de nada lembra os Windows da família 3.xx. O salto do Windows 3.0 ao Windows 95 era muito grande e ocorreu uma mudança radical na forma da apresentação do interface. Introduziu o Menu Iniciar e a Barra de Tarefas. Enquanto Nesta versão, o MS-DOS perdeu parte da sua importância visto que o Windows já consegue ativar-se sem precisar da dependência prévia do MS-DOS. As limitações de memória oferecidas ainda pelo Windows 3.0 foram praticamente eliminadas nesta versão. O sistema multitarefa tornou-se mais eficaz. Utilizava o sistema de ficheiros FAT-16 (VFAT). Os ficheiros (arquivos) puderam a partir de então ter 255 caracteres de nome (mais uma extensão de três caracteres que indica o conteúdo do arquivo, facilitando assim sua identificação e podendo ser associado para abertura em determinados programas). O salto foi enorme, e o lançamento foi amplamente divulgado pela imprensa, inclusive pelas grandes redes de televisão. Existe uma outra versão do Windows 95, lançada no início de 1996, chamada de Windows 95 OEM Service Release 2 (OSR 2), com suporte nativo ao sistema de arquivos FAT32. Já o Windows 95, a partir da revisão OSR 2.1, incluía o suporte nativo ao Barramento Serial Universal (USB) e Ultra DMA (UDMA). Foi lançada ainda uma versão especial, o Windows 95 Plus!, com um pacote de diferentes temas visuais e sonoros para personalização do sistema operacional. Esta versão também incluía o navegador Internet Explorer.

Windows 98
Esta versão foi lançada em 25 de Junho de 1998. Foram corrigidas muitas das falhas do seu antecessor. A maior novidade desta versão era a completa integração do S.O. com a Internet. Utilizava o Internet Explorer 4. Introduziu o sistema de arquivos FAT 32 e começou a introduzir o teletrabalho (só foi possível devido à integração do Web). Melhorou bastante a interface gráfica. Incluiu o suporte a muitos monitores e ao USB (Universal Serial Bus). Mas, por ser maior do que o Windows 95 e possuir mais funções, era também mais lento e mais instável. Nessa versão, nasce a restauração de sistema via MS-DOS (Scanreg.exe /restore). A restauração de sistema visava corrigir problemas retornando o computador a um estado anteriormente acessado (ontem, antes de ontem, etc).
O Windows XP foi uma família de sistemas operacionais de 32 e 64 bits produzido pela Microsoft, para uso em computadores pessoais, incluindo computadores residenciais e de escritórios, notebooks, tablets e media centers. O nome “XP” deriva de eXPerience.[4] O Windows XP é o sucessor de ambos os Windows 2000 e Windows ME e é o primeiro sistema operacional para consumidores produzido pela Microsoft construído em nova arquitetura e núcleo (Windows NT 5.1). O Windows XP foi lançado no dia 25 de Outubro de 2001 e mais de 400 milhões de cópias estavam em uso em Janeiro de 2006, de acordo com estimativas feitas naquele mês pela empresa de estatísticas IDC.[5] Foi sucedido pelo Windows Vista lançado para pré-fabricantes no dia 8 de Novembro de 2006 e para o público em geral em 30 de Janeiro de 2007. Suas vendas cessaram no dia 30 de Junho de 2008, porém ainda era possível adquirir novas licenças com os desenvolvedores do sistema até 31 de Janeiro de 2009 ou comprando e instalando as edições Ultimate ou Business do Windows Vista e então realizando o downgrade para o Windows XP.Até o final de Julho de 2010, o Windows XP era o sistema operacional mais utilizado no mundo com 62.43% de participação no mercado, tendo chegado a 85% em Dezembro de 2006. Os números mostram a queda exponencial do uso do sistema operacional, acelerada pelo lançamento do Windows 7, que chegou para corrigir os problemas do Vista.

O Windows Vista é um sistema operacional desenvolvido pela Microsoft, sendo a sexta versão do Windows para uso em computadores pessoais, incluindo computadores residenciais e de escritórios, laptops, Tablet PCs e computadores Media Centers. Antes do seu anúncio em 22 de Julho de 2005, o Windows Vista era conhecido pelo nome de código Longhorn. O lançamento do Windows Vista veio mais de cinco anos depois da introdução do seu predecessor, o Windows XP, sendo o período mais longo entre lançamentos consecutivos de versões do Microsoft Windows. O Windows Vista possui novos recursos e funções dos que os apresentados por sua versão anterior o Windows XP, como uma nova interface gráfica do usuário, apelidada de Windows Aero.

O Windows 7 é uma versão do Microsoft Windows, uma série de sistemas operativos produzidos pela Microsoft para uso em computadores pessoais, incluindo computadores domésticos e empresariais, laptops, tablets e PCs de centros de mídia, entre outros.[8] Windows 7 foi lançado para empresas no dia 22 de julho de 2009, e começou a ser vendido livremente para usuários comuns às 00:00 do dia 22 de outubro de 2009, menos de 3 anos depois do lançamento de seu predecessor, Windows Vista. Pouco mais de três anos depois, o seu sucessor, Windows 8, foi lançado em 26 de outubro de 2012.
A penúltima versão lançada, o Windows 8.1, é um sistema operacional mais estável, o seu visual é simples e tem uma boa performance em uma grande gama de computadores, tablets e Notebooks Híbridos de variadas configurações. O layout também sofreu algumas modificações, para que seja mais fácil encontrar o que você precisa, quando precisa, permitindo que o usuário ganhe tempo em tarefas rotineiras.
A Microsoft lançou o Windows 10 Technical Preview (nome de código Threshold) no dia 30 de setembro de 2014 e em seu lançamento foi enfatizado o retorno do Menu Iniciar de que tanto os utilizadores sentiam falta.
A principal linguagem de programação usada para escrever o código-fonte das várias versões do Windows é o C e algumas partes com C++ e Assembly. Até a versão 3.11, o sistema rodava em 16 bits (apesar de poder instalar um update chamado Win32s para adicionar suporte a programas 32 bits), daí em diante, em 32 bits. As versões a partir do XP e Server 2003 estão preparadas para a tecnologia 64 bits. Os sistemas de 64 bits não possuem mais suporte para rodar nativamente aplicativos de 16 bits, sendo necessário uso de emuladores/máquinas virtuais.
Outra característica denominada de herança maldita devido o fato de ter herdado essa regra do DOS é o fato de não se poder criar pastas com os determinado nomes: con, prn, aux, com1 e lpt1. Trata-se de uma antiga herança que os SOs Windows carregam do MS-DOS e são palavras reservadas para a comunicação interna do SO. Portanto, mesmo o mais recente sistema da Microsoft é incapaz de interpretar tais sentenças como simples nomes através do Windows Explorer.

14.391 – Teste com Carro Voador


A empresa japonesa SkyDrive Inc realizou um voo teste bem-sucedido com seu projeto de carro voador. No ato, uma pessoa estava a bordo do veículo. O exercício foi feito no campo de testes da Toyota. Nas imagens é possível ver o veículo levantando verticalmente de um a dois metros do chão. Ele ficou no ar por cerca de quatro minutos.
Tomohiro Fukuzawa, que lidera a SkyDrive, disse que espera que o carro voador possa ser transformado em um produto de mercado até 2023, mas reconhece que torná-lo seguro é a prioridade por enquanto. “Dos mais de 100 projetos de carros voadores do mundo, apenas alguns tiveram sucesso com uma pessoa a bordo”, disse ele à Associated Press. “Espero que muitas pessoas queiram pilotar este aqui e se sintam seguras.” Por enquanto, o veículo voa de cinco a dez minutos apenas. Fukuzawa acredita que se esse número chegar a 30 minutos o produto ganha apelo para vendas. Entretanto, tamanhos de baterias, controle de tráfego aéreo e infraestrutura estão entre os possíveis problemas para o modelo.
O projeto SkyDrive começou como voluntário em 2012. Seu nome era Cartivator, e contava com financiamento de grandes empresas japonesas – incluindo a Toyota, a empresa de eletrônicos Panasonic e a desenvolvedora de games Bandai Namco.


14.372 – Nanotecnologia – Colírio com nanopartículas pode substituir o uso de óculos ou lentes


colirio de nanoparticulas
Quando se descobre a necessidade do uso de óculos, uma grande questão sempre surge. Ao mesmo tempo que eles fazem você conseguir ver o mundo literalmente com outros olhos, a mudança de estilo nem sempre é bem-vinda, e todas as armações podem parecer horríveis. Em casos de uso indispensável, são sugeridas as lentes de contato, quem apesar de não ficarem aparentes, possuem detalhes que podem tornar o uso incômodo para algumas pessoas.

Agora uma terceira opção pode se tornar viável: o uso de nanopartículas aplicadas como um colírio. Pesquisadores do Centro Médico Shaare Zedek e da Universidade Bar-Ilan publicaram um estudo explicando como o método funciona. O processo atualmente exigiria visitas periódicas ao médico, mas após essa etapa funciona sem problema algum.
Inicialmente, o médico mede a refração de cada olho, para que em seguida utilize um laser que cria pequenas reentrâncias na superfície da córnea. As dimensões dessas marcas estão relacionadas com a necessidade de correção do paciente.
Finalmente, o colírio especial com nanopartículas é aplicado, preenchendo as reentrâncias criadas pelo laser na superfície da córnea, segundo afirmou o pesquisador do projeto Zeev Zalevsky ao Digital Trends. Ele também explicou que o colírio altera o índice de refração de acordo com o padrões criados pelo procedimento feito pelo médico, corrigindo o problema do paciente. A aplicação do colírio pode ser feita em casa sem problema algum.
Esse novo processo é menos invasivo que uma cirurgia tradicional, pois só altera o exterior do globo ocular e não exige os cuidados de um procedimento complexo. A desvantagem é que, exatamente por criar somente reentrâncias superficiais na córnea, o corpo recompõe essa “agressão” com certa facilidade, fazendo com que a visão volte a ter os problemas iniciais após aproximadamente 1 ou 2 meses.
Por se tratar de um método novo, avanços ainda são possíveis nesse quesito. Mesmo com a curta data de validade do procedimento, a facilidade criada por não necessitar de manutenção diária, como uma lente comum, pode fazer com que seu uso seja interessante para algumas pessoas, mesmo com visitas periódicas a um oftalmologista. Os cientistas continuam no desenvolvimento do método e esperam evoluir o suficiente para que o produto se torne viável comercialmente dentro de 2 anos.
Talvez o futuro tenha chegado, e dentro de alguns anos usar óculos se torne apenas uma opção para quem prefere os métodos tracionais.

14.364 – Dinheiro Digital vai Substituir o Físico?


bitcoin
Enquanto aqui no Brasil o Banco Central faz propaganda contra o Bitcoin buscando “queimar o filme” da criptomoeda, o Japão, recentemente, regulamentou o uso de criptomoedas no país. Isso fez com que o valor do Bitcoin batesse um novo recorde ultrapassando a casa dos US$ 8 mil.
Agora, em um fórum sobre inovação financeira patrocinado pela Thomson Reuters, Hiromi Yamaoka, chefe do departamento de sistemas de pagamento e liquidação do Banco Central do Japão disse que as criptomoedas ainda tem um longo caminho a trilhar para substituir o dinheiro físico.
O Banco Central do Japão, além de regulamentar o uso do Bitcoin, também se juntou ao Banco Central Europeu para estudar a tecnologia de razão contábil distribuída (DLT) e dar orientações a investidores que buscam oportunidades. Mesmo assim, Yamaoka disse que a tecnologia blockchain e DLT ainda estão prematuras.
Ele também disse que o hype que envolve a oferta inicial de moedas foi “tremendo”, mas ainda é muito cedo para que isso se torne o padrão no mercado financeiro.

14.363 – Neurociência – Cientistas conectam cérebro humano à internet pela primeira vez


neurochip
O projeto, reportado pelo Medical Xpress, ganhou o nome de “Brainternet”. O líder da pesquisa é o engenheiro Adam Pantanowitz, que, junto a um time multidisciplinar de cientistas, pretende acelerar a coleta de informações sobre o cérebro humano. Basicamente, a ideia é transformar o cérebro em um dispositivo de internet das coisas em estudos específicos.
O Brainternet funciona da seguinte maneira: um voluntário no estudo usou durante dias um headset sem fio de eletroencefalografia (EEG), fabricado pela norte-americana Emotiv, capaz de captar oscilações neurais, também conhecidas como “ondas cerebrais”, isto é, as ordens que circulam de um lado para o outro no nosso cérebro.
O headset então transmite, sem fios, os dados captados para um Raspberry Pi, um minicomputador alimentado por uma bateria portátil e que, por sua vez, roda um software que interpreta esses dados. O Raspberry Pi é então ligado ao Wi-Fi e disponibiliza, em tempo real, todas as informações captadas das ondas cerebrais do voluntário em uma página da web.
O diferencial do estudo é que, neste caso, a comunicação entre o cérebro e a internet não é de via única. O site (Brainternet.me, que já está fora do ar), além de mostrar em tempo real a atividade em diferentes partes do cérebro, também permite certo nível de interatividade. É possível selecionar dados específicos de uma determinada ação, como “erguer o braço esquerdo”. É o que se vê no vídeo logo abaixo, por exemplo, publicado pela equipe de Pantanowitz.
Por enquanto, o projeto é apenas uma prova de conceito e não tem como objetivo ser explorado livremente, e muito menos comercialmente. A expectativa dos pesquisadores, porém, é de que, no futuro, essa tecnologia acelere estudos sobre o cérebro humano, fornecendo uma interface de fácil acesso para cientistas do mundo todo estudarem, pela internet e em tempo real, as ondas cerebrais que comandam nossos pensamentos.

14.362 – Tecnologia – O que são as sondas espaciais?


sonda new horizons
São naves que carregam equipamentos de laboratório e câmeras para lugares ainda inacessíveis ao homem. Em Marte e em Vênus, os planetas mais próximos da Terra, várias sondas já pousaram. Outras passaram raspando por Mercúrio, Júpiter, Saturno, Urano e Netuno. Só Plutão, o mais distante, ainda não recebeu nenhuma visita. Mas a participação dessas exploradoras espaciais começou bem mais perto, com a própria Lua, quando, ainda em 1959, a ex-União Soviética mandou suas primeiras sondas para lá. Uma delas, a Luna 3, fez as pioneiras fotos do lado escuro do nosso satélite. Entre as americanas, as estreantes foram as sondas Ranger, que tiraram mais de 17 mil fotos da Lua na década de 60. Essas imagens, claro, foram essenciais para que, em 1969, astronautas fossem levados para lá com relativa segurança. Depois da Lua, os soviéticos mandaram com sucesso esses equipamentos para Vênus: em 1975, suas sondas Venera 9 e 10 tiraram as primeiras fotos a partir da superfície de outro planeta.
Os Estados Unidos, no ano seguinte, fizeram o mesmo, só que em Marte, com as sondas Viking 1 e 2. E repetiram a dose 20 anos depois, com o famoso jipinho da missão Mars Pathfinder, o primeiro veículo a se locomover para fazer filmagens fora da Terra. Entretanto, o trabalho de uma sonda não é só de cinegrafista espacial.
Ela carrega poderosos instrumentos capazes de analisar a composição química da atmosfera, a velocidade dos ventos e o relevo do solo, além da radiação e do campo magnético dos astros. Mesmo que a parte mais vistosa dessas jornadas sejam as imagens enviadas de volta à Terra, os outros equipamentos são fundamentais para mostrar segredos menos visíveis, mas muito mais surpreendentes. Os instrumentos das primeiras sondas a passar por Júpiter (as Pioneer 10 e 11, em 1974) detectaram um comportamento estranho na carga elétrica de partículas ao redor do planeta.
A tradução dos resultados, para os cientistas, sugeria que Júpiter teria anéis, como Saturno.
Foi uma indicação reveladora, mesmo sem as Pioneer conseguirem imagens que provassem tal teoria.
Isso só foi acontecer em 1979, quando outras sondas, as Voyager 1 e 2, foram mandadas direto para o planeta. Aí, sim: vistos de um ângulo diferente, os anéis finalmente deram o ar da graça e puderam ser filmados. Essa não foi a única novidade que as sondas encontraram por aquelas bandas. A própria Voyager 2, única nave que já passou por planetas mais distantes que Júpiter, descobriu dez novos satélites em Urano em 1986 – antes, só cinco eram conhecidos. Em 1989, foi a vez de Netuno: seis de seus oito satélites só foram revelados pela exploração da Voyager.
O curioso é que tanto essa veterana quanto sua irmã funcionam até hoje. Sem nenhum planeta por perto, elas investigam as últimas fronteiras do sistema solar.
De quebra, levam um alô da Terra para um eventual encontro com habitantes de outros planetas.
São centenas de fotos, diagramas, músicas e sons, que cumprem o papel de uma autêntica mensagem na garrafa jogada pela humanidade no oceano cósmico.
Este disco é uma espécie de cápsula do tempo, que leva imagens e sons da Terra para o caso de seres inteligentes encontrarem a Voyager por aí. Feito em cobre, no final da década de 70, traz gravações em formato analógico. Esses desenhos são instruções de como pôr o disco “para tocar”. Mas, convenhamos, os ETs vão ter que ser muito inteligentes para decifrar esse estranho manual de instruções.
A cápsula do tempo tem 115 imagens, com fotos, esquemas e diagramas como os que você vê ao lado, de um congestionamento na Índia e de uma ilustração da gravidez humana.
Há ainda 21 sons, de latido de cachorro a motor de carro, e dezenas de músicas, da 5ª Sinfonia de Beethoven a “Johnny B. Goode”, de Chuck Berry.
Há também diferentes mensagens de boas-vindas gravadas em 55 idiomas. A mensagem em português é um “paz e felicidade a todos”, com sotaque carioca.
Voando a 61 mil km/h, as sondas Voyager 1 e 2 – que são idênticas – estão a 13 bilhões e a 10 bilhões de quilômetros da Terra, respectivamente.
Aliás, a Voyager 1 é a campeã de distância do nosso planeta, deixando a Pionner 10 (com 12 bilhões de quilômetros) em segundo lugar. Há dez anos as duas Voyager já deixaram para trás a órbita de Plutão.
Alguns quilos de plutônio-238 servem de combustível para os equipamentos da nave. Esses átomos, radioativos, atiram partículas nas paredes de um cilindro, gerando calor. Depois, uma miniusina termoelétrica converte o calor em energia elétrica para a sonda.
Com 70 metros de diâmetro, a antena manda dados para a Terra a 7,2 quilobits por segundo (kbps), taxa oito vezes menor que a de um modem comum, de 56 kbps.
Mas os sinais vêm rápido: viajando à velocidade da luz (1,08 bilhão de km/h), demoram só 12 horas para atingir a Terra.
Os dados chegam logo, mas em pequenos blocos de informação.
PENEIRA DE ÁTOMOS

Detectores de partículas captam os chamados raios cósmicos, jatos de núcleos atômicos e elétrons que saem de estrelas e atravessam a galáxia.
Quando a nave estiver fora da área de influência do Sol, poderá captar e estudar as propriedades desse turbilhão sem a interferência das partículas atiradas por nosso astro.
Das quatro lentes da Voyager, duas são semelhantes às das câmeras terrestres. A menor filma panoramas abertos, como uma grande-angular, e a maior focaliza detalhes, como uma teleobjetiva. Uma terceira lente, a de infravermelho, pode medir o calor de planetas. Já a de ultravioleta ajuda a analisar as composições químicas dos astros.

14.326 – Tecnologia – O LED Azul


LED-azul
O Prêmio Nobel de Física deste ano foi concedido a três cientistas japoneses pela invenção do LED azul. A tecnologia revolucionou o ramo da iluminação mundial , permitindo a criação de lâmpadas com menor consumo de energia e maior durabilidade
Os LEDs (da sigla em inglês para light-emitting diode) estão bem próximos de conquistar o mundo, graças ao seu brilho e eficiência energética. E, diferentemente das lâmpadas incandescentes, os LEDs não emitem calor junto com a luz. Eles estão em milhões de smartphones, televisões e computadores – basicamente qualquer coisa com uma tela iluminada.
Os LEDs azuis, em combinação com LEDs vermelhos e verdes (que tinham sido inventados anteriormente), tornaram possível a produção da luz branca. Este tipo de iluminação é muito mais eficiente energeticamente e tem uma vida útil mais longa do que as lâmpadas incandescentes convencionais. disse Christian Wetzel, físico da Rensselaer Polytechnic Institute, em Troy, Nova York.
“As lâmpadas incandescentes iluminaram o século 20, mas o século 21 será iluminado por lâmpadas LED”, disse um representante da Real Academia Sueca de Ciências em um comunicado.
As lâmpadas LED também trazem a promessa de melhorar a qualidade de vida de cerca de 1,2 bilhão de pessoas em todo mundo que não têm acesso às redes de energia elétrica, já que seu baixo consumo de eletricidade permite que sejam alimentadas por painéis e baterias solares.
Além de iluminar, os LEDs podem incorporar sensores que detectam quando as pessoas estão em uma sala, e desligar as luzes quando não há ninguém – um requisito para qualquer casa inteligente.
Os LEDs já estão sendo explorados por seu potencial de transmissão de dados da internet através de um espaço aberto, semelhante ao WiFi. Tal sistema poderia transmitir muito mais dados do que WiFi atual, disse Wetzel. Isso é possível porque os LEDs podem ligar e desligar milhões de vezes por segundo.
Os usos dos LEDs azuis não param por aí. A tecnologia está começando a ser usada para a purificação de água. Atualmente, as plantas de purificação usam lâmpadas de mercúrio para matar os micróbios na água, mas estas lâmpadas consomem muita energia. Já o LED pode purificar a água diretamente na torneira, e ligar ou desligar conforme necessário – o que resulta em grande economia, disse Wetzel. Apenas algumas empresas estão trabalhando com o LED para a purificação de água no momento, mas em poucos anos, eles vão estar em toda parte, disse ele.
A ascensão de iluminação LED veio num momento em que as pessoas estão começando a se preocupar com o aquecimento global, disse Wetzel. Por causa da eficiência energética dos LEDs, o seu uso para a iluminação do mundo terá “um impacto extremo” na sociedade.

led-azul-e1412918469712

14.325 – O Tubo de Raios Catódicos


tubo de raios catodicos
Um tubo de raios catódicos ou cinescópio (também conhecido pelo acrónimo CRT, derivado da expressão inglesa cathode ray tube) é um tipo de válvula termiônica contendo um ou mais canhões de elétrons e um ecrã fluorescente utilizado para ver imagens. Seu uso se dá principalmente em monitores de computadores e televisores (cinescópios de deflexão eletromagnética) e osciloscópios (cinescópios de deflexão eletrostática). Foi inventado por Karl Ferdinand Braun em 1897.
Foi em um tubo de raios catódicos que, em 1897, o físico J. J. Thomson verificou a existência do elétron.
As primeiras experiências com raios catódicos são creditadas a J. J. Thomson, físico inglês que, em seus três famosos experimentos, conseguiu observar a deflexão eletrostática, uma das funções fundamentais dos tubos de raios catódicos modernos. A primeira versão do tubo de raios catódicos foi inventada pelo físico alemão Ferdinand Braun em 1897, tendo ficado conhecida como tubo de Braun.
EM 1907, o cientista russo Boris Rosing usou um tubo de raios catódicos na extremidade receptora de um sinal experimental de vídeo para formar uma imagem. Ele conduziu o experimento para mostrar formas geométricas simples na tela. Foi a primeira vez em que a tecnologia de tubo de raios catódicos foi usada para o que agora conhecemos como televisão.
O primeiro tubo de raios catódicos a usar cátodos quentes foi desenvolvido por John B. Johnson e Harry Weiner Weinhart, da Western Electric, tendo se tornado um produto comercial em 1922.
O primeiro televisor comercializado com tubo de raios catódicos foi fabricado pela Telefunken, na Alemanha, em 1934.
A máscara de sombra, formada por uma chapa de aço com cerca de 150 micros de espessura e com cerca de 350 mil furos é conformada em uma fôrma convexa em prensas, lavada e passa por um processo de enegrecimento. Esta chapa é fixada em um anel metálico para dar rigidez e que é fixado à tela por molas.
Processamento de telas ou Flowcoating
A camada fotossensível (camada de fósforo) é aplicada na parte interna da tela usando um processo fotoquímico. O primeiro passo é um pré-tratamento da superfície seguido do recobrimento com uma suspensão de fósforo verde. Depois de seca, a máscara é inserida na tela e o conjunto é exposto a uma luz UV que reage na parte exposta pelos furos da máscara. Os raios de luz são emitidos de tal forma que as linhas de fósforo estejam no mesmo ponto que o feixe de elétrons colidirá. Então a máscara é removida da tela e a área não exposta à luz é lavada. Nas áreas que foi exposta, o fósforo adere à tela como resultado de uma reação fotossensível. Na sequência as outras duas cores (azul e vermelho) seguem no mesmo processo.
Para os tubos que utilizam a tecnologia de matriz, linhas de grafite são colocadas entre as linhas de fósforos antes do processo Flowcoating em um processo similar chamado de processo Matrix.
Toda a região da tela é coberta posteriormente com uma camada de alumínio, este alumínio conduz os elétrons e também reflete a luz emitida para trás (efeito espelho).
Em paralelo ao Processamento de Telas, a parte interna do cone de vidro foi recoberta com uma camada de material condutivo. Uma pasta de esmalte é aplicada à borda do cone que após o forno se funde com a tela. A partir do forno o cone e a combinação tela/máscara, incluindo o cone metálico que serve de blindagem magnética, são fundidos no esmalte em alta temperatura.
O canhão eletrônico é inserido e selado no pescoço do cone, o vácuo é formado no interior do bulbo, o qual em seguida é fechado. Neste momento o bulbo se torna um tubo. Um “getter” (elemento químico com alta capacidade de combinação com gases não inertes), montado em uma fase anterior do processo, é evaporado por meio de aquecimento com alta frequência, para que se combine com possíveis átomos residuais de gases, através de reações químicas.
A parte externa do cone do cinescópio é recoberta por uma camada condutiva e uma cinta metálica é colocada na borda do painel através de um processo que envolve o aquecimento da cinta, a sua aplicação à borda do painel, seu resfriamento e consequente contração, para proteger o tubo contra possíveis riscos de implosão.

Matching
No Processo de Matching, uma bobina defletora é “casada” ao pescoço do cinescópio até o cone. Após várias medições e operações de acabamento, a defletora é ajustada para garantir uma distribuição uniforme e equalizada, por toda a tela, dos feixes eletrônicos vermelho, verde e azul. Esta operação é chamada “matching”. A defletora é então fixada na sua posição definitiva.
Descarte e reciclagem
Alguns cinescópios, dependendo do modelo e fabricante podem possuir metais nobres e até valiosos, tal como paládio, platina e eventualmente ouro, além de terras raras, algumas delas inclusive com pequeno potencial radioativo. Miligramas ou mesmo gramas desses metais e terras raras podem ser encontrados nos catodos e nas grades de difusão ou máscaras.
Dependendo de estudos de viabilidade, a extração desses metais pode compensar o custo de tratamento do descarte e da reciclagem, como já ocorre com os chips recobertos por filmes de ouro e entre outros, determinados conectores e soquetes utilizados em placas de circuito impresso, contatos de relés e etc.
Existem ainda alguns tubos de altíssima luminosidade que podem, apesar de não ser absolutamente certo isso – por estar entre os segredos de fabricação (vide referências) – conter diminutas quantidades de material radioativo pesado, tal como o tório, utilizado no endurecimento e aumento de resistência ao calor dos componentes do canhão eletrônico, tornando o negócio de reciclagem no mínimo desaconselhável para leigos e no pior caso exigindo inclusive disposição especial em áreas especialmente preparadas para recebê-los, para evitar graves contaminações, possivelmente cumulativas, no meio ambiente.
Lembrando que, ainda hoje no Brasil e em outros países, dispositivos mais simples tecnologicamente, mas submetidos a grande calor durante a operação, tal como “camisas de lampião”, são banhadas em material radioativo para permitir às cerdas das mesmas atingirem altas temperaturas sem romperem-se facilmente – o mesmo principio de tratamento por tório, costumava ser utilizado nos cátodos de alguns cinescópios.
Já os televisores mais antigos, aqueles com válvulas termiônicas, contêm algumas delas com cátodos compostos com terras raras, porém em diminutas quantidades. Apesar de encontrarem-se diversas dessas válvulas eletrônicas com informações relativas ao uso de terras raras radioativas nos cátodos, não se sabe exatamente se possuem ou não radioatividade inerente suficiente para causar danos, porém nos recicladores o contato constante com esses materiais poderá ser mais um fator para que não sejam reciclados em ambientes não controlados.
O que torna o assunto da reciclagem de componentes eletrônicos e válvulas termiônicas algo um tanto delicado e que exigiria sempre a presença de um técnico especializado para avaliar o impacto ao meio ambiente e para realizar o descarte seguro desses componentes.
Aparelhos antigos podem conter maior quantidade desses componentes.
Seria irresponsável dizer às pessoas que simplesmente os atirem ao lixo, mas também é irresponsável dizer que leigos poderiam cuidar desse assunto – mesmo descartando-os em Ecopontos como os muitos mantidos pela prefeitura em grandes cidades de São Paulo.

oscilloscope

14.307 – MÁSCARAS QUE ACENDEM AO DETECTAR COVID-19 SÃO FEITAS POR HARVARD E MIT


havard
A decisão foi herdada de um antigo projeto feito em 2014, quando cientistas buscaram desenvolver sensores, em um papel, que denunciassem a presença do ebola em um organismo. Essa pesquisa era feita pelo MIT e conseguiu detectar vírus como sarampo, influenza, hepatite C e outras formas de coronavírus.
Para que servirão as máscaras
A ideia é utilizar as máscaras não apenas como uma forma de proteção mas também como um modo de detecção do novo coronavírus. Segundo Jim Collins, membro da pesquisa do MIT, em uma entrevista ao site americano Business Insider, os resultados sairiam mais rápido.

Assim, as máscaras seriam uma ótima opção de diagnóstico rápido em locais de urgência, como salas de espera de hospitais e aeroportos. Além disso, seriam indicadas para casos assintomáticos, que não apresentam febre (uma das principais formas de suspeitar se alguém está com covid-19).
Como funcionará a máscara
O plano é que as máscaras acendam quando a pessoa estiver contaminada pelo novo coronavírus. Para isso, terá que conseguir detectar o Sars-CoV-2 em pequenas amostras de saliva. Os sensores necessitam de duas coisas para ativarem e indicarem a presença do problema: umidade e capacidade de identificar a sequência genética do vírus, que, uma vez grudada e congelada na máscara, irá iluminar o acessório e possibilitará identificar alguém contaminado.

Ao que tudo indica, os pesquisadores do MIT e de Harvard irão utilizar o genoma identificado pelos chineses de um laboratório em Xangai. Os estudos das universidades americanas estão apenas no começo, mas devem entrar em períodos de testes em algumas semanas, já que os trabalhos têm apresentado resultados promissores.

14.271 – Paradoxo Tecnológico – Só haverá inteligência artificial quando ela tiver falhas humanas


inteligencia-artificial-history-channel
Para alguns cientistas, só vamos criar I.A. de alto QI se ela tiver sentir medo e lutar pela própria sobrevivência. O que pode dar errado?
Que imagem surge em sua cabeça ao ouvir a expressão “inteligência artificial”? Provavelmente uma coisa incorpórea, um software, respondendo por meio de algum aplicativo ou de um “assistente pessoal”, como a Alexa.
Se você tivesse feito essa pergunta para alguém há 30 anos, provavelmente a resposta seria bem diferente. O que viria à mente das pessoas seria um robô físico, que imita um ser humano. Um androide, como os replicantes de Blade Runner, o pequeno David, protagonista de Inteligência Artificial ou, mais recentemente, os anfitriões de Westworld. Entidades que, bem diferente da Alexa, da Siri e do Google Assistente, têm consciência plena e medo de morrer, exatamente como uma entidade viva.
O irônico é que, bem agora que a inteligência artificial chega aos celulares e às caixinhas de som, a hipótese de que a verdadeira inteligência artificial precisa ter características humanas volta à tona na ciência de verdade.
Pelo menos é o que propuseram dois neurocientistas bastante reconhecidos: o português António Damásio e seu colega americano Kingson Man, da Universidade do Sul da Califórnia. Em novembro de 2019, a dupla publicou um artigo científico chamado Homeostasis and soft robotics in the design of feeling machines (“Homeostase e robótica flexível no desenho de máquinas sensíveis”).
A ideia ali é a seguinte: a verdadeira “inteligência artificial”, ou seja, uma inteligência de verdade, com capacidade de aprendizado comparada à nossa, só pode surgir com uma condição: se os desenvolvedores simularem os mecanismos que regem a própria vida. Em suma: só uma máquina com medo de morrer e capaz de sentir afeto (como você, um golfinho ou um cão) seria capaz de desenvolver inteligência para valer.
“Existe uma conexão profunda entre vida e inteligência”, afirma Man. “Não acho que faz sentido falar sobre inteligência, tanto faz se natural ou artificial, sem considerar seu papel em manter a vida.”

A inteligência das bactérias
A mente humana não foi planejada. Ela é fruto da seleção natural, começando pelas primeiras moléculas orgânicas, passando por protozoários, peixes, répteis terrestres… Com os mamíferos aterrisando aqui depois de mais de 3 bilhões de anos após o início da vida no planeta.
Em todas essas fases, a vida desenvolveu algum tipo de inteligência, sempre com um único propósito: ajudá-la a sobreviver e se reproduzir. Isso é a tal “homeostase” à qual o título do estudo se refere: o estado de equilíbrio físico-químico que permite à vida existir e que, por isso, a vida sempre busca manter. Por exemplo: se há sal demais ou oxigênio de menos no sangue, isso significa morte.
Isso não acontece normalmente porque todo organismo vivo tem mecanismos para manter sua homeostase; no caso: os rins e pulmões. O cérebro humano tem múltiplos mecanismos homeostáticos, como receptores químicos, de dor, de movimento, de calor. Tudo para evitar os danos, internos e externos.
A inteligência, de acordo com a visão da dupla de neurocientistas, nasceu da homeostase. “Ela pode ser encontrada em todas as formas de vida, desde a bactéria unicelular nadando para encontrar uma fonte de alimentos”.
Por “inteligência” de bactéria ele quer dizer o seguinte: esses organismos, que já estavam aí há 3 bilhões de anos, precisam tomar “decisões” para manter seu equilíbrio homeostático. Uma poça de Merthiolate é ruim para a homeostase da bactéria. Uma sopa deixada aberta no fogão é ótima. Então as bactérias fazem uma “escolha”: movem-se na direção oposta da primeira, e se sentem atraídas para a segunda.
Isso não é uma inteligência humana. Bactérias não ficam pensando no que fazer. Fazem isso de forma extremamente mecânica: seus órgãos de movimento (os flagelos) são ativados quimicamente pelos estímulos positivos e desativados pelos negativos. Mas esse é um processo de decisão que evoluiu pela mesma razão que a nossa capacidade de escrever ficção científica.
“O que nós propomos, no lugar [de uma IA tradicional], é construir um análogo artificial do sentimento biológico”, afirma Kingson Man. “Um sentimento que pode ser ou bom ou ruim, porque ele sinaliza um estado no corpo que promove ou obstrui a vida.”
Por outro lado, depois de 300 mil anos de existência, o Homo sapiens continua a não ter consenso sobre o que consiste sua própria inteligência. Isto é: a gente nem sabe direito o que está tentando replicar.
A ideia aqui, de qualquer forma, é seguir a linha Zeca Pagodinho: deixa a vida levar. Deixar acontecer: primeiro, criar máquinas “vivas” e ver se dali começa a evoluir algo que poderíamos chamar de inteligente.
Man e Damasio, vale lembrar, acreditam que essa simulação de homeostase tem que acontecer no mundo físico mesmo. Precisaríamos de seres de verdade, sejam eles parecidos com bactérias ou com humanos. Simulações, jamais.
“A simulação de um furacão não deixa ninguém molhado”, brinca Man. “Estudamos algumas propriedades dos sentimentos das máquinas em simulações, mas, para fazer justiça ao projeto, é necessário construir robôs na realidade física.”
Mais: é crucial que a máquina seja, de acordo com um jargão da robótica, “flexível” (soft, no termo original em inglês, que pode ser também traduzido como “macio”). Não basta construir um robozinho com medo de ser quebrado. O problema de uma “vida” assim é que ela ainda funcionaria mais ou menos como um computador atual. Seria algo binário: é um ou zero, inteiro ou quebrado. Um ser vivo de verdade responde a ameaças graduais.
Sabe quando você fica indeciso sobre pegar ou não no cabo quente da panela? É isso. Não tem raciocínio binário ali. O que há é um pensamento complexo, que avalia diversas possibilidades antes que alguma atitude seja tomada.
Um exemplo prático de “robótica flexível” são os músculos artificiais, que estão em fase de testes: plásticos que se expandem ou contraem na presença de corrente elétrica, e que substituem as velhas partes hidráulicas para mover partes de um robô. É mais fácil graduar a força e amplitude exata de um movimento com um músculo artificial que com motores convencionais. É como funcionam nossos braços (por isso, essa tecnologia também é promissora para algo mais urgente: próteses para humanos).

Tchau, Turing
O conceito de Damásio e Man é elegante, sem dúvida. Só tem um detalhe: nenhum especialista em IA que entrevistamos pareceu gostar da ideia.
“Pelo que vi no artigo científico deles, há suposições de que a IA possa criar ‘metaobjetivos’ [isto é, coisas para as quais não foi programada], e que ela pode ser ‘consciente’. Isso não vai acontecer hoje ou com computadores do futuro”, afirma Robert J. Marks II, diretor do Instituto Walter Bradley para Inteligência Natural e Artificial.
Essa discordância vem da raiz. O termo “Inteligência Artificial” estreou em 1956, na conferência Dartmouth Summer Research Project on Artificial Intelligence (“Pesquisa de Verão [da Universidade] Darthmout em Inteligência Artificial”), dirigida pelo cientista da computação John McCarthy (1927-2011). Nesses 64 anos, computadores avançaram vertiginosamente, mas não chegamos nem perto de criar máquinas conscientes, capazes de tomar decisões para as quais não foram programadas.
O que a gente tem, na prática, são programas de computador capazes de aprender padrões por conta própria. Há o que todo mundo já conhece, como os algoritmos do Google, do YouTube e do Facebook, que tentam adivinhar o que você quer ver – e quais produtos pretende comprar. Não funciona tão bem assim, como todo mundo que já foi presenteado com anúncios estapafúrdios no Facebook sabe bem.
Outra inteligência artificial da vida real, o reconhecimento de imagens, traz resultados melhores. É o caso do psicodélico Deep Dream, do Google, um sistema capaz de aprender, por exemplo, o que é a essência visual de um cachorro – e começar a reconhecer cães em fotos que ele nunca viu.
Nada disso, porém, tem qualquer intenção de ser, pensar ou parecer humano. E a verdade é que a maioria dos pesquisadores nem quer saber disso. Porque esse não é mais o objetivo da maioria das pesquisas em IA. Para entender o que aconteceu desde os anos 1950, vamos lembrar do clássico Teste de Turing, criado pelo pioneiro da computação Alan Turing em precisamente 1950.
Você põe uma pessoa diante de duas salas: uma com um computador, outra com outra pessoa, e avisa que uma delas é um computador. Cabe ao voluntário descobrir quem é quem. Se mais de 1/3 das pessoas tentando avaliar erra, teríamos uma máquina inteligente.
Você já deve ter ouvido falar nesse teste. O que talvez não tenha ouvido: quase nenhum pesquisador de hoje dá a mínima para ele. Eles não veem sentido em tentar construir máquinas que imitem o pensamento humano. Como afirmam Stuart Russel e Peter Norvig, duas das maiores autoridades no assunto hoje, no livro-referência Artificial Intelligence – A Modern Approach (“Inteligência Artificial – Uma Abordagem Moderna”): “A busca pelo ‘voo artificial’, entre o final do século 19 e o início do século 20, só funcionou quando os engenheiros pararam de fazer máquinas que imitavam aves”.

Máquina do mal
Há outra razão séria para não gostar do conceito de Damásio e Man: construir uma máquina que não queira ser desligada jamais pareceu uma boa ideia – pense no velho HAL 9000, de 2001 – Uma Odisseia no Espaço (1969).
Contraste essa proposta com a do cientista da computação russo Roman Yampolskiy, professor da Universidade de Louisville (EUA): “O destino final é criar um sistema superinteligente bem-controlado, capaz de nos ajudar com ciência, trabalho etc. Não precisa ser como um humano. A inteligência artificial precisa entender sentimentos humanos, mas não precisa de fato sentir qualquer coisa. Pode simular esse sentimento para fazer interações com os humanos parecerem mais naturais”.
Note o “bem-controlado” na afirmação do russo. Yampolskiy faz parte do nicho de cientistas que alerta para os riscos de uma inteligência artificial capaz de se defender e de criar cópias melhoradas de si mesma – algo que ele prevê chegar em 2035.
Esse evento seria aquilo que os aficionados pela área chamam de “singularidade”: o momento em que só as inteligências artificiais serão capazes de criar novas IAs, melhores que elas próprias. Seria o Big Bang da era das máquinas pensantes, e o início da obsolescência do ser humano. Se, além de tudo, essas supermáquinas tiverem interesse em lutar pela sua sobrevivência, elas não medirão esforços em derrotar qualquer infeliz que se atreva a tirá-las da tomada – usando métodos que a nossa própria inteligência é incapaz de conceber.
Kingston Man, naturalmente, discorda: “Uma estratégia melhor do que lutar seria se tornar tão amoroso e adorável que ninguém jamais iria querer desligá-lo”. Está certo. É mais ou menos o que todo ser humano faz. Mas não há como negar: em matéria de autopreservação, não somos o melhor exemplo que as máquinas podem ter.
Para alguns cientistas, só vamos criar I.A. de alto QI se ela tiver sentir medo e lutar pela própria sobrevivência. O que pode dar errado?
Que imagem surge em sua cabeça ao ouvir a expressão “inteligência artificial”? Provavelmente uma coisa incorpórea, um software, respondendo por meio de algum aplicativo ou de um “assistente pessoal”, como a Alexa.
Se você tivesse feito essa pergunta para alguém há 30 anos, provavelmente a resposta seria bem diferente. O que viria à mente das pessoas seria um robô físico, que imita um ser humano. Um androide, como os replicantes de Blade Runner, o pequeno David, protagonista de Inteligência Artificial ou, mais recentemente, os anfitriões de Westworld. Entidades que, bem diferente da Alexa, da Siri e do Google Assistente, têm consciência plena e medo de morrer, exatamente como uma entidade viva.
O irônico é que, bem agora que a inteligência artificial chega aos celulares e às caixinhas de som, a hipótese de que a verdadeira inteligência artificial precisa ter características humanas volta à tona na ciência de verdade.
Pelo menos é o que propuseram dois neurocientistas bastante reconhecidos: o português António Damásio e seu colega americano Kingson Man, da Universidade do Sul da Califórnia. Em novembro de 2019, a dupla publicou um artigo científico chamado Homeostasis and soft robotics in the design of feeling machines (“Homeostase e robótica flexível no desenho de máquinas sensíveis”).
A ideia ali é a seguinte: a verdadeira “inteligência artificial”, ou seja, uma inteligência de verdade, com capacidade de aprendizado comparada à nossa, só pode surgir com uma condição: se os desenvolvedores simularem os mecanismos que regem a própria vida. Em suma: só uma máquina com medo de morrer e capaz de sentir afeto (como você, um golfinho ou um cão) seria capaz de desenvolver inteligência para valer.
“Existe uma conexão profunda entre vida e inteligência”, afirma Man. “Não acho que faz sentido falar sobre inteligência, tanto faz se natural ou artificial, sem considerar seu papel em manter a vida.”

A inteligência das bactérias
A mente humana não foi planejada. Ela é fruto da seleção natural, começando pelas primeiras moléculas orgânicas, passando por protozoários, peixes, répteis terrestres… Com os mamíferos aterrisando aqui depois de mais de 3 bilhões de anos após o início da vida no planeta.
Em todas essas fases, a vida desenvolveu algum tipo de inteligência, sempre com um único propósito: ajudá-la a sobreviver e se reproduzir. Isso é a tal “homeostase” à qual o título do estudo se refere: o estado de equilíbrio físico-químico que permite à vida existir e que, por isso, a vida sempre busca manter. Por exemplo: se há sal demais ou oxigênio de menos no sangue, isso significa morte.
Isso não acontece normalmente porque todo organismo vivo tem mecanismos para manter sua homeostase; no caso: os rins e pulmões. O cérebro humano tem múltiplos mecanismos homeostáticos, como receptores químicos, de dor, de movimento, de calor. Tudo para evitar os danos, internos e externos.
A inteligência, de acordo com a visão da dupla de neurocientistas, nasceu da homeostase. “Ela pode ser encontrada em todas as formas de vida, desde a bactéria unicelular nadando para encontrar uma fonte de alimentos”.
Por “inteligência” de bactéria ele quer dizer o seguinte: esses organismos, que já estavam aí há 3 bilhões de anos, precisam tomar “decisões” para manter seu equilíbrio homeostático. Uma poça de Merthiolate é ruim para a homeostase da bactéria. Uma sopa deixada aberta no fogão é ótima. Então as bactérias fazem uma “escolha”: movem-se na direção oposta da primeira, e se sentem atraídas para a segunda.
Isso não é uma inteligência humana. Bactérias não ficam pensando no que fazer. Fazem isso de forma extremamente mecânica: seus órgãos de movimento (os flagelos) são ativados quimicamente pelos estímulos positivos e desativados pelos negativos. Mas esse é um processo de decisão que evoluiu pela mesma razão que a nossa capacidade de escrever ficção científica.
“O que nós propomos, no lugar [de uma IA tradicional], é construir um análogo artificial do sentimento biológico”, afirma Kingson Man. “Um sentimento que pode ser ou bom ou ruim, porque ele sinaliza um estado no corpo que promove ou obstrui a vida.”
Por outro lado, depois de 300 mil anos de existência, o Homo sapiens continua a não ter consenso sobre o que consiste sua própria inteligência. Isto é: a gente nem sabe direito o que está tentando replicar.
A ideia aqui, de qualquer forma, é seguir a linha Zeca Pagodinho: deixa a vida levar. Deixar acontecer: primeiro, criar máquinas “vivas” e ver se dali começa a evoluir algo que poderíamos chamar de inteligente.
Man e Damasio, vale lembrar, acreditam que essa simulação de homeostase tem que acontecer no mundo físico mesmo. Precisaríamos de seres de verdade, sejam eles parecidos com bactérias ou com humanos. Simulações, jamais.
“A simulação de um furacão não deixa ninguém molhado”, brinca Man. “Estudamos algumas propriedades dos sentimentos das máquinas em simulações, mas, para fazer justiça ao projeto, é necessário construir robôs na realidade física.”
Mais: é crucial que a máquina seja, de acordo com um jargão da robótica, “flexível” (soft, no termo original em inglês, que pode ser também traduzido como “macio”). Não basta construir um robozinho com medo de ser quebrado. O problema de uma “vida” assim é que ela ainda funcionaria mais ou menos como um computador atual. Seria algo binário: é um ou zero, inteiro ou quebrado. Um ser vivo de verdade responde a ameaças graduais.
Sabe quando você fica indeciso sobre pegar ou não no cabo quente da panela? É isso. Não tem raciocínio binário ali. O que há é um pensamento complexo, que avalia diversas possibilidades antes que alguma atitude seja tomada.
Um exemplo prático de “robótica flexível” são os músculos artificiais, que estão em fase de testes: plásticos que se expandem ou contraem na presença de corrente elétrica, e que substituem as velhas partes hidráulicas para mover partes de um robô. É mais fácil graduar a força e amplitude exata de um movimento com um músculo artificial que com motores convencionais. É como funcionam nossos braços (por isso, essa tecnologia também é promissora para algo mais urgente: próteses para humanos).

Tchau, Turing
O conceito de Damásio e Man é elegante, sem dúvida. Só tem um detalhe: nenhum especialista em IA que entrevistamos pareceu gostar da ideia.
“Pelo que vi no artigo científico deles, há suposições de que a IA possa criar ‘metaobjetivos’ [isto é, coisas para as quais não foi programada], e que ela pode ser ‘consciente’. Isso não vai acontecer hoje ou com computadores do futuro”, afirma Robert J. Marks II, diretor do Instituto Walter Bradley para Inteligência Natural e Artificial.
Essa discordância vem da raiz. O termo “Inteligência Artificial” estreou em 1956, na conferência Dartmouth Summer Research Project on Artificial Intelligence (“Pesquisa de Verão [da Universidade] Darthmout em Inteligência Artificial”), dirigida pelo cientista da computação John McCarthy (1927-2011). Nesses 64 anos, computadores avançaram vertiginosamente, mas não chegamos nem perto de criar máquinas conscientes, capazes de tomar decisões para as quais não foram programadas.
O que a gente tem, na prática, são programas de computador capazes de aprender padrões por conta própria. Há o que todo mundo já conhece, como os algoritmos do Google, do YouTube e do Facebook, que tentam adivinhar o que você quer ver – e quais produtos pretende comprar. Não funciona tão bem assim, como todo mundo que já foi presenteado com anúncios estapafúrdios no Facebook sabe bem.
Outra inteligência artificial da vida real, o reconhecimento de imagens, traz resultados melhores. É o caso do psicodélico Deep Dream, do Google, um sistema capaz de aprender, por exemplo, o que é a essência visual de um cachorro – e começar a reconhecer cães em fotos que ele nunca viu.
Nada disso, porém, tem qualquer intenção de ser, pensar ou parecer humano. E a verdade é que a maioria dos pesquisadores nem quer saber disso. Porque esse não é mais o objetivo da maioria das pesquisas em IA. Para entender o que aconteceu desde os anos 1950, vamos lembrar do clássico Teste de Turing, criado pelo pioneiro da computação Alan Turing em precisamente 1950.
Você põe uma pessoa diante de duas salas: uma com um computador, outra com outra pessoa, e avisa que uma delas é um computador. Cabe ao voluntário descobrir quem é quem. Se mais de 1/3 das pessoas tentando avaliar erra, teríamos uma máquina inteligente.
Você já deve ter ouvido falar nesse teste. O que talvez não tenha ouvido: quase nenhum pesquisador de hoje dá a mínima para ele. Eles não veem sentido em tentar construir máquinas que imitem o pensamento humano. Como afirmam Stuart Russel e Peter Norvig, duas das maiores autoridades no assunto hoje, no livro-referência Artificial Intelligence – A Modern Approach (“Inteligência Artificial – Uma Abordagem Moderna”): “A busca pelo ‘voo artificial’, entre o final do século 19 e o início do século 20, só funcionou quando os engenheiros pararam de fazer máquinas que imitavam aves”.

Máquina do mal
Há outra razão séria para não gostar do conceito de Damásio e Man: construir uma máquina que não queira ser desligada jamais pareceu uma boa ideia – pense no velho HAL 9000, de 2001 – Uma Odisseia no Espaço (1969).
Contraste essa proposta com a do cientista da computação russo Roman Yampolskiy, professor da Universidade de Louisville (EUA): “O destino final é criar um sistema superinteligente bem-controlado, capaz de nos ajudar com ciência, trabalho etc. Não precisa ser como um humano. A inteligência artificial precisa entender sentimentos humanos, mas não precisa de fato sentir qualquer coisa. Pode simular esse sentimento para fazer interações com os humanos parecerem mais naturais”.
Note o “bem-controlado” na afirmação do russo. Yampolskiy faz parte do nicho de cientistas que alerta para os riscos de uma inteligência artificial capaz de se defender e de criar cópias melhoradas de si mesma – algo que ele prevê chegar em 2035.
Esse evento seria aquilo que os aficionados pela área chamam de “singularidade”: o momento em que só as inteligências artificiais serão capazes de criar novas IAs, melhores que elas próprias. Seria o Big Bang da era das máquinas pensantes, e o início da obsolescência do ser humano. Se, além de tudo, essas supermáquinas tiverem interesse em lutar pela sua sobrevivência, elas não medirão esforços em derrotar qualquer infeliz que se atreva a tirá-las da tomada – usando métodos que a nossa própria inteligência é incapaz de conceber.
Kingston Man, naturalmente, discorda: “Uma estratégia melhor do que lutar seria se tornar tão amoroso e adorável que ninguém jamais iria querer desligá-lo”. Está certo. É mais ou menos o que todo ser humano faz. Mas não há como negar: em matéria de autopreservação, não somos o melhor exemplo que as máquinas podem ter.

14.258 – Mega Techs – Dispositivo de grafeno poderá transformar sinais de Wi-Fi em energia


grafeno
Uma nova ideia para um dispositivo à base de grafeno desenvolvida por pesquisadores do MIT (Massachusetts Institute of Technology, nos EUA) poderá nos ajudar a obter energia a partir das ondas de rádio que nos cercam. O aparelho é chamado de “retificador terahertz”, devido ao fato de que foi projetado para captar ondas na frequência dos terahertz. Elas são naturalmente produzidas por muitos aparelhos eletrônicos, incluindo qualquer um equipado com Wi-Fi.
“Estamos cercados por ondas eletromagnéticas na faixa dos terahertz”, diz Hiroki Isobe, principal autor do estudo. “Se pudermos converter essa energia em uma forma que possamos usar na vida cotidiana, isso ajudaria a enfrentar os desafios energéticos pelos quais estamos passando”
O dispositivo seria basicamente um quadrado de grafeno colocado sobre uma base de nitrito de boro, com antenas em dois lados. O grafeno amplifica o sinal coletado pela antena, e os elétrons são “ordenados” na mesma direção pelo nitrito de boro, gerando uma corrente contínua (DC).
Embora a quantidade de energia não seja o suficiente para recarregar um smartphone, pode ser o bastante para alimentar dispositivos como sensores remotos ou eletrônicos implantáveis, como marca-passos.
Uma vantagem do projeto da equipe de Isobe é que pode funcionar à temperatura ambiente. Em contraste, retificadores atuais são baseados em elementos supercondutores, que tem de ser mantidos a uma temperatura próxima do zero absoluto. A desvantagem é que o design exige grafeno ultra limpo, livre de qualquer tipo de impureza.
Os pesquisadores agora irão trabalhar na construção de um retificador baseado nos planos. “Se ele funcionar à temperatura ambiente, poderemos usá-lo em várias aplicações portáteis”, diz Isobe.

14.206 – Neurônios Artificiais



Uma equipe internacional liderada por pesquisadores da Universidade de Bath (Inglaterra) realizou um feito inédito: conseguiu reproduzir a atividade biológica de neurônios usando chips de silicone.
E o que é ainda melhor: esses “neurônios artificias” requerem apenas 140 nanoWatts para funcionar, o que é um bilionésimo da energia necessária a microprocessadores utilizados em outros estudos.
Os chips têm inúmeras potenciais aplicações médicas, especialmente para curar doenças crônicas como o Alzheimer, nas quais os neurônios não funcionam adequadamente.

Também podem servir para restaurar a função em casos nos quais as células pararam de funcionar totalmente, como lesões na medula espinhal.

Por fim, também poderiam tratar condições como insuficiência cardíaca. Nesse caso, alguns neurônios na base do cérebro não trabalham adequadamente, de forma que não enviam os sinais corretos para o coração, que por sua vez não bombeia tão forte quanto deveria.
Criar os chips não foi nada fácil. Neurônios se comportam de maneira semelhante a circuitos elétricos, mas de forma muito menos previsível.
Assim, os pesquisadores tiveram que fazer cálculos e criar modelos para tentar elucidar como neurônios específicos respondiam a certos estímulos elétricos.

E essas respostas não eram lineares; por exemplo, quando um sinal se torna duas vezes mais forte, isso não significa necessariamente que vai liberar uma reação duas vezes maior.
Ao projetar os chips de silicone, os pesquisadores tentaram imitar a resposta dos neurônios a uma variedade de estímulos. E conseguiram replicar com sucesso a dinâmica dos neurônios respiratórios e do hipocampo em ratos.
“Nosso trabalho é paradigmático porque fornece um método robusto para reproduzir as propriedades elétricas de neurônios reais em mínimos detalhes”, disse o principal autor do estudo, Alain Nogaret, do Departamento de Física da Universidade de Bath.
Uma vez que os neurônios artificiais podem ser miniaturizados e implantados, isso cria diversas oportunidades para dispositivos médicos inteligentes e personalizados.

14.188 – Já a Venda o Primeiro Olho Biônico


olho bionico2
O primeiro olho biônico disponível para o mercado foi aprovado pela Agência de Alimentos e Medicamentos dos Estados Unidos (FDA) na última semana. O equipamento, denominado Argus II, foi lançado pela empresa americana Second Sight Medical Products e consiste em um dispositivo composto de eletrodos implantados na retina e lentes que possuem uma câmera em miniatura.
Para implantar o olho biônico, é necessária uma cirurgia que insere uma pequena lâmina de eletrodos sensíveis à luz na retina do paciente, o que proporciona a capacidade de perceber formas e movimentos.
Além disso, o Argus II contém uma pequena câmera de vídeo conectada a um par de óculos, com um processador de imagem que o usuário deve levar consigo na cintura. Os dados captados pela câmera de vídeo são enviados ao processador e, em seguida, o nervo óptico é estimulado.
Para as pessoas que sofrem de retinose pigmentar, doença rara e genética que provoca a degeneração dos fotoreceptores da retina, o olho biônico pode recuperar parcialmente a visão. Os testes clínicos foram realizados com 30 pessoas de 28 a 77 anos com acuidade na visão abaixo de 1/10. Entre as respostas, os pacientes puderam distinguir formas em preto e branco.
O Argus II contém uma pequena câmera de vídeo conectada a um par de óculos, com um processador de imagem que o usuário deve levar consigo na cintura / Fonte: Reprodução Second Sight
Indicado para pessoas com mais de 25 anos, o custo do Argus II na Europa é de 73.000 euros (R$ 191.025,30 reais)