13.269 – Mega Byte – A Ciência da Computação


ciencia da computacao

“ Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio, a biologia com o microscópio, ou a química com os tubos de ensaio. A ciência não estuda ferramentas, mas o que fazemos e o que descobrimos com elas. ”

É a ciência que estuda as técnicas, metodologias e instrumentos computacionais, que automatiza processos e desenvolve soluções baseadas no uso do processamento digital. Não se restringe apenas ao estudo dos algoritmos, suas aplicações e implementação na forma de software, extrapolando para todo e qualquer conhecimento pautado no computador, que envolve também a telecomunicação, o banco de dados e as aplicações tecnológicas que possibilitam atingir o tratamento de dados de entrada e saída, de forma que se transforme em informação. Assim, a Ciência da Computação também abrange as técnicas de modelagem de dados e os protocolos de comunicação, além de princípios que abrangem outras especializações da área.
Enquanto ciência, classifica-se como ciência exata, apesar de herdar elementos da lógica filosófica aristotélica, tendo por isto um papel importante na formalização matemática de algoritmos, como forma de representar problemas decidíveis, i.e., os que são susceptíveis de redução a operações elementares básicas, capazes de serem reproduzidas através de um qualquer dispositivo mecânico/eletrônico capaz de armazenar e manipular dados. Um destes dispositivos é o computador digital, de uso generalizado, nos dias de hoje. Também de fundamental importância para a área de Ciência da Computação são as metodologias e técnicas ligadas à implementação de software que abordam a especificação, modelagem, codificação, teste e avaliação de sistemas de software.
Os estudos oriundos da Ciência da Computação podem ser aplicados em qualquer área do conhecimento humano em que seja possível definir métodos de resolução de problemas baseados em repetições previamente observadas. Avanços recentes na Ciência da Computação tem impactado fortemente a sociedade contemporânea, em particular as aplicações relacionadas às áreas de redes de computadores, Internet, Web e computação móvel que têm sido utilizadas por bilhões de pessoas ao redor do globo.

abaco

Um pouco de História
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a habitantes da Mesopotâmia, em torno de 2700–2300 a.C.. Seu uso original era desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.
No século VII a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou transformações e recursividade com tamanha sofisticação que sua gramática possuía o poder computacional teórico tal qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os logaritmos para uso computacional no século XVI, seguiu-se um período de considerável progresso na construção de ferramentas de cálculo.
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o sistema de numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o matemático persa al-Khwarizmi escreveu o livro Calculando com numerais hindus, responsável pela difusão do sistema de numeração hindu-arábico no Oriente Médio, e posteriormente na Europa. Por volta do século XII houve uma tradução do mesmo livro para o latim: Algoritmi de numero Indorum. Tais livros apresentaram novos conceitos para definir sequências de passos para completar tarefas, como aplicações de aritmética e álgebra. Por derivação do nome do matemático,actualmente usa-se o termo algoritmo.

Lógica binária
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de numeração binário. Ainda usado atualmente no processamento de todos computadores modernos, o sistema estabelece que sequências específicas de uns e zeros podem representar qualquer informação.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e matemático, utilizando o sistema binário. Em seu sistema, uns e zeros também representam conceitos como verdadeiro e falso, ligado e desligado, válido e inválido. Mais de um século depois, George Boole publicou a álgebra booleana (em 1854), com um sistema completo que permitia a construção de modelos matemáticos para o processamento computacional. Em 1801, apareceu o tear controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual buracos indicavam os uns e, áreas não furadas, indicavam os zeros. O sistema está longe de ser um computador, mas ilustrou que as máquinas poderiam ser controladas pelo sistema binário.

Foi com Charles Babbage que o computador moderno começou a ganhar forma, através de seu trabalho no engenho analítico. O equipamento descrito originalmente em 1837, mais de um século antes de seu sucessor, nunca foi construído com sucesso, mas possuía todas as funções de um computador moderno. O dispositivo de Babbage se diferenciava por ser programável, algo imprescindível para qualquer computador moderno.
Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros programas de computador em uma série de notas para o engenho analítico. Por isso, Lovelace é popularmente considerada como a primeira programadora.

Nascimento da Ciência da Computação
Antes da década de 1920, computador era um termo associado a pessoas que realizavam cálculos, geralmente liderados por físicos. Milhares de computadores eram empregados em projetos no comércio, governo e sítios de pesquisa. Após a década de 1920, a expressão máquina computacional começou a ser usada para referir-se a qualquer máquina que realize o trabalho de um profissional, especialmente aquelas de acordo com os métodos da Tese de Church-Turing.
O termo máquina computacional acabou perdendo espaço para o termo reduzido computador no final da década de 1940, com as máquinas digitais cada vez mais difundidas. Alan Turing, conhecido como pai da Ciência da Computação, inventou a Máquina de Turing, que posteriormente evoluiu para o computador moderno.
Os fundamentos matemáticos da Ciência da Computação moderna começaram a ser definidos por Kurt Gödel com seu teorema da incompletude (1931). Essa teoria mostra que existem limites no que pode ser provado ou desaprovado em um sistema formal; isso levou a trabalhos posteriores por Gödel e outros teóricos para definir e descrever tais sistemas formais, incluindo conceitos como recursividade e cálculo lambda.
Em 1936 Alan Turing e Alonzo Church independentemente, e também juntos, introduziram a formalização de um algoritmo, definindo os limites do que pode ser computador e um modelo puramente mecânico para a computação. Tais tópicos são abordados no que atualmente chama-se Tese de Church-Turing, uma hipótese sobre a natureza de dispositivos mecânicos de cálculo. Essa tese define que qualquer cálculo possível pode ser realizado por um algoritmo sendo executado em um computador, desde que haja tempo e armazenamento suficiente para tal.
Turing também incluiu na tese uma descrição da Máquina de Turing, que possui uma fita de tamanho infinito e um cabeçote para leitura e escrita que move-se pela fita. Devido ao seu caráter infinito, tal máquina não pode ser construída, mas tal modelo pode simular a computação de qualquer algoritmo executado em um computador moderno. Turing é bastante importante para a Ciência da Computação, tanto que seu nome é usado para o Prêmio Turing e o teste de Turing. Ele contribuiu para a quebra do código da Alemanha pela Grã-Bretanha[3] na Segunda Guerra Mundial, e continuou a projetar computadores e programas de computador pela década de 1940; cometeu suicídio em 1954.
Até a década de 1930, engenheiros eletricistas podiam construir circuitos eletrônicos para resolver problemas lógicos e matemáticos, mas a maioria o fazia sem qualquer processo, de forma particular, sem rigor teórico para tal. Isso mudou com a tese de mestrado de Claude Shannon de 1937, A Symbolic Analysis of Relay and Switching Circuits. Enquanto tomava aulas de Filosofia, Shannon foi exposto ao trabalho de George Boole, e percebeu que poderia aplicar esse aprendizado em conjuntos eletro-mecânicos para resolver problemas. Shannon desenvolveu a teoria da informação no artigo de 1948: A Mathematical Theory of Communication , cujo conteúdo serve como fundamento para áreas como compressão de dados e criptografia.
Apesar de sua pequena história enquanto uma disciplina acadêmica, a Ciência da Computação deu origem a diversas contribuições fundamentais para a ciência e para a sociedade. Esta ciência foi responsável pela definição formal de computação e computabilidade, e pela prova da existência de problemas insolúveis ou intratáveis computacionalmente.
Também foi possível a construção e formalização do conceito de linguagem de computador, sobretudo linguagem de programação, uma ferramenta para a expressão precisa de informação metodológica flexível o suficiente para ser representada em diversos níveis de abstração.
Para outros campos científicos e para a sociedade de forma geral, a Ciência da Computação forneceu suporte para a Revolução Digital, dando origem a Era da Informação.
A computação científica é uma área da computação que permite o avanço de estudos como o mapeamento do genoma humano (ver Projeto Genoma Humano).

Blaise Pascal, desenvolveu a calculadora mecânica e tem seu nome em uma linguagem de programação;
Charles Babbage, projetou um computador mecânico, a máquina analítica;
Ada Lovelace, considerada a primeira pessoa programadora, deu nome à uma linguagem de programação;
Alan Turing, participou do projeto Colossus e foi um dos cérebros que decifra a Enigma. Também inventou um tipo teórico de máquina super-simples capaz de realizar qualquer cálculo de um computador digital, a Máquina de Turing
John von Neumann, descreveu o computador que utiliza um programa armazenado em memória, a Arquitetura de von Neumann, que é a base da arquitetura dos computadores atuais
John Backus, líder da equipe que criou o Fortran e criou a notação BNF
Maurice Vicent. Wilkes, inventor do somador binário
Howard Aiken, inventor do Mark I
Walter H. Brattain, inventor do transístor
William Shockley, inventor do transístor
John Bardeen, inventor do transístor
Fred Williams, inventor da memória RAM
Tom Kilburn, inventor da memória RAM
Konrad Zuse, inventor independente do computador digital e de linguagens de programação na Alemanha nazista
John Atanasoff, inventor do primeiro computador digital, o Atanasoff–Berry Computer, ABC
Clifford Berry, assistente de Atanasoff
Almirante Grace Hopper, programadora do Mark I, desenvolveu o primeiro compilador; primeira mulher a receber um Ph.D. em matemática
Edsger Dijkstra, líder do ALGOL 60, publicou o artigo original sobre programação estruturada
J. Presper Eckert, criador do ENIAC
John William Mauchly, criador do ENIAC

Abrange
Arquitetura de computadores — o desenvolvimento, a organização, a otimização e a verificação de sistemas computacionais
Computação distribuída — computação sendo executada em diversos dispositivos interligados por uma rede, todos com o mesmo objetivo comum
Computação paralela — computação sendo executada em diferentes tarefas; geralmente concorrentes entre si na utilização de recursos
Computação quântica — representação e manipulação de dados usando as propriedades quânticas das partículas e a mecânica quântica
Sistemas operacionais — sistemas para o gerenciamento de programas de computador e para a abstração da máquina, fornecendo base para um sistema utilizável
Por ser uma disciplina recente, existem várias definições alternativas para a Ciência da Computação. Ela pode ser vista como uma forma de ciência, uma forma de matemática ou uma nova disciplina que não pode ser categorizada seguindo os modelos atuais. Várias pessoas que estudam a Ciência da Computação o fazem para tornarem-se programadores, levando alguns a acreditarem que seu estudo é sobre o software e a programação. Apesar disso, a maioria dos cientistas da computaçao são interessados na inovação ou em aspectos teóricos que vão muito além de somente a programação, mais relacionados com a computabilidade.
Apesar do nome, muito da Ciência da Computação não envolve o estudo dos computadores por si próprios. De fato, o conhecido cientista da computação Edsger Dijkstra é considerado autor da frase “Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio […]”. O projeto e desenvolvimento de computadores e sistemas computacionais são geralmente considerados disciplinas fora do contexto da Ciência da Computação. Por exemplo, o estudo do hardware é geralmente considerado parte da engenharia da computação, enquanto o estudo de sistemas computacionais comerciais são geralmente parte da tecnologia da informação ou sistemas de informação.
Por vezes a Ciência da Computação também é criticada por não ser suficientemente científica, como exposto na frase “Ciência é para a Ciência da Computação assim como a hidrodinâmica é para a construção de encanamentos”, credita a Stan Kelly-Bootle.
Apesar disso, seu estudo frequentemente cruza outros campos de pesquisa, tais como a inteligência artifical, física e linguística.
Ela é considerada por alguns por ter um grande relacionamento com a matemática, maior que em outras disciplinas. Isso é evidenciado pelo fato que os primeiros trabalhos na área eram fortemente influenciados por matemáticos como Kurt Gödel e Alan Turing; o campo continua sendo útil para o intercâmbio de informação com áreas como lógica matemática, teoria das categorias e álgebra. Apesar disso, diferente da matemática, a Ciência da Computação é considerada uma disciplina mais experimental que teórica.

Várias alternativas para o nome da disciplina já foram cogitadas. Em francês ela é chamada informatique, em alemão Informatik, em espanhol informática, em holandês, italiano e romeno informatica, em polonês informatyka, em russo информатика e em grego Πληροφορική. Apesar disso, tanto em inglês quanto em português informática não é diretamente um sinônimo para a Ciência da Computação; o termo é usado para definir o estudo de sistemas artificiais e naturais que armazenam processos e comunicam informação, e refere-se a um conjunto de ciências da informação que engloba a Ciência da Computação. Em Portugal, no entanto, apesar de a palavra estar dicionarizada com esse sentido amplo, o termo é usado como sinónimo de Ciência da Computação.
De forma geral, cientistas da computação estudam os fundamentos teóricos da computação, de onde outros campos derivam, como as áreas de pesquisa supracitadas. Como o nome implica, a Ciência da Computação é uma ciência pura, não aplicada. Entretanto, o profissional dessa área pode seguir aplicações mais práticas de seu conhecimento, atuando em áreas como desenvolvimento de software, telecomunicação, consultoria, análise de sistemas, segurança em TI, governança em TI, análise de negócios e tecnologia da informação. O profissional de computação precisa ter muita determinação na apreensão tecnológica, uma vez que esta área sofre contínuas transformações, modificando rapidamente paradigmas.

13.211 – (In) Segurança Digital – O que é um Pentest?


pentest_wall_image
Ainda que uma aplicação não envolva transações comerciais, ela geralmente capta dados privados do usuário.
Uma pesquisa da Lookout no sistema Android (o mais popular aqui no Brasil) mostrou que, de 30 mil aplicativos, 38% podem determinar localizações e 15% conseguem coletar números telefônicos. Esse acesso a dados sensíveis dos usuários exige que as empresas testem e aparem arestas na segurança de seus aplicativos, evitando complicações legais e descontentamento dos usuários. O Pentest é uma das maneiras de avaliar a segurança de um sistema ou aplicativo.
38% dos apps mobile podem determinar localizações. 15% conseguem coletar números telefônicos.
O Pentest é uma forma de detectar e explorar vulnerabilidades existentes nos sistemas, ou seja, simular ataques de hackers. Essas avaliações são úteis para validar a eficácia dos mecanismos de defesa do aplicativo e dos servidores por trás dele.
O teste pode ser realizado manualmente, mas normalmente é apoiado por ferramentas automáticas.
O propósito fundamental é avaliar quaisquer consequências que falhas de segurança possam ter sobre os recursos ou operações envolvidas. Isso é possível pois o Pentest detecta de forma rápida onde o sistema web/mobile é mais vulnerável, permitindo à equipe corrigir o que for necessário após o teste.
As vulnerabilidades de segurança em aplicações web podem resultar em roubo de dados confidenciais, quebra de integridade de dados ou ainda afetar a disponibilidade dos aplicativos web.
87% dos websites têm vulnerabilidades de segurança consideradas de médio risco. 46% dos websites possuem vulnerabilidades de alto risco.
Para se ter uma ideia do perigo, de acordo com uma pesquisa da Acunetix, 87% dos websites têm vulnerabilidades de segurança consideradas de médio risco. E fica pior: quase metade (46%) dos websites possuem vulnerabilidades de alto risco. A forma mais eficiente de garantir a segurança dessas aplicações é justamente eliminando estas vulnerabilidades.

SQL Injection
É um tipo de ataque utilizado para enviar comandos nocivos à base de dados através de formulários ou de URLs. Quando bem sucedido, pode apagar a tabela do banco de dados, deletar todos os dados da tabela ou ainda roubar senhas cadastradas em um banco. O SQL Injection funciona porque a aplicação aceita dados fornecidos pelo usuário, ou seja, confia no texto que é digitado e também porque essas conexões são realizadas no contexto de um usuário com nível de administrador.
Exemplo no mundo real: O SQL Injection foi utilizado em um dos maiores ataques hacker da história. Hackers russos roubaram logins e senhas de aproximadamente 1,2 bilhão de contas em websites diversos. De acordo com uma matéria do New York Times, os hackers atacaram cerca de 420 mil websites.

Cross Site Scripting (XSS)
Esse ataque se aproveita da vulnerabilidade nas validações dos parâmetros de entrada do usuário e resposta do servidor na aplicação. Imagine o caso de um fórum online, por exemplo, onde o usuário tem permissão para postar mensagens de sua autoria para outros membros. Se a aplicação não filtrar corretamente os códigos HTML, alguém mal intencionado pode adicionar instruções para leitura de informações específicas do usuário legítimo. E o que isso significa? Esse usuário mal intencionado terá acesso a códigos de sessão e poderá executar tarefas específicas, como o envio arbitrário de mensagens para o fórum.
Exemplo no mundo real: Um caso bem conhecido é do WordPress. O tema TwentyFifteen (que vem instalado por padrão) estava vulnerável à ataques XSS e deixou milhões de sites vulneráveis. O grande problema dessa vulnerabilidade é que, se o administrador de uma página na plataforma abrir um comentário malicioso, um script é ativado e possibilita ao invasor modificar o código ou as configurações do website.

Cross Site Request Forgery (CSRF)
Esse ataque se tornou muito comum e está no Top 10 ataques/falhas mais comuns em aplicações web da OWASP (Open Web Application Security Project). O ataque explora a relação de confiança entre o usuário e o aplicativo web, forçando-o a executar ações indesejadas na aplicação em que ele está autenticado. Os alvos geralmente são transações comuns porém valiosas, como alteração de e-mail ou dados pessoais. A maneira mais usual de ataque é o envio de e-mail para a vítima contendo um link ou formulário.
Exemplo no mundo real: Conhecido como “Golpe da Oi”, o ataque CSRF foi realizado via e-mail e modificou as características das configurações dos roteadores e modens no país todo. Técnica incomum até então, mas potente para espionar o tráfego de usuários na web, os e-mails fingiam ser enviados pela Oi. Se bem sucedido, o ataque leva usuários para um site fraudulento, mesmo que o endereço digitado seja correto. Assim, é possível interceptar e-mails, logins e senhas.

O que fazer?
Segurança total e irrestrita contra crimes virtuais (pelo menos hoje) não passa de um sonho. Contudo, é possível testar a solidez do sistema, detectar falhas e criar barreiras que desencorajem e minimizem o impacto desse tipo de ação.
O processo envolve uma análise nas atividades do sistema, que envolvem a busca de alguma vulnerabilidade em potencial que possa ser resultado de uma má configuração do sistema, falhas em hardwares/softwares desconhecidas, deficiência no sistema operacional ou técnicas contramedidas. Todas as análises submetidas pelos testes escolhidos são apresentadas no sistema, junto com uma avaliação do seu impacto e muitas vezes com uma proposta de resolução ou de uma solução técnica.
O teste da caixa preta assume que não existe qualquer conhecimento prévio da infra-estrutura a ser testada. Sendo que o primeiro teste deve determinar a localização e extensão dos sistemas antes de iniciar a análise.
O teste da caixa branca assume que o testador possui total conhecimento da infra-estrutura a ser testada, incluindo o diagrama da rede, endereçamento IP e qualquer informação complementar.
Teste de caixa preta simulam um ataque de alguém que esteja familiarizado com o sistema, enquanto um teste de caixa branca simula o que pode acontecer durante o expediente de um trabalho ou depois de um “vazamento” de informações, em que o invasor tenha acesso ao código fonte, esquemas de rede e, possivelmente, até mesmo de algumas senhas.

13.207 – Mega Byte – O Sistema Blackbox da Linux


black box linux
É um gerenciador de janelas livre para sistemas Unix-like com X Window System. Se destaca pela leveza, sendo ideal para quem usa micro-computadores com poucos recursos e não quer abrir mão de uma interface gráfica. Um usuário conta que o Blackbox roda satisfatoriamente em um 486DX4 (66 MHz) com 16MB de memória RAM. Outras características são seu estilo minimalista e a capacidade do usuário personalizar seu visual a partir de temas. É escrito em C++ e contém código completamente original.
Blackbox é portável, podendo ser compilado e executado nos seguintes sistemas operacionais
BSD (principal plataforma de desenvolvimento)
Linux
IBM OS/2
Windows (under Cygwin)
Windows chamado BB4Win
Apple Mac OS X
Sun Solaris
SGI Irix
HP HP/UX
O Blackbox teoricamente roda em qualquer arquitetura.
O sucesso do BlackBox gerou alguns projetos derivados que se propuseram a continuar sua linha inicial de desenvolvimento – mas adicionar novos recursos. Alguns desses projetos são:

FluxBox
OpenBox
Um dos grandes motivos do sucesso do Blackbox e de suas variações é o fato dele ser uma interface completamente nova, diferente do Windows, MacOS, KDE e Gnome. O Blackbox foi desenvolvido do zero, tendo em mente um ambiente simples e rápido, mas ao mesmo tempo funcional. A página oficial é a http://blackboxwm.sourceforge.net
A interface do Blackbox é bastante simples. O iniciar pode ser acessado clicando com o botão direito sobre uma área vazia qualquer da área de trabalho
A barra de tarefas do Blackbox tem um layout bastante reduzido. As setas da esquerda permitem alternar entre as áreas de trabalho (você pode manter programas diferentes abertos em cada uma), enquanto as setas da esquerda alternam entre as janelas abertas

13.080 – Mega Byte – Para que serve a tecla Insert do teclado?


insert
Já aconteceu de você estar escrevendo um texto no computador, voltar ao começo dele para editar e então descobrir que cada letra que você escreve apaga a letra que estava no lugar dela anteriormente? Se sim, é possível que você tenha, sem querer, apertado a tecla Insert.
A tecla Insert, antigamente, era usada para alternar entre dois modos de escrita: inserção e substituição. O modo inserção (ou “Insert”, em inglês, daí o nome da tecla) é o que se usa normalmente: quando você digita uma tecla, essa tecla é acrescentada no local onde seu cursor está. Por exemplo, imagine que você tenha a seguinte palavra: “ca|melo” (o | representa a posição do cursor). Se você escrever “ra”, a palavra resultante será “cara|melo”.
No entanto, há também o modo de substituição (ou “Overtype”, em inglês). Nesse modo, a tecla pressionada substitui o caractere que está na frente do cursor. Nesse caso, imagine novamente a mesma situação: “ca|melo”. Se você estiver no modo de substituição e digitar “b”, você ficará com a palavra “cab|elo”. Para alterar entre os dois modos de escrita, basta apertar a tecla Insert.
Curiosamente, porém, a funcionalidade dessa tecla vem desativada por padrão na maioria dos softwares de edição de texto atuais. É possível que essa alteração tenha sido feita pelo fato de muitas pessoas apertarem a tecla sem querer e depois não conseguirem voltar ao modo anterior de escrita. Uma busca rápida no Google revela uma série de tutoriais da década passada com truques para desabilitar permanentemente essa tecla, o que reforça essa ideia. Assim como a tecla “Scroll Lock”, ela parece ser uma “sobra evolutiva” dos teclados.

Outras funções
Talvez quase ninguém saiba, mas a tecla Insert também pode ser usada para copiar e colar conteúdo da mesma maneira que a combinação Ctrl+C e Ctrl+V. Selecionar algo e pressionar Ctrl+Insert faz com que aquilo seja copiado para a área de transferência; em seguida, pressionar Shift+Insert faz com que o conteúdo selecionado seja colado na posição do cursor.
Há ao menos uma função adicional para ela. Em alguns notebooks da Dell, pressionar a tecla Function (ou “Fn”) + Insert faz com que o notebook entre em “modo descanso” imediatamente. Isso desliga a tela, o teclado e as conexões do aparelho. Para fazê-lo “acordar” novamente, basta apertar o botão liga/desliga.
Pelo fato de a tecla ser pouco usada – e frequentemente odiada -, alguns notebooks não têm uma tecla Insert dedicada. Nesses casos, no entanto, ainda é possível usar as funções do Insert. Ela às vezes aparece junto ao número 0 do teclado numérico: nesses casos, a tecla se chama “0/Ins”. Em alguns casos mais problemáticos, ela fica junto da tecla Print Screen, e pode acabar mudando o modo de digitação toda vez que alguém tira um print da tela.

12.863 – Facebook cumpre decisão judicial e garante que não será bloqueado no Brasil


Plataforma-do-Facebook-para-criar-jogos-size-620
Em nota divulgada à imprensa, o Facebook confirmou que não será bloqueado no Brasil por 24 horas, como havia decretado um juiz eleitoral de Santa Catarina. A Justiça pediu que a rede social tirasse uma página do ar e, segundo a assessoria da empresa, a ordem foi cumprida “integralmente”.
“O Facebook tem profundo respeito pelas decisões da justiça brasileira e cumpriu a ordem judicial dentro do prazo estabelecido”, disse o Facebook em nota.
De acordo com Renato Roberge, juiz eleitoral de Joinville (SC), o Facebook teria se recusado a tirar do ar um perfil falso que tirava sarro de um candidato à prefeitura, Udo Döhler (PMDB). A Justiça também exigiu que a rede social revelasse o IP do administrador do perfil “Hudo Caduco” e que oferecesse direito de resposta ao político ofendido.
“Não há dúvida alguma de que o perfil tratado nestes autos está à margem da legislação eleitoral vigente, pois claramente criado para o fim de infirmar o candidato representante”, disse o juiz na sentença. O Facebook diz que entrou com recurso e que, após tê-lo negado, cumpriu a ordem integralmente, como mandava a Justiça.

12.842 – Google anuncia central de computação em nuvem no Brasil


google-lifi-li-fi-internet
O Google anunciou, o Google Cloud, uma central de computação em nuvem e série de produtos voltados para empresas brasileiras. A nova estrutura será em São Paulo e deve ficar pronta em 2017.
A plataforma foi pensada para as empresas, com sistemas integrados que incluem garantias em todos os níveis de serviço, com todos os componentes integrados e para o ponto de precificação que o cliente escolher.
O Google Cloud inclui tudo de Google Cloud Platform, que são aplicações de colaboração e produtividade, chamadas de G Suite, e todas as ferramentas e APIs de Machine Learning, APIs empresariais de mapas, smartphones e tablets Android e os Chromebooks que acessam a nuvem.
De acordo com a vice-presidente sênior do Google Cloud, Diane Greene, nos próximos cinco anos, negócios de todos os tipos serão transformados por dados inteligentes, análise, machine learning e comunicação digital, sendo que o que vai diferenciar os negócios no futuro é a tecnologia digital.
Além da infraestrutura brasileira, a companhia pretende abrir unidades nos Estados Unidos, Cingapura, Austrália, Alemanha, Reino Unido, Índia e Finlândia.

12.777 – Supercomputadores sem limites? São criados os primeiros neurônios artificiais


inteligencia-artificial-history-channel

A história da computação está prestes a mudar: o centro de pesquisas da IBM em Zurique, na Suíça, criou os primeiros neurônios artificiais.
As pequenas células robóticas possuem uma membrana neuronal em torno de um núcleo, um dispositivo de entrada e outro de saída, o que lhes permite interagir com outros neurônios, emulando o funcionamento de um cérebro biológico.
O núcleo é fabricado com um material utilizado na confecção de discos óticos, o GST (germânio-antimônio-telúrio), que se alterna entre fases cristalinas e amorfas por causa do calor. A fase cristalina é condutora e a amorfa funciona como isolante elétrico. Isso faz com que os neurônios nanotecnológicos se comportem de maneira similar aos orgânicos, emitindo impulsos elétricos em padrões temporais imprevisíveis.
A descoberta facilitará a criação de supercomputadores capazes de processar a informação de forma inteligente a velocidades inusitadas.
Os cientistas do laboratório da IBM possuem atualmente 500 neurônios artificiais com essas características e estão desenvolvendo um software complexo que permitirá sua implementação.

12.719 – Cientistas da IBM criam neurônios artificiais que ‘pensam’ sozinhos


neuronio artificial

Pesquisadores da IBM revelaram a criação de um conjunto de mais de 500 neurônios artificiais, capazes de interpretar informações e aprender sozinhos. A descoberta deixa a empresa cada vez mais próxima de desenvolver um sistema computacional capaz de se comportar como o cérebro humano.

Os neurônios artificiais da IBM foram criados a partir de chamados materiais de mudança de fase – isto é, substâncias que podem existir em dois estados diferentes (gasoso e líquido, por exemplo) e trocar de um para o outro com facilidade. A combinação usada pelos cientistas é composta por germânio, antimônio e telúrio.

A material, denominado GST, pode alterar sua composição entre os estados cristalino e amorfo – isto é, sólido, mas sem forma definida. Na primeira fase, o GST (usado na membrana do neurônio artificial) funciona como um isolador de energia elétrica. Já na fase amorfa, o material consegue atuar como um condutor de eletricidade.

Desse modo, com uma membrana capaz de conduzir ou isolar eletricidade, o neurônio artificial pode realizar sinapses a base de impulsos de energia – assim como os neurônios no cérebro humano. Outra semelhança é que os neurônios criados pela IBM não trocam dados digitais, como arquivos de computador, mas apenas informações analógicas, como temperatura e movimento, e são tão pequenos quanto neurônios “de verdade”.

Aplicando-se uma fonte de calor a essa população de neurônios, as sinapses acontecem quase que naturalmente. É importante destacar, contudo, que a informação trocada entre elas é puramente aleatória, assim como no cérebro humano. Isso acontece devido ao ciclo de transformações do GST, que altera seu estado entre cristalino e amorfo sempre com alguma diferença. Os cientistas nunca sabem quando uma sinapse será realizada ou entre quais neurônios.

O que torna a descoberta ainda mais impactante é sua eficiência: os materiais usados na criação dos neurônios são facilmente encontrados na natureza ou na indústria; cada célula exige muito pouca energia para operar; a quantidade de informação processada é muito grande, enquanto o processamento é rápido; e tudo isso funciona num espaço físico bem reduzido, em vez de ocupar enormes edifícios repletos de servidores, como os data centers modernos.

Embora esses neurônios ainda não estejam prontos para serem usados em robôs como os de filmes de ficção científica, possíveis aplicações já estão sendo estudadas. O “mini cérebro artificial” da IBM poderia, por exemplo, ajudar na detecção de fenômenos naturais, como terremotos e tsunamis, ou até em sistemas de previsão do tempo mais precisos.

Em teoria, nada impede que esses neurônios sejam usados na fabricação de processadores de computador que tornem PCs, aplicativos ou qualquer dispositivo eletrônico bem mais inteligente, nos aproximando da mítica singularidade. O desafio, porém, ainda é desenvolver o código de software capaz de interpretar as informações analógicas de um “cérebro” como esse.

12.590 – Medicina na Era Digital


os-dados-de-cada-um
“Declare o passado, diagnostique o presente e preveja o futuro”, dizia o fisiologista grego Hipócrates, apelidado de o pai da medicina, no século V a.C. Com essa elegante definição do trabalho médico, o pensador indicava a relevância do acúmulo de conhecimento prévio para guiar os tratamentos. Ao receber um paciente, o profissional de saúde precisa, antes de tudo, relacionar os sintomas relatados a outros quadros similares para realizar o exame, prescrever medicamentos e prever qual será a eficiência da terapia recomendada. Até muito recentemente, porém, antes do desenvolvimento de exames de laboratório complexos e conclusivos, os doutores tinham de confiar apenas na memória de um enfermo para desenhar um caminho de cura. Deu-se agora uma espetacular guinada com o avanço da era digital, da inteligência alimentada pelos algoritmos e do big data — termo que descreve a possibilidade de organizar e consultar, de forma automática, montantes colossais de dados em qualquer área do conhecimento humano. No século XXI, médicos dependem cada vez menos do próprio conhecimento, ou do que relatam os pacientes, para “declarar o passado, diagnosticar o presente e prever o futuro”. Bastam alguns cliques no computador para ter acesso a quase toda informação. Está acabando o tempo em que clínicos de pronto-socorro podem se contentar em dizer aos doentes, genericamente: “É uma virose”. O impacto das novas tecnologias de big data no trabalho médico pode ser medido em números. Ao longo da vida, um indivíduo gera o equivalente a 200 terabytes de informações ligadas à sua saúde. Entretanto, em torno de 90% desses dados se perdem porque não são armazenados, ainda. Estima-se que, se os médicos tivessem acesso ao histórico de todos os pacientes do mundo, seria possível reduzir em 20% a mortalidade global. A precisão nos diagnósticos possibilitaria ainda uma economia de 300 bilhões de dólares ao ano apenas para o sistema de saúde dos Estados Unidos. Esses benefícios levam a uma adoção cada vez mais ampla dessa inovação: a cada ano, aumenta em 20% a digitalização de informações médicas no planeta. Portanto, não está tão longe um futuro no qual não mais 90%, quiçá nem 1%, desse conteúdo será perdido.
Dada a imensidão de estatísticas que podem ser colhidas, como or­ga­ni­zá-­las e compreendê-las? A resposta está nos softwares de big data. Eles são resultado direto do exponencial barateamento da capacidade de armazenamento dos computadores, acompanhado pela multiplicação do processamento dessas máquinas e pelo avanço da tecnologia de sequenciamento genético. Tudo somado, temos a interpretação automática, mesmo por aparelhos comerciais como smart­pho­nes e tablets, de todo o conteúdo compilado pelos profissionais. E haja dados: um único hospital pode acumular 665 terabytes deles ao ano, o equivalente a três vezes todo o catálogo da Biblioteca do Congresso americano, a maior do mundo.
Um dos mais novos e promissores frutos desse caldo tecnológico é o programa Watson Health, próprio para hospitais. Lançado pela IBM em abril de 2015, ele é um refinado produto de inteligência artificial, alimentado pelos potentes servidores da empresa americana, cuja missão é agrupar grande parte dos dados medicinais do planeta para facilitar o trabalho dos médicos. No mês passado, a IBM começou a negociar a instalação do programa em clínicas brasileiras. Como ele vai funcionar? O Watson é alimentado de informações provenientes de laboratórios, hospitais e até mesmo iPhones. Em uma parceria com a Apple, a IBM fez com que seu software tivesse acesso a informações geradas a partir de aplicativos de celular e tablet que medem o estado de saúde de seus usuários. Que tipo de material é coletado? Quantos passos as pessoas dão em um dia, se dormem bem, em que ritmo bate o coração, e muito mais. “Há uns cinco anos começamos a notar quanto essa abordagem da computação, chamada de cognitiva, se tornará chave para a evolução do cuidado médico”, disse a VEJA o oncologista americano Mark Kris, um dos responsáveis pelo projeto do Watson Health. “A ferramenta que criamos é fundamental para a construção de tratamentos individuais, específicos e sob medida, de cada paciente, em qualquer lugar. É o futuro da medicina, começando hoje.” No consultório, o Watson Health acaba por operar como um Google dos médicos. A tecnologia apresenta subdivisões de acordo com a especialidade do campo da saúde. Uma das mais consultadas é o Watson Oncology, focado na oncologia e desenvolvido em parceria com o prestigiado hospital americano Memorial Sloan Kettering Cancer Center. Durante os últimos cinco anos, médicos abasteceram o Watson — e continuam a fa­zê-lo — com histórias de casos atuais e antigos de câncer, ensinando assim a inteligência artificial a abordar cada variação da moléstia. Hoje, oncologistas com acesso ao programa consultam esse banco de dados antes de atender um paciente. Nele, é possível inserir o quadro clínico geral de um paciente. A partir daí, a inteligência artificial calcula quais são os métodos que se provaram mais eficientes para o tratamento da enfermidade em questão. Antes da chegada do Watson Health ao país, hospitais brasileiros já vinham instalando tecnologias similares. Há quatro anos o paulistano Sí­rio-Li­ba­nês investe na criação do que denominou de Biobanco, uma central de servidores com dados de amostras de sangue e tecido e com informações sobre tumores de pacientes. A tecnologia, em teste, ainda é acessada apenas por uma área de pesquisas, na qual quarenta pacientes têm servido de voluntários. “Mas estamos felizes com os resultados e logo implementaremos esse recurso em todo o nosso complexo”, diz o bioquímico Luiz Fernando Reis, responsável pela iniciativa.

12.556 – Tecnologia – Os Supercomputadores


Tianhe-1A
Ele já foi o supercomputador mais rápido do mundo em novembro de 2010 e, depois de dois anos e meio, está ainda entre os 10 mais velozes. Esta máquina é fabricada pela NUDT e pertence ao Centro Nacional de Supercomputador de Tianjin, China. Ela traz um processador com 183.638 núcleos, capaz de processar dados a uma velocidade média de 2,5 teraflops por segundo.

SuperMUC
Equipamento do Centro de Supercomputador de Leibniz, na Alemanha, o SuperMUC já foi o quarto mais veloz do mundo em junho de 2012. Atualmente, a nona posição que ocupa é graças ao processador de 147.456 núcleos, que processa dados a uma  velocidade média de 2,9 mil teraflops por segundo. Este computador é fabricado pela IBM.

Vulcan
O supercomputador Vulcan pertence ao Laboratório Nacional Lawrence Livermore, nos Estados Unidos, é fabricado pela IBM e traz 393.216 núcleos em seu processador. A unidade processa dados a uma velocidade média de 4,3 mil teraflops por segundo, além de contar com 393.216 GB de memória

Juqueen
Com processador de 458.752 núcleos, que alcança uma velocidade de 5 petaflops, esta máquina pertence ao Centro de Supercomputador de Jülich, na Alemanha. Ele tem memória de 458.752 GB e, em novembro de 2012, data da última medição feita pelo Top500, ocupava a quinta posição na lista.

Stampede
O Centro de Computação Avançada do Texas, localizado na Universidade do Texas, nos EUA, conta com o Stampede, sexto supercomputador mais rápido do planeta. Ele é fabricado pela Dell, traz 192.192 GB de memória e processador com mais de 462 mil núcleos, com velocidade de 5,1 mil teraflops por segundo.

Mira
O quinto colocado na lista pertence ao Departamento de Energia do Laboratório Nacional Argonne, nos Estados Unidos. Ele também é fabricado pela IBM e ocupava a quarta posição em novembro de 2012. A atual posição é garantida com um processador com mais de 786 mil núcleos, o qual processa dados a 8,5 petaflops por segundo.

mira

K Computer
O primeiro representante do Japão na lista está em quarto lugar. O K Computer pertence ao Instituto Avançado de Ciência do Computador RIKEN, no Japão. O mais rápido do mundo durante todo o ano de 2011, ele apresenta a seguinte configuração: processador com mais de 705 mil núcleos, velocidade de 10,5 petaflops por segundo e memória de 1.410.048 GB. Ele foi fabricado pela Fujitsu.

Sequoia
O Laboratório Nacional Lawrence Livermore é dono também do supercomputador Sequoia, terceiro mais rápido do mundo hoje. Fabricado pela IBM, esta máquina era a mais veloz do planeta há um ano, com mais de 1,5 milhão de núcleos, velocidade de mais de 17 petaflops por segundo e memória de 1.572.846 GB.

Titan
Há seis meses ele era o mais rápido do mundo, mas perdeu o topo da tabela mesmo com velocidade de 17,6 petaflops por segundo. Ele pertence ao Laboratório Nacional Oak Ridge, Estados Unidos, e seu processador traz mais de 560 mil núcleos. A memória aqui é de 710.144 GB e ele foi fabricado pela Cray Inc.

titan

Tianhe-2
E a China batalhou para retomar a liderança da lista de supercomputadores mais rápidos do planeta. O Tianhe-2, uma “versão atualizada” do décimo colocado desta lista, traz 3,1 milhões de núcleos, velocidade de 33,8 petaflops por segundo e memória de 1.024.000 GB. Esta máquina absurda é fabricada pela NUDT.

thiane

12.531 – Acredite se Quiser – Cientistas criam primeira interface para conectar cérebros humanos


cerebro computador
Pesquisadores da Universidade de Washington realizaram o que afirmam ser a primeira interface cérebro-cérebro entre dois seres humanos. Eles foram capazes de captar a atividade cerebral de um voluntário, transmitir o sinal via internet e usá-lo para controlar os movimentos da mão de outro homem. “A internet sempre foi uma maneira de conectar computadores e, agora, poderá ser uma maneira de conectar cérebros”, afirma Andrea Stocco, professor de psicologia da Universidade de Washington, que teve sua mão controlada durante o experimento.
Instituição: Universidade de Washington, EUA

Dados de amostragem: Dois voluntários humanos. Um deles teve a atividade elétrica de seu cérebro registrada por um aparelho de eletroencefalograma. O outro tinha um aparelho de estimulação magnética transcraniana em sua cabeça, capaz de estimular o seu cérebro e induzir movimentos.

Resultado: Por meio de uma conexão de internet, os sinais cerebrais captados no primeiro voluntário induziram movimentos na mão do segundo.

As interfaces cérebro-cérebro têm sido teorizadas já há algum tempo pelos pesquisadores, mas só começaram a sair do papel neste ano. Em fevereiro, o neurocientista brasileiro Miguel Nicolelis anunciou a primeira interface do tipo, ao transmitir sinais elétricos entre os neurônios de dois ratos: um localizado nos Estados Unidos e outro no Brasil. Dois meses depois, pesquisadores da Universidade Harvard demonstraram que era possível transmitir os sinais cerebrais de um homem para o cérebro de um rato, comandando os movimentos de sua cauda.
Os pesquisadores da Universidade de Washington afirmam, no entanto, que essa é a primeira vez que tal comunicação é realizada entre dois seres humanos. “Nós conseguimos plugar um cérebro ao computador mais complexo já estudado por qualquer cientista: outro cérebro humano”, diz Chantel Prat, pesquisadora da Universidade de Washington que também participou do estudo.
Controle mental – Rajesh Rao afirma que foi emocionante – e assustador – assistir a uma ação imaginária de seu cérebro ser traduzida em uma ação efetiva por outro corpo. Mesmo assim, esse ainda seria o primeiro passo no desenvolvimento das interfaces cérebro-cérebro entre humanos. “Este foi basicamente um fluxo unidirecional de informações do meu cérebro para o dele. O próximo passo é estabelecer uma conversa de duas mãos entre os dois cérebros”.

12.417- Mega Memória – Lançado o computador Apple I, de fabricação manual em 11-04-1976


apple-1-computador
No dia 11 de abril de 1976 era lançado o Apple I, um computador pessoal e primeiro produto da empresa fundada por Steve Jobs e Steve Wozniak. Acredita-se que somente 200 deles foram fabricados, todos de maneira manual, por Wozniak, com preço final de US$ 666,66 – Wozniak gostava de dígitos repetidos.
Jobs deu a ideia de vender o computador, que possuía, inclusive, uma encomenda de 50 deles para uma loja local de Cupertino, na Califórnia. O primeiro ponto de venda do computador foi a garagem da casa dos pais de Jobs. Para dar início ao projeto, Jobs vendeu seu único meio de transporte, um VW Microbus. Wozniak se desfez da sua calculadora HP-65 por US$ 500. Mais tarde, o Apple I foi exibido no Homebrew Computer Club, em Palo Alto, na Califórnia.
Ao contrário de outros computadores amadores de sua época, que eram vendidos como kits, o Apple I era constituído por uma placa de circuito totalmente montada, com aproximadamente 60 chips. Contudo, os usuários precisavam adicionar equipamentos para fazê-lo funcionar: um case, transformadores de energia, interruptor, teclado e vídeo. De qualquer maneira, o Apple I foi uma máquina inovadora para sua época.
Em abril de 1977, seu preço foi caiu para US$ 475. A máquina continuou a ser vendida até agosto do mesmo ano, apesar da introdução do Apple II em abril de 1977. Em outubro, a Apple abandonou o Apple I. Como Wozniak era a única pessoa que poderia responder a maioria das perguntas de suporte ao cliente sobre o computador, a empresa ofereceu descontos aos proprietários do Apple I para a compra do Apple II, além de persuadir os compradores a devolverem o computador inicial. O material que retornou foi destruído pela Apple, contribuindo para a sua raridade hoje em dia.
Até 2013, tinha-se conhecimento da existência de, ao menos, 61 Apple I, contudo, apenas seis estavam funcionando. Em maio de 2013, um destes computadores com condições de uso foi vendido em um leilão em Cologne, na Alemanha, por US$ 668 mil. Esta máquina tinha a assinatura de Wozniak, uma carta comercial escrita por Jobs e o manual de instrução original, artigos que, certamente, ajudaram a elevar bastante o preço.

12.312 -Mega Byte – Como deixar seu PC mais rápido sem precisar instalar qualquer programa


☻Mega Arquivo, há 28 anos distribuindo conhecimentos

limpar disco
Para muitos usuários de PC com Windows, enfrentar a lentidão do sistema após alguns anos de uso é o principal motivo para uma troca de aparelho. Quem não pode ou não quer comprar um novo dispositivo, porém, muitas vezes recorre a softwares que prometem “limpar” o computador e deixá-lo milagrosamente mais rápido – o que, nem sempre, é o que acontece.
Em vez de instalar um programa dedicado que vai consumir memória RAM, processamento e espaço em disco no seu dektop ou laptop, você pode tirar manualmente do sistema o que quer que esteja impedindo seu funcionamento ideal. Confira abaixo algumas dicas de como fazer isso. Lembrando que, no Windows 8, todas as ferramentas citadas podem ser acessadas através da barra de pesquisas do menu Iniciar.

1 – Limpando o disco
O Windows possui sua própria ferramenta de limpeza de disco, que exclui todos os arquivos desnecessários armazenados por padrão no HD da máquina, como relatórios de erros e documentos tenporários. Para eliminá-los, vá até o menu Iniciar > Acessórios > Ferramentas do sistema > Limpeza do Disco. Selecione o disco que você quer limpar (por padrão, o sistema normalmente armazena arquivos descartáveis no C:), clique em “OK” e, na janela que se abre, marque os itens que você deseja eliminar. Depois disso, basta clicar em “OK” e aguardar o fim do processo (pode levar alguns minutos).

2 – Desfragmentar e otimizar unidades
Com o tempo de uso e alterações rotineiras, é comum que diferentes funções do sistema acabem ficando “espalhadas” pelo disco rígido, dificultando sua execução fluída. Para desfragmentar o sistema e juntar todos esses arquivos soltos em um mesmo local de fácil acesso, basta ir até o menu Iniciar > Acessórios > Ferramentas do sistema > Desfragmentador de disco. Na janela que se abre, clique em “Analisar disco” e, após a conclusão, clique em “Desfragmentador de disco”. O processo pode levar algumas horas, dependendo do quanto o seu sistema está fragmentado, portanto é recomendável deixar a ferramenta rodando e voltar a usar o PC mais tarde.

3 – Remover programas de execução automática
Alguns programas, após instalados na máquina, podem ser configurados sem a sua permissão para rodarem automaticamente assim que o PC é ligado. É o caso do aplicativo de updates da Adobe e o Skype, por exemplo. Você pode configurar cada um manualmente ou bloqueá-los de uma vez através das configurações do Windows. Abra o app Executar (pressionando Windows+R), digite “services.msc” (sem aspas) e pressione Enter.
Você verá na janela que se abre uma lista com os programas que iniciam automaticamente, manualmente e os desativados. Clique duas vezes no software que você considera desnecessário e está sendo executado sozinho e altere o tipo de inicialização para “manual” ou “desativado”. Outro caminho útil é, com a ferramenta Executar (novamente, pressionando Windows+R), digitar “msconfig” (sem aspas) e clicar em “OK”.
Nessa nova janela, clique na aba “Inicialização de Programas”. É nesta seção que você verá todos os aplicativos configurados para terem início automático, assim que o Windows começa a rodar. Você pode ocultar os softwares ligados ao sistema para não correr o risco de interromper alguma função importante e desativar os que você considera desnecessários.

Outras dicas
É importante manter sempre seu antivírus de confiança atualizado e operante para evitar a instalação indesejada de malwares ou adwares. Além disso, sugerimos que você mantenha sempre um olho no Gerenciador de Tarefas (Ctrl+Alt+Delete), monitorando quais programas estão abertos e o quanto sua memória RAM, CPU e disco estão sendo exigidos. Uma limpeza frequente, excluindo fotos, filmes, músicas ou outros arquivos antigos, também é recomendável.

12.282 – Mega Byte – Novo Wi-Fi consome 10 mil vezes menos energia e economiza bateria do smartphone


roteador
Pesquisadores da Universidade de Washington desenvolveram um sistema de Wi-Fi que tem como objetivo economizar a bateria dos dispositivos móveis. Tradicionalmente, boa parte da bateria de celulares e tablets é consumida na tarefa de buscar conexões o dia todo. O “WiFi passivo” usa menos energia do que uma conexão comum e chega a ser mais eficiente do que ele.
De acordo com os pesquisadores, o sistema utiliza 10 mil vezes menos energia do que os métodos convencionais, além de oferecer velocidades de transferência de até 11 megabits por segundo. Ele ainda consegue funcionar sem problemas a uma distância de até 3,3 metros.

Como funciona?
O Wi-Fi passivo recebe ondas analógicas em seus sensores, que praticamente não usam energia. De lá, elas são refletidas com um switch digital, o que é chamado de “Wi-Fi packets”. Segundo os pesquisadores, esse sinal é capaz de atingir grandes velocidades.
O novo padrão Wi-Fi é compatível

12.144- Mega Byte – Informações da internet podem ser armazenadas dentro do DNA


Antes de tudo, se esse novo método realmente funcionar, você poderá estar lendo esse texto em 3016. Se você ainda está em 2016, é melhor explicar: as informações guardadas na internet não vão ecoar infinitamente. Hoje, estamos bem servidos com os discos rígidos e servidores que sustentam a nossa rede, mas o passar dos anos vai tornar tudo isso obsoleto e ilegível. Então, como será possível armazenar o conhecimento humano, se não podemos confiar nem nos nossos computadores? Um time de pesquisadores da Suíça tem uma resposta inesperada: usando o DNA.
Em 2012, um estudo mostrou que é possível traduzir um megabyte, que é uma unidade de armazenamento de memória dos computadores, em informação dentro do DNA. Assim como o sistema binário utilizados nos computadores, o DNA tem a sua própria linguagem. No caso, essa é linguagem é escrita por sequências de nucleotídeos.
A grande vantagem do DNA é que ele consegue guardar uma enorme quantidade de dados dentro de um espaço minúsculo. Teoricamente, apenas 1 grama de DNA consegue carregar 455 exabytes de informação. “Só” isso é capaz de armazenar todos os dados do Google, Facebook, e de qualquer outra grande companhia de tecnologia, de acordo com a New Scientist. Ah, e ainda sobra bastante espaço.
O problema é que o DNA, assim como os meios de armazenamento que conhecemos, se degrada, reagindo com água e oxigênio. Os pesquisadores Robert Grass e Reinhard Heckel também têm a resposta: uma espécie de fossilização. O DNA sintetizado seria “embalado” em um vidro estável, mas como nem todo método é infalível, eles também se prepararam para os possíveis erros. Heckel pretente adicionar redundâncias, partes repetidas ao DNA. Assim, se alguma parte for perdida, ela poderá ser recuperada.

12.127- Mega Byte – Processador que usa a luz no lugar da eletricidade é 50 vezes mais rápido


processadoe veloz
Pesquisadores da Universidade do Colorado, nos Estados Unidos, criaram um processador que usa a luz no lugar da eletricidade para transmitir dados, o que o torna mais rápido. Em testes realizados em laboratório, o novo chip conseguiu atingir a velocidade de 300 Gbps, 50 vezes maior do que o normal.
Como funciona?
Os processadores tradicionais usam os circuitos elétricos para se comunicar uns com os outros e transferir informações. O problema é que para atingir uma velocidade alta, eles acabam consumindo muita energia elétrica.
Para solucionar a questão, os pesquisadores usaram a fotônica. De acordo com o estudo, enviar dados usando a luz no lugar da eletricidade reduz a carga de energia do chip porque a luz pode ser enviada a distâncias mais longas, usando a mesma energia.
“Os circuitos integrados baseados na luz podem levar a mudanças radicais na computação e rede de arquitetura de chip, em aplicações que vão desde smartphones, supercomputadores e até grandes centros de dados”, conta Miloš Popović, professor da universidade.

11.805 – Tecnologia na Educação – APPs para Estudar


app p estudar
Em muitas escolas, a tecnologia chegou à sala de aula já há algum tempo – inclusive em alguns colégios públicos como este aqui, na Zona Norte de São Paulo. Há três anos eles adotaram uma plataforma digital para que o professor desenvolva aulas mais interativas em uma realidade mais próxima ao dia a dia dos alunos; afinal, por aqui, todos nasceram imersos em tecnologia.
Todas as matérias do ensino médio contam com conteúdo digital. Durante a aula, enquanto o professor apresenta animações, vídeos e plataformas interativas na lousa digital, os alunos acompanham tudo pelo notebook de suas carteiras. O foco na aula é total…
Com a implementação da novidade, o colégio já consegue medir a evolução dos alunos e até o aproveitamento das aulas.
Fora da escola, em época de ENEM e Vestibular, quem estuda sabe, o que é transmitido na sala de aula não é suficiente. É preciso estudar – e muito! E para o pessoal que vive conectado, se concentrar nos estudos é cada vez mais difícil com tantas distrações atraentes como as notificações do Whatsapp ou o próprio Facebook. Se desconectar é um martírio para essa juventude, a boa notícia é que existe uma lista grande de aplicativos para ajudar quem realmente quer (ou precisa) estudar.
As opções são variadas e estão disponíveis para todas as plataformas móveis. Tem app para criar uma agenda com horários, datas e locais de prova. Neste outro é possível criar um planejamento de tudo o que você tem que estudar; e, no final, conferir como foi seu progresso durante os estudos. Existem ainda aplicativos de manual de redação, outro que bloqueia todos os outros distrativos enquanto você estiver estudando e até simulados com questões de disciplinas.

11.766 – Mega Byte – 7 a 1 na Tecnologia: Alemanha promete internet de 50 Mbps a todos os cidadãos


internet.
Enquanto isso, no Brasil…
O Ministério de Transportes e Infraestrutura Digital da Alemanha anunciou uma ideia ambiciosa que prevê disponibilizar internet de pelo menos 50 Mbps a todos os cidadãos do país até 2018.
Alexander Dobrindt, responsável pela pasta, prometeu investir € 2,7 bilhões para viabilizar o projeto. O principal foco é estender o acesso a locais onde as companhias não demonstram interesse de investir, mas as comunidades também terão de fazer algum esforço para que isso dê certo.
O projeto atuará de três formas. Em uma delas, as comunidades fecharão as lacunas deixadas pelas empresas; noutra, elas ficarão responsáveis por fornecer infraestrutura passiva (como cabos de fibra óptica), que depois poderá ser alugada às empresas. O último modelo prevê uma mistura dos dois primeiros.
O governo federal contribuirá com até 50% dos gastos, sendo que os Estados podem financiar outros 40%. Os 10% finais ficam com as comunidades.
Caso o plano funcione, dentro de três anos a Alemanha terá conexão mínima dez vezes superior à média mundial, que, de acordo com o último relatório State of the Internet, é de apenas 5 Mbps. Atualmente, cerca de 70% das famílias locais já contam com uma conexão dessa velocidade.

11.694 – Mega Byte – Novo golpe tenta roubar senhas dos usuários do Facebook


Face "falta de assunto"
Face “falta de assunto”

A empresa de segurança ESET alerta sobre um novo scam que circula nas redes sociais com o objetivo de roubar senhas dos usuários. Para atrair as pessoas, os cibercriminosos utilizam vídeos de falsos sites no Facebook. Ao clicar sobre a publicação, a vítima acessa um link encurtado e é direcionada para uma página falsa.
Ao contrário de outras campanhas maliciosas que são ativadas por um único tipo de vídeo, o novo golpe utiliza cinco falsos sites, com mais de 30 tipos de vídeos. A técnica utilizada ajuda a ampliar o número de potenciais vítimas do ataque.
Uma vez que o vídeo é selecionado pelo usuário, a pessoa é direcionada para uma página, na qual é solicitado o compartilhamento do conteúdo na linha do tempo de seus amigos. Ao confirmar a opção, outra janela se abre e uma nova autenticação na rede social é requerida. No entanto, trata-se de um domínio totalmente diferente, que, na verdade, é uma página falsa onde o cibercriminoso rouba as credenciais da conta do usuário.
Segundo Camilo Di Jorge, gerente geral da ESET no Brasil, os atacantes utilizam golpes de engenharia social para enganar os usuários desavisados. “Recomendamos sempre verificar a URL para se certificar que está logado na página correta e seguir as orientações de segurança ao navegar nas redes sociais”, orienta.

11.692 – Mega Byte – Dicas para descobrir espiões na rede


roubo na net
Há sempre a preocupação de que alguém possa estar “roubando” o seu sinal, ou seja, conectando-se à sua rede sem permissão.
É possível fazer essa verificação de vários modos. A mais simples é olhar os LEDs do seu roteador, para ver se ele está piscando mais do que o usual. Porém, caso haja outros aparelhos conectados à sua rede, você não conseguirá identificar nenhuma alteração.
Uma alternativa é acessar as configurações do seu roteador. Todo modelo apresenta uma lista com as conexões ativas naquele momento. Isso possibilita o bloqueio de qualquer atividade estranha. Ainda que cada aparelho possua a sua própria interface, é possível acessar as configurações, normalmente disponíveis no endereço: http://192.168.0.1.
Uma última opção é utilizar programas capazes de identificar conexões estranhas. Um deles é o SoftPerfect Network Scanner. O software faz uma listagem de todos os IPs e aparelhos conectados à sua rede.
Abaixo, listamos o passo a passo para você checar os dispositivos conectados. Caso você possua 7 aparelhos conectados, mas a lista apresentar 10, há algo errado.

soft segurança

soft seg
O modo mais simples de evitar conexões estranhas é resetar o roteador e alterar as suas configurações:
Trocar o nome da rede (SSID) e a senha de acesso. Sem isso, o equipamento usará um nome padrão de fábrica e sem senha, facilitando a descoberta por um possível cibercriminoso.
Criptografia WPA2: o WPA ou WPA2 são protocolos muito mais seguros que o WEP, que pode ser quebrado com facilidade.
Desativar WPS (WI-Fi Protected Setup): o recurso gerencia a segurança mas ainda continua vulnerável. Em algumas horas, o PIN de 8 números pode ser quebrado por um ataque de força bruta, deixando a rede exposta.
Ativar filtro de MAC: com isso, apenas os aparelhos autorizados poderão se conectar à rede. Cada dispositivo possui uma placa de rede própria, identificada por números e letras. Ao cadastrar essa informação no roteador, apenas tais endereços terão acesso.
Desativar exibição do nome da rede (SSID): desse modo, a rede torna-se invisível para outras pessoas.
Definir senha para modificar configurações: além da senha de acesso à rede, é importante criar outra para mexer no roteador em si.
Atualização de firmware: isso soluciona erros de segurança amplamente conhecidos, uma vez que um software desatualizado significa mais brechas.