13.957 – Mega Byte – Uber acumulou prejuízo de quase US$ 2 bilhões em 2018


Uber
A Uber continua sendo um buraco negro de dinheiro. A empresa continua perdendo quantias bilionárias ano após ano, como revela o relatório financeiro mais recente divulgado pela companhia de transporte. Em 2018, o prejuízo acumulado foi de US$ 1,8 bilhão.
Apesar de o valor parecer assustador, a notícia não é exatamente ruim. A Uber conseguiu reduzir o prejuízo anual na comparação com 2017, quando havia perdido US$ 2,2 bilhões. Da mesma forma, as receitas anuais chegaram à casa dos US$ 11,3 bilhões, o que representa uma alta considerável de 43% na comparação com o aferido em 2017.
Os números da empresa são importantes porque a empresa está se preparando para a abertura de capital. Espera-se que o processo de IPO, que foi aberto confidencialmente (mas que já vazou), seja um dos maiores da história, movimentando quantias gigantescas. A empresa precisa provar a investidores que seu modelo de negócios é viável a longo prazo para isso se concretizar.
Um dos desafios enfrentados pela Uber é a concorrência pesada em múltiplos mercados. Nos EUA, a Lyft é um exemplo; no próprio Brasil, a 99, que pertence à gigante chinesa Didi Chuxing, se estabeleceu como um desafiante à altura. Outros países e regiões veem situações similares, o que força a Uber a reduzir preços de corridas, reduzir margens de lucro para pagar mais a motoristas e investir pesado em marketing e recrutamento.
Os números anunciados pela Uber mostram que a empresa ainda está em franca expansão, o que são boas notícias. No entanto, a empresa ainda precisa provar que pode transformar esse crescimento em lucro em algum momento. Até então, a Uber tem se sustentado graças a investimentos bilionários feitos por empresas interessadas em ter uma participação na companhia.

13.750 – Mega Byte – Quando surgiu o youtube?


you tube
A palavra “youtube” foi feita a partir de dois termos da língua inglesa: “you”, que significa “você” e “tube”, que provêm de uma gíria que muito se aproxima de “televisão”. Em outras palavras seria a “televisão feita por você”. Essa é justamente a principal função do fenômeno da internet: permitir que os usuários carreguem, assistam e compartilhem vídeos em formato digital.
O Youtube foi criado em fevereiro de 2005, por Chad Hurley e Steve Chen, dois funcionários de uma empresa de tecnologia situada em São Francisco, EUA. O site surgiu em virtude do inconveniente que era compartilhar arquivos de vídeo, já que estes eram muito grandes, o que dificultava seu envio por e-mail.
O site permite que os usuários coloquem seus próprios vídeos na rede, sendo visualizados por qualquer pessoa no mundo inteiro. O Youtube utiliza o formato Macromedia Flash para reproduzir os conteúdos, além de permitir que usuários coloquem os vídeos em seus blogs e sites pessoais. Todo o potencial do Youtube foi reconhecido pela revista americana Time, que elegeu o site como a melhor invenção de 2006.
Devido ao grande sucesso do Youtube, em outubro de 2006, a gigante Google anunciou a compra do site pela quantia de US$1,65 bilhão, unificando os serviços do seu próprio site de compartilhamento de vídeos, Google Vídeo, ao Youtube. A principal regra do site é o não-compartilhamento de vídeos protegidos por direitos autorais, fato que na maioria das vezes não é cumprido.
Outro fato que chamou a atenção de todos foi uma determinação judicial no dia 05 de janeiro de 2007 que ordenava o bloqueio do site. Essa determinação havia sido ocasionada pelo polêmico vídeo envolvendo uma apresentadora de TV trocando carícias com seu namorado em uma praia espanhola. Isso acarretou o bloqueio de cerca de 5,5 milhões de usuários brasileiros, o que fez despertar uma onda de protestos contra a medida. No dia 09 de janeiro foi declarado que o site não deveria ser bloqueado.
Estima-se que diariamente cerca de vinte mil novos vídeos são carregados e trinta milhões são assistidos no Youtube.

13.207 – Mega Byte – O Sistema Blackbox da Linux


black box linux
É um gerenciador de janelas livre para sistemas Unix-like com X Window System. Se destaca pela leveza, sendo ideal para quem usa micro-computadores com poucos recursos e não quer abrir mão de uma interface gráfica. Um usuário conta que o Blackbox roda satisfatoriamente em um 486DX4 (66 MHz) com 16MB de memória RAM. Outras características são seu estilo minimalista e a capacidade do usuário personalizar seu visual a partir de temas. É escrito em C++ e contém código completamente original.
Blackbox é portável, podendo ser compilado e executado nos seguintes sistemas operacionais
BSD (principal plataforma de desenvolvimento)
Linux
IBM OS/2
Windows (under Cygwin)
Windows chamado BB4Win
Apple Mac OS X
Sun Solaris
SGI Irix
HP HP/UX
O Blackbox teoricamente roda em qualquer arquitetura.
O sucesso do BlackBox gerou alguns projetos derivados que se propuseram a continuar sua linha inicial de desenvolvimento – mas adicionar novos recursos. Alguns desses projetos são:

FluxBox
OpenBox
Um dos grandes motivos do sucesso do Blackbox e de suas variações é o fato dele ser uma interface completamente nova, diferente do Windows, MacOS, KDE e Gnome. O Blackbox foi desenvolvido do zero, tendo em mente um ambiente simples e rápido, mas ao mesmo tempo funcional. A página oficial é a http://blackboxwm.sourceforge.net
A interface do Blackbox é bastante simples. O iniciar pode ser acessado clicando com o botão direito sobre uma área vazia qualquer da área de trabalho
A barra de tarefas do Blackbox tem um layout bastante reduzido. As setas da esquerda permitem alternar entre as áreas de trabalho (você pode manter programas diferentes abertos em cada uma), enquanto as setas da esquerda alternam entre as janelas abertas

10.862 – Telefonia Móvel – Como a inteligência artificial está melhorando o teclado do seu celular


app p cel
Se você já procurou algum teclado alternativo para Android ou iOS, certamente já conhece o SwiftKey. O aplicativo já é bastante popular graças a sua capacidade de aprender com o usuário e oferecer sugestões de texto, mas a empresa quer ir além. O próximo passo é a utilização de redes neurais em miniatura para conseguir oferecer resultados mais precisos.
Antes de tudo, é necessário entender como a versão atual do aplicativo funciona. Hoje, o SwiftKey utiliza um algoritmo baseado em probabilidade para prever qual é a próxima palavra, com um toque de aprendizado com o que o usuário costuma digitar. Ou seja: ele pega as duas últimas palavras e consulta um banco de dados para deduzir qual será a palavra seguinte e economizar algum tempo. Só que este modelo de duas palavras, chamado “modelo n-grama” é bastante limitado, porque analisar três ou quatro palavras iria requerer um banco de dados muito maior, dificultando a busca.
Já o modelo de redes neurais é diferente, usado no aplicativo SwiftKey Neural, aplica conceitos de inteligência artificial. O algoritmo é “treinado” com milhões de frases e cada uma é representada por um pedaço de código, que permite que permite que palavras sinônimas sejam associadas de forma mais precisa, possibilitando uma previsão de texto mais profunda e diversa.
Assim, o modelo usa frases para analisa a frase inteira para conseguir prever a próxima palavra. Um exemplo citado pelo Engadget é a frase “Meet you at the…” (uma frase informal como “te encontro no…”). O modelo antigo analisaria apenas as palavras “at the” (“no”) e sugeriria coisas sem sentido como “moment” (“momento”), “end” (“fim”) ou “same” (“mesmo”). Utilizando o conceito de redes neurais, é possível extrair um contexto do que foi digitado até então e sugerir palavras mais adequadas, como “hotel”, “aeroporto” ou “escritório”.
Contudo, vale observar que o aplicativo ainda não tem a personalização, que é o que faz o SwiftKey normal ser tão popular. O teclado ainda não é capaz de aprender com o usuário, e, portanto, não pode oferecer sugestões personalizadas, por funcionar de forma diferente do aplicativo básico. Isso não quer dizer que o recurso nunca vá existir, apenas que ele não existe neste momento.
Isso se deve ao fato de o aplicativo ainda está longe de estar pronto. Ele ainda está em fase alfa, que normalmente é um estágio antes de estar estável o suficiente para ser chamado de beta, o que significa que ele nem sequer é recomendável para o grande público, voltado apenas para entusiastas.

11.725 – Para que serve um provedor de internet nos dias de hoje?


fax modem
O barulho do fax modem é sinônimo de uma nostalgia gostosa dos princípios da internet, no início dos anos 90. Para outros, o ruído acorda um fantasma do passado e traz lembranças das inúmeras quedas de conexão e contas altíssimas de telefone no final do mês. Quem experimentou a internet com conexão discada certamente conheceu algum provedor de acesso; entre os de maior destaque, podemos destacar o iG, o Terra (antigo ZAZ) e o UOL, por exemplo.
Na época da internet discada – cerca de 20 anos atrás, o provedor de internet era figura obrigatória na contratação do serviço. Naquele tempo, as operadoras de telefonia não podiam fazer o papel de provedores; regulamentos proibiam que as teles fizessem qualquer coisa além de telefonia. Assim, o provedor era indispensável para que fosse feita a autenticação do usuário. Mais do que isso, o provedor era também a camada que oferecia os protocolos necessários para navegar na web e utilizar os serviços oferecidos.
Desde 2013, a partir de um novo regulamento, a Agência Nacional de Telecomunicações acabou com a obrigatoriedade da contratação de provedores para realizar a conexão à internet. A partir de então, além de oferecer toda infraestrutura física de conexão (com cabos, rádios, modens, etc.) as operadoras passaram a ser obrigadas a prover também o serviço de acesso à web.
A banda larga chegou ao país no ano 2000. Hoje ela é responsável pela conexão de 97,7% dos lares com acesso à rede no Brasil; ou seja, a conexão discada só responde por 2,3% dos acessos. E se para a banda larga a própria operadora pode oferecer o autenticador de conexão, no acesso discado ainda é necessária a presença de um provedor. A diferença é que agora a operadora é obrigada a oferecer o serviço completo de acesso à internet; ou seja, mesmo que um provedor seja necessário, este serviço não pode ser cobrado a parte.
Algumas operadoras, mesmo em serviços de banda larga, ainda optam por terceirizar a etapa do acesso com provedores. É uma decisão do modelo de negócio de cada empresa. O importante saber é que você, seja com conexão discada – que requer a presença do provedor – ou com banda larga – que o dispensa, não precisa pagar nada extra pela autenticação de acesso à internet.
É questão de tempo para que esses poucos mais de 2% de conexões discadas se tornem definitivamente coisa do passado por aqui. Enquanto isso, se você tiver curiosidade de saber como a sua internet chega literalmente até sua casa, veja uma reportagem recente que fizemos explicando a diferença das tecnologias de transmissão dos dados. Confira e fique por dentro. O link para assistir mais essa matéria está logo abaixo deste vídeo no nosso portal.

11.278 – Mega Byte – Vulnerabilidade no Windows permite roubar informações de milhões de usuários


tranca
Pesquisadores da empresa de segurança Cylance descobriram uma variação de uma antiga falha no Windows que pode permitir que hackers roubem credenciais de login de milhões de PCs em todo o mundo.
A vulnerabilidade, chamada de ‘Redirect to SMB’, aproveita recursos do Server Message Block do Windows e é similar a uma descoberta do final dos anos 1990 que aproveitava uma brecha no sistema e no Internet Explorer para tornar fazer o Windows realizar login num servidor controlado por hackers.
A Cylance afirma que caso um hacker consiga fazer um usuário clicar num link malicioso, é possível sequestrar as comunicações e roubar informações sensíveis do computador, já que ele fica logado no servidor criminoso.
Por enquanto a técnica não foi vista em computadores comuns, apenas recriada em laboratório. A Microsoft declarou que a ameaça não é tão grande quanto a Cylance afirma.

10.601 -☻Mega Byte – Descubra se tem alguém roubando o seu Wi-Fi


roteador

O aplicativo “Who Uses My Wi-Fi”, disponível somente para iOS, chega com a proposta de contar exatamente quem está usando o seu sinal de internet. O serviço simples e gratuito permite ao usuário descobrir todos os aparelhos que estiverem conectados à sua rede sem fio. Inclusive aqueles que não lhe pertencem.
O principal objetivo do aplicativo é tentar explicar o baixo desempenho da sua internet sem fio. Para instalar, basta ir até a AppStore.
Funcionando de duas maneiras, o app mostra quem é o “invasor” e também dá a solução para esse problema. Com a opção “Network Monitor” você conseguirá encontrar todos os aparelhos que estão utilizando sua Wi-Fi. E caso encontre algum com um IP desconhecido, ative o “Key Generator” para alterar sua senha e acabar com a felicidade do ~ladrão~ de Wi-Fi.

10.592 – Mega Byte – Facebook muda algoritmo — e fica mais parecido com Twitter


facelixo

O Facebook anunciou recentemente, mudanças no modo como os conteúdos serão exibidos na rede social. Nos próximos dias, a relevância das fotos, textos e vídeos publicados por seus usuários será definida por dois novos critérios: a presença do assunto entre os tópicos mais comentados na rede — área conhecida como Trending Topics —, e a quantidade de comentários e de ‘curtidas’ que um conteúdo recebe nos primeiros minutos em que ele foi publicado. Não há informações relativas de quando os brasileiros serão impactados com as reformulações.
O acréscimo desses critérios no peso da visualização de um conteúdo é um pedido antigo de seus usuários — principalmente aqueles que acessam o serviço por meio de dispositivos móveis: muitos criticam a rede pela insistência do destaque a publicações antigas, que permanecem por horas (ou dias) na linha do tempo. Segundo o Facebook, os testes realizados previamente com um grupo específico de usuários renderam acréscimo de 6% no engajamento dos usuários com os conteúdos — entenda-se aqui curtir, compartilhar ou clicar nos posts publicados na rede.
O capítulo de privilegiar assuntos mais populares revela, mais uma vez, uma batalha inusitada dos dois gigantes digitais: a de copiar um ao outro. Assim, os adversários emulam modelos que, em algum momento, tiveram êxito e caíram no gosto dos usuários do oponente. Foi assim com o uso da hashtag, popularizado pelo Twitter e, posteriormente, incorporado ao Facebook; foi assim também com os perfis de personalidades e páginas de marcas, que receberam, em 2010, um selo de autenticidade do Twitter para atestar que um perfil, de fato, é administrado por seu titular de direito. A funcionalidade, posteriormente, foi reproduzida na maior rede social do planeta.

10.415 – Microsoft confirma plano de unificar Windows e Windows Phone


Há meses se especula que a Microsoft planeja unir todos os seus sistemas operacionais (Windows tradicional, Xbox e Windows Phone) em apenas um e agora finalmente há uma confirmação oficial. O CEO Satya Nadella revelou que a próxima versão do Windows unirá os três sistemas em um só.
“Isso significa que um sistema irá cobrir todos os tamanhos de tela”, ele afirmou durante conferência com acionistas realizada na noite de terça-feira, 22. Assim, o Windows 9 provavelmente cobrirá PCs, laptops, tablets, smartphones e o Xbox.
Até agora, a Microsoft tinha diversas equipes trabalhando em múltiplos softwares simultaneamente. A abordagem era semelhante à dos concorrentes: você tem um time trabalhando no sistema operacional móvel (iOS, Android e Windows Phone) e outro desenvolvendo um software para desktops e laptops (Mac OS, Chrome OS e Windows). Agora, no entanto, sob o comando de Nadella, isso deve mudar.
“Agora nós teremos uma equipe apenas com uma arquitetura em comum”, afirma o executivo, sem detalhar como isso funcionará na prática. Segundo ele, no entanto, a medida deverá beneficiar usuários e desenvolvedores, permitindo a criação de aplicativos universais para a plataforma. Isso poderia ser a solução para a tão lembrada falta de apps específicos para Windows Phone e Windows 8, já que com uma base de usuários maior, o interesse em desenvolvimento também deve aumentar.
A empresa já tem falado em unificação de plataformas há algum tempo, a ponto de, durante a Build 2014, evento anual com desenvolvedores, a Microsoft apresentar as ferramentas para criação de apps universais.

9025 – Mega Byte – O que era o programa Napster?


napster11

Foi um programa que possibilitava o compartilhamento de músicas na internet pelo sistema P2P. Criado em 1999 pelos jovens Shawn Fanning e Sean Parker, a rede de troca de arquivos causou uma reviravolta na indústria fonográfica, gerando diversos protestos de artistas que alegavam ter sua propriedade intelectual sendo roubada.
O banda de heavy metal Metallica, encabeçando a causa com o baterista Lars Ulrich, tornou-se um símbolo da luta contra a troca de arquivos, colocando-se publicamente em posição contrária ao compartilhamento de mp3 na internet. Um fato curioso ocorreu em 2000 quando, de forma irônica, o criador do programa Shawn Fanning compareceu ao MTV Video Music Awards vestido com uma camiseta do Metallica. Quando perguntado sobre o porquê de estar usando aquela roupa, respondeu, “um amigo compartilhou comigo”, fazendo uma analogia ao termo share (compartilhar), que ficou famoso no mundo todo após o início das atividades do Napster.
O Napster funcionava da seguinte forma: qualquer pessoa com acesso à internet poderia fazer download de arquivos de um computador ou compartilhar músicas de diversos usuários de forma descentralizada. Na plataforma, cada computador ligado à rede apresentava funções de cliente e de servidor.
Um dos primeiros caminhos do Napster até o Brasil ocorreu pelo jornal Folha de São Paulo, que na época publicava, semanalmente, o suplemento Folhateen. Na matéria do caderno foi apresentado um passo a passo para a instalação do programa, desde o local para efetuar o download da plataforma até a fase de compartilhamento de arquivos com outros usuários.
Tamanho foi o alcance do Napster que, no ano 2000, acabou tornando-se uma empresa. Isso ocorreu devido ao número de pessoas que aderiram à ideia de Fanning. A cada semana, o número de usuários se multiplicava. O programa era a nova droga do início do século XXI, chegando ao pico de oito milhões de usuários em 2001, que compartilhavam 20 milhões de arquivos.
Porém, naquele mesmo ano, o Napster acabou sendo fechado depois de diversas ações legais contra o programa. Empresas como Warner e Sony moveram processos contra a plataforma alegando que os arquivos compartilhados também eram protegidos pela lei de direito autoral.
Porém, entre os artistas, muitos demonstraram-se favoráveis ao compartilhamento de arquivos. Um exemplo é Tom Morello (Rage Against the Machine), que se declarou contrário à decisão de sua gravadora, na época, a Sony, de proibir a troca virtual de faixas do álbum Renegades. Além disso, disponibilizou músicas do álbum no site oficial da banda.
Pode-se dizer que as gravadoras, naquele período, conseguiram diminuir o compartilhamento de arquivos na internet. Porém, o conceito de troca de arquivos já estava disseminado no mundo inteiro e novos programa com o mesmo objetivo foram criados, afetando o mercado da indústria fonográfica para sempre. Plataforma novas surgiram, como Audiogalaxy, Morpheus, eDonkey, Kazaa, WinMX, Bitshare e Pirate Bay.

8706 – Mega Byte – A Ciência da Computação II


Um breve reforço nos conceitos básicos…

É a área que estuda o uso e implementação dos algoritmos em computadores e softwares. Através de campo de conhecimento matemático torna-se possível suprimir processos de cálculos matemáticos e soluções de problemas através do uso de dispositivos mecânicos e eletrônicos.
Entre as ferramentas e dispositivos destacamos o computador digital e seus demais componentes tecnológicos. Outra ferramenta fundamental é o software que de forma geral oferece programas para registros, segurança digital, especificações, modelagens, testes e codificações de números e linguagens.
A ciência da computação, através de seus produtos, tem envolvido toda a sociedade global através do barateamento dos computadores, do acesso à Internet e ao conteúdo da mesma. Porém, uma das primeiras ferramentas desta ciência não foi um dispositivo eletrônico, e sim mecânico, o ábaco.
O ábaco foi inventado em torno de 2.400 a.C, na Mesopotâmia, e servia para desenhar linhas na areia com rochas. Os indianos, entre os anos 200 a.C e 400, criaram o logaritmo; que no século XIII, passou a ser estudado pelos islâmicos em tabelas logarítmicas.
Os indianos, através do estudo do matemático Pingala, desenvolveram o sistema de numeração binário, que até os dias atuais, estabelece que sequências específicas de “um” e “zero” podem representar informações de vários sentidos. Leibniz, matemático e filósofo , desenvolveu a lógica binária, na qual um e zero poderiam representar os conceitos de ligado ou desligado.
Os modelos matemáticos para o processamento da computação surgiu através da álgebra booleana, criada por George Boole em 1854. Antes, em 1837, Charles Babbage idealizou uma máquina similar à ideia de computador que viria a existir em meados do século XX, o equipamento que havia desenhado nunca foi construído e pertencia ao seu engenho analítico. Charles Babbage imaginou a ideia de programar algo através de uma máquina, o que se materializou nos computadores modernos.

8571 – ☻Mega Byte – Governo dos EUA monitora quem baixa arquivos do BitTorrent


Os torrents mais populares da internet estão grampeados – e capturam os endereços dos computadores que estão fazendo download. Essa é a conclusão de um estudo da Universidade de Birmingham, que analisou os arquivos do site The Pirate Bay. O esquema é o seguinte. Quando você baixa um torrent (do Pirate Bay ou de qualquer outro site), o seu computador entra em rede com outras pessoas, que também estão compartilhando aquele arquivo. Só que algumas dessas pessoas, na verdade, são robôs mantidos pelo FBI e por organizações que reúnem gravadoras e estúdios de Hollywood (RIAA e MPAA). Os robôs capturam o endereço IP do seu computador, fazendo com que você possa ser identificado e processado – prática ainda inexistente no Brasil, mas relativamente comum nos EUA.
Segundo o estudo, o monitoramento existe há pelo menos 3 anos. É provável. Tanto que desde 2009 existe um software, o PeerBlock, que promete detectar e barrar os robôs – ele mostra, em tempo real, quem está conectado ao mesmo torrent que você (e bloqueia supostos espiões). Seus criadores dizem que o objetivo não é favorecer a pirataria, e sim resguardar o direito que as pessoas têm de não serem monitoradas enquanto usam a internet.

8078 – Mega Byte – Chip de DNA economiza memória


O químico americano Lloyd Smith, da Universidade de Wisconsin, desenvolveu uma nova técnica para construir um chip que usa DNA em vez de circuitos de silício. Ele grudou algumas moléculas em uma placa de ouro e usou o instrumento para resolver uma conta. A tecnologia economiza memória. Enquanto os computadores tradicionais só entendem zero e um, o computador de DNA trabalha com quatro símbolos – zero, um, dois e três. Para você ter uma ideia, o número 8 para um PC se escreve 1000, ocupando quatro lugares na memória. O de DNA escreve o 8 como 20, usando só dois algarismos.

7878 – Mega Byte – Pesquisadores demonstram fragilidade da criptografia na web


As tecnologias de criptografia Transport Layer Security (TLS) e Secure Sockets Layer (SSL), que tentam impedir o acesso de hackers e terceiros a emails e serviços bancários, podem ser vencidas com um novo método exposto por pesquisadores no evento Fast Software Encryption, organizado pela International Association for Cryptologic Research e que terminou no último dia 13 de março.
O professor Dan Bernstein, da Universidade de Illinois em Chicago, e seu colega Kenny Paterson, professor na Universidade de Londres, mostraram no trabalho “Falhas da chave secreta de cripgrafia” que o uso do sistema RC4, o mais popular em criptografia na internet e utilizado pelo TLS e SSL, pode ser comprometido se o invasor conseguir efetuar milhões ou bilhões de tentativas para descriptografar o conteúdo.
Por mais que essa quantidade de tentativas pareça absurda, os pesquisadores alertam que essa é a técnica disponível atualmente, mas que pode ser aperfeiçoada por hackers para ficar mais eficaz e ser explorada em menos de 32 horas. Além disso, falhas em navegadores como Chrome, Firefox, Internet Explorer e Safari podem permitir a inclusão de anúncios maliciosos em alguns sites, que conforme o usuário navegar pela internet, podem sequestrar cookies, o que também agilizaria o trabalho de descriptografia.
O professor Matthew Green, da Universidade de Johns Hopkins, falou que o novo tipo de ataque é refinado e otimizado. “As pessoas encontram melhores maneiras de fazer isso. Os números que estamos vendo agora são altos, mas vão ficar melhores. É possível que isso seja otimizado para funcionar melhor já”.
Outras técnicas recentes tem posto em xeque a segurança da criptografia na rede. Em 2011, a ferramenta BEAST conseguia roubar transações via PayPal. Em fevereiro deste ano, o ataque Lucky 13 mostrou como interceptar cookies para vencer a criptografia SSL.

7654 – Mega Byte – O que é a Internet Profunda?


A deep web nada mais é do que aquilo que não aparece na internet convencional, ou seja, na surface web, que é tudo aquilo que é visto em buscadores, como o google. Este site, por exemplo, está no google, logo, está na surface web.
Um estudo realizado em Julho de 2001 pela empresa BrightPlanet estima que a web profunda poderá conter 500 vezes mais recursos do que a web indexada pelos motores de busca. Estes recursos, além de serem volumosos, muitas vezes são de grande qualidade.
A web da superfície (acessível através dos motores de busca, por exemplo) tem um tamanho de cerca de 167 terabytes. De acordo com estudos da Universidade de Berkeley, o tamanho da web profunda é estimada em cerca de 91 mil terabytes.
Em 2008, a web chamada “invisível” não referenciado pelos motores de busca representa 70 a 75% do total, ou seja, cerca de um trilhão de páginas não indexadas.
A grande questão é, o que se esconde na deep web? O que é tão confidencial que não pode vir a domínio público?
Claro, provavelmente há muita coisa inocente, tal como sites de amigos, comunidades específicas, sites de ARGs, que simplesmente não querem ser incomodados.
Mas e o lado negro?
No 4chan, site de imagens de onde saem todas as lendas e memes conhecidos pelo homem.
Lá, havia o relato de um fórum de crackers, que só podia ser acessado através de desencriptação específica (que serve mais ou menos como um teste, para que só os melhores, ou no mínimo os bons crackers acessem, e não qualquer lammer). E neste fórum, eles compartilham programas, tal como vírus e desencriptadores, para invadir sites, muitas vezes com objetivos financeiros, tal como bancos. E quantias grandes estavam envolvidas.
A questão é, que obviamente, na deep web, há muita coisa ilegal, chegando até mesmo a ser conspiratória.
Dizem as más línguas que há toneladas de snuff films (filmes de assassinatos feitos pelo o assassino, filmados por diversão – tipo aquele dos garotos ucranianos)
Outra coisa: há também sites de religiões mais undergrounds (satânicas), que envolvem quebrar a lei. Exemplo, canibalismo, sacrifício de seres humanos, etc…
Venda de drogas, mercado de órgãos, tráfico de seres humanos, e por aí vai.
Para ter acesso a esse tipo de sites mais “underground”, é necessário programas especiais, tal como thor ou freenet, que em teoria garantem o anonimato.
Cuidado ao buscar esse tipo de coisa. Pode te custar o sono, ou mais que isso…

A Web profunda contem, acima de tudo, bases de dados escondidas e inacessíveis sem realmente pesquisar, complexas e científicas pertencendo a laboratórios de pesquisa em tecnologia avançada: você quer pesquisar um pouco? (sem riscos)
Vá aqui http://www.incywincy.com e teste o impensável!

O ☻ Mega não aconselha ninguém a visitar esse sub-mundo da web, pois sem o devido conhecimento informático as consequências podem ser nefastas.

7614 – Mega Byte – 2045: o ano em que os computadores assumirão o poder


Um computador vai escrever o melhor romance de todos os tempos em um segundo, resolver o maior mistério da ciência em um décimo de segundo e descobrir o sentido da vida, do universo e tudo o mais em menos tempo do que você leva para terminar este parágrafo. Muitos de nós provavelmente estarão vivos quando esse dia chegar. O problema é saber como será o dia seguinte…
Já faz 15 anos que o Deep Blue, um supercomputador da IBM, bateu Garry Kasparov, o grande trunfo do xadrez do time da humanidade. Na época, houve quem desse pouco crédito à inteligência daquela máquina pelo fato de o jogo ser altamente matemático – ciência para a qual os computadores têm aptidão mais do que natural.
Na prática, não haveria uma grande “inteligência” ali. Só uma calculadora grande. Os computadores, então, poderiam até ser geniais, mas nunca saberiam “pensar como um humano”. Hoje essa visão não faz mais sentido. O Watson, outro supercomputador da IBM, conseguiu vencer em 2011 os dois melhores jogadores humanos no Jeopardy, um game show da TV americana. Trata-se de um jogo de perguntas e respostas que exige dos participantes uma baita habilidade com linguagem. São questões do tipo “Esse objeto, mesmo quando quebra, está certo duas vezes por dia.
A sobrevivência dos seres humanos dependeu basicamente do desenvolvimento da capacidade de criar extensões dos nossos corpos – ferramentas – e ao mesmo tempo ter a chance de nos especializarmos no uso delas. Podemos, portanto, resumir o cérebro humano em duas qualidades básicas: capacidade de processamento (para imaginar a ferramenta certa) e plasticidade (para se adaptar ao uso da tal ferramenta).
Primeiro vamos falar da capacidade de processamento. Qual é o desempenho computacional dos nossos miolos? Pesquisadores da IBM fizeram essa conta e estimam que o cérebro é capaz de atingir 36,8 petaflops – ou 36,8 quatrilhões de operações por segundo. Isso equivale a mais ou menos 1 milhão de PCs trabalhando em conjunto.
Coordenar o trabalho de tantos chips ainda é algo impossível com a tecnologia de hoje. Mas os supercomputadores têm avançado um bocado. Em 2012, o Sequoia, da IBM, conseguiu atingir 16,32 petaflops – quase metade da capacidade humana. Ainda assim, ele não faz nada tão incrível quanto nós fazemos – coisas como pensar que estamos vivos. Por quê? Para responder a essa pergunta, entra a segunda qualidade básica da sua cabeça: a plasticidade.
Seu cérebro é altamente maleável, adaptável. Conforme o sistema nervoso vai se desenvolvendo, diversas regiões cerebrais vão assumindo diferentes responsabilidades. Sabe-se, por exemplo, que há áreas determinadas para o processamento da linguagem. Também há partes específicas do cérebro que controlam partes diferentes do corpo, como os pés e as mãos.
Mas o melhor de tudo é que dá para adaptar o cérebro conforme o uso. É a plasticidade que permite, por exemplo, que um sujeito se torne um grande pianista. As áreas do cérebro referentes às mãos se expandem enormemente em quem treina piano durante muitos anos. “Nosso cérebro é um sistema projetado para aprender, para se moldar na interação com o ambiente”, diz o psicólogo Steven Pinker, de Harvard, um dos maiores especialistas no funcionamento da massa cinzenta. Os melhores cérebros eletrônicos de hoje funcionam basicamente assim. Ou seja: eles conseguem aprender. “As técnicas que evoluíram no campo da inteligência artificial são similares às tecnicas que o cérebro usa”.
Conforme a plasticidade dos cérebros eletrônicos aumente, é possível que uma hora eles fiquem tão complexos quanto o cérebro que você carrega. Kurzweil, que é o maior arauto dessa tese, estima que as máquinas chegarão a uma inteligência equivalente à humana em 2029. Sim, exatamente 2029. Ele chegou a esse número com base em projeções matemáticas sobre a evolução da capacidade de processamento. Claro que a previsão é polêmica – para muitos pesquisadores, cravar o ano em que algo tão imprevisível e insólito deve surgir é loucura.
Uma máquina com tamanho poder seria tão fascinante quanto perigosa. Por um lado, ela seria capaz de coordenar e executar todas as atividades hoje atribuídas a nós, como escrever um grande romance ou unificar numa só teoria a física quântica (que rege o universo subatômico) e a relatividade (que dita as ordens no mundo das coisas grandes) – algo que Einstein morreu tentando fazer. Tudo isso em questão de segundos.
Se você não pode vencê-los, junte-se a eles. Esse ditado vai fazer mais sentido do que nunca num mundo com máquinas bilhões de vezes mais inteligentes do que nós: juntar-se a elas pode ser o futuro da humanidade.
Bom, provavelmente caberá à máquina decidir se você vai saber que vive numa simulação. Ela pode achar que é melhor você não saber de nada, e ir tocando a vida achando que tem um corpo, que respira, que vai morrer um dia… Se for assim, inclusive, a singularidade pode já ter acontecido. E nós estaríamos vivendo agora mesmo numa ilusão, numa “Matrix”. Tal hipótese, ao menos filosoficamente, não tem como ser refutada, já que não dá para imaginar o que uma inteligência superior é realmente capaz de fazer. Ou de já ter feito.

7558 – Mega Byte – Google constrói maior usina solar dos EUA


O Google é um enorme consumidor de energia: tem centenas de milhares de computadores espalhados pelo mundo, funcionando 24 horas por dia. Por isso, faz vários investimentos em tecnologias de geração de energia. Inclusive uma usina solar gigantesca, que já está quase pronta. Ela se chama Ivanpah Solar Electric Generating System, está sendo construída no deserto de Mojave, no sul da Califórnia, e é a maior usina solar dos EUA. Ela terá a capacidade de gerar eletricidade suficiente para abastecer 140 mil residências. Sozinha, vai aumentar em 60% toda a produção de energia solar dos Estados Unidos.
A obra, que vai custar US$ 2,2 bilhões, é um investimento conjunto do Google e das empresas BrightSource e NRG Energy. Ela ocupa uma área correspondente a 1 300 campos de futebol, na qual estão distribuídos 346 mil espelhos. Esses espelhos refletem a luz solar para torres onde há caldeiras com água. O calor ferve a água, que vira vapor e movimenta as turbinas da usina, gerando eletricidade. A usina vai evitar a emissão de 640 mil toneladas de CO2 por ano – o equivalente a retirar 70 mil carros das ruas. “Precisamos construir um futuro de energias limpas”, declarou Rick Needham, diretor de negócios verdes do Google.
Mas a obra também tem um lado polêmico. Ela tem recebido críticas de ambientalistas porque vai afetar o habitat da Gopherus agassizii, uma espécie de jabuti do deserto que está ameaçada de extinção. A BrightSource se defende dizendo que vai investir US$ 56 milhões em medidas de proteção e realocação desse animal.

7549 – Mega Byte – Cientistas convertem arquivo de computador em DNA sintético


Pesquisadores europeus acabam de provar que é possível armazenar arquivos digitais em DNA.
Hoje, com o aumento exponencial do mundo digital, há uma necessidade crescente de memória para armazenar o conteúdo produzido.
Discos rígidos e dispositivos de memória flash (os gloriosos pen drives) são as opções mais comuns, mas exigem fornecimento de energia para operar, e a preservação magnética dos dados acaba se degradando com o tempo.
Em comparação, moléculas de DNA são extremamente estáveis. “Já sabíamos que o DNA é uma forma robusta de armazenar informação porque podemos extraí-la de ossos de mamutes, com dezenas de milhares de anos, e ainda assim compreendê-la”, diz Nick Goldman, do Instituto Europeu de Bioinformática, autor do novo estudo, publicado na “Nature”.
O fator mais complicado na hora de guardar informações em moléculas de DNA é escrevê-las de modo a conseguir recuperá-las mais tarde.
O DNA é composto por quatro bases nitrogenadas: C (citosina), G (guanina), T (timina) e A (adenina).
Até aí, ótimo –é até melhor que os computadores, que só trabalham com 0 e 1. O problema é “soletrar” o conteúdo –as técnicas de produção de DNA acabam levando a erros de “digitação”, principalmente quando duas letras iguais vêm em seguida.
Além disso, só se consegue hoje produzir sequências pequenas –nada como um cromossomo inteiro, com milhões de pares de base.
Os pesquisadores superaram esses problemas estabelecendo uma correlação entre bytes convencionais e bytes escritos em bases nitrogenadas, de forma a evitar a repetição de letras genéticas.
Depois, trabalharam com sequências pequenas, com superposições entre elas, e trechos que indicavam como deveriam ser reconstruídas.
Partindo de um arquivo de texto, um MP3, uma foto, um PDF e um arquivo de código (que explica como a conversão de arquivos é feita), a empresa californiana Agilent Technologies sintetizou uma amostra de DNA que mais lembrava um grão de poeira.
O material foi despachado pelo correio, sem cuidados especiais, para a Alemanha.
Ao chegar lá, Goldman e sua equipe “leram” o conteúdo do DNA e remontaram a sequência no computador.
O sucesso abre caminho para o uso prático da técnica, mas ainda é preciso melhorar a codificação e as técnicas de escrita e leitura do DNA para que isso se torne comercialmente viável.
Como o custo da síntese de DNA vem caindo, dizem os pesquisadores, esse esquema deve ser comercialmente praticável em uma década.
Eles destacam que seria possível armazenar todos os filmes e séries já produzidos –cerca de 100 milhões de horas de vídeo em alta definição– em uma xícara de DNA.
A técnica seria útil para preservação a longo prazo das cópias digitais definitivas que os grandes estúdios de cinema fazem de seus filmes.
Entretanto, não espere ter um disco rígido de DNA em sua casa. Para acesso rápido e constante aos dados, a memória magnética de hoje é bem mais prática. A vantagem do DNA é em preservar arquivos a longo prazo, com baixo índice de acessos.

Dna e byte

7521 – Tecnologia e Consumo – A explosão de consumo da nuvem digital


Desde que virou um dos mantras sustentáveis mais comuns do mundo, empresas e pessoas passaram a migrar arquivos de papel, fotos e tantos outros registros para CDs, DVDs, HDs etc. Parte do problema estaria resolvida, que beleza – mesmo que essas mídias, é claro, também ocupassem cada vez mais espaço em armários, gavetas e prateleiras.
Para que gravar seus arquivos em um DVD facilmente riscável cuja vida útil é de alguns anos? É tão melhor simplesmente salvar textos, fotos, vídeos etc. em um serviço externo, podendo acessar a qualquer momento, de qualquer dispositivo com acesso à internet.
E isso sem ocupar espaço na memória do seu computador. Eis a nuvem. Enfim estávamos livres de uma vez por todas da poluição causada por toneladas de papéis impressos, de toda aquela tinta, de embalagens desnecessárias e do espaço ocupado por discos rígidos e DVDs. Não poluiríamos mais. Só que não. A nuvem pode ser uma mágica eficiente e incrível, mas ela não brota do nada. Para fazê-la acontecer, é preciso outra tecnologia, também muitas vezes comparada à magia há alguns séculos: a eletricidade. E a eletricidade que alimenta a nuvem vem, na maior parte, da queima de carvão. A nuvem polui. E muito.
Cada vez que você posta uma foto no Facebook ou assiste a um vídeo no YouTube, no celular, no tablet ou no computador, todo um sistema de plataformas eletrônicas, conhecidas como data centers, é acionado. Essa infraestrutura é formada por dezenas de fileiras recheadas por servidores, que são sistemas de computação centralizadores que fornecem informações a laptops, tablets e celulares. Eles fazem, basicamente, a nuvem funcionar. E ela, é claro, não para nunca. Seu consumo de energia idem. Em 2010, um estudo do Greenpeace estimou que essa demanda era de 623 bilhões de kWh. Os mais de 2 bilhões de pessoas na internet consomem mais energia do que grandes países inteiros, como Brasil, Índia e Alemanha. E isso deve aumentar.
De acordo com uma pesquisa da empresa de consultoria McKinsey & Company, a maior parte dos centros de dados tradicionais emprega apenas de 6 a 12% dessa energia no processamento de dados. Todo o restante serve para manter o sistema de sobreaviso para atender a picos de acessos e evitar interrupções no fluxo de dados. Em suma, para que sites de notícia não deem pau durante as eleições americanas, por exemplo, há um gasto brutal de energia. E a maior questão é que 45% da matriz energética dos Estados Unidos, lar da maior parte dos mais de 30 milhões de data centers do mundo, vem do carvão mineral queimado em usinas termelétricas, que emitem gás carbônico e contribuem para as mudanças climáticas causadas pelo efeito estufa. Mas há uma boa notícia: a internet pode continuar funcionando (e crescendo) com menos poluição.

Se a internet é suja, a maior parte da culpa é das gigantes do setor que usam fontes de energia não renovável. Microsoft, Amazon, Twitter e HP, entre outras empresas de tecnologia, costumam ter notas negativas no relatório Quão Limpa é sua Nuvem?, feito pelo Greenpeace e um dos principais avaliadores de práticas sustentáveis de empresas de tecnologia. A pressão feita pela ong e outras instituições já está surtindo efeito. Cobrados, Google e Facebook já deram sinais de um uso mais responsável de energia. Depois de ser tido como mau exemplo pela falta de transparência, o Facebook passou a abrir parte de seus dados. De acordo com números da rede social, o consumo de energia de seus data centers em 2011 foi de cerca de 509 milhões de kWh, o equivalente ao de pequenos países inteiros, como Maldivas. Já o Google é maior. Estima-se que ele tenha 40 data centers, enquanto o Facebook usa menos de 15 – os números não são exatos, pois os dados a respeito são cercados de mistério. Em 2010, o Google consumiu 2 billhões de kWh, mais que todas as 700 ilhas das Bahamas.

Em 2011, o Google, valendo-se de antigos túneis construídos por uma fábrica de papel, inaugurou um data center no litoral da Finlândia. As máquinas usam a própria água do mar para controlar a refrigeração de suas máquinas, antes de devolvê-la em uma temperatura que não danifique o ecossistema.
á o Facebook inaugurou, em 2011, um centro de dados que dispensa o ar condicionado convencional, até então uma necessidade de qualquer data center (eles normalmente são mantidos a 14ºC, para evitar superaquecimento).As máquinas filtram o próprio ar disponível no entorno da fábrica para esfriar os equipamentos e, assim, tornam a operação 24% mais eficiente. O Facebook planeja inaugurar, em 2014, um megacentro de dados europeus em Lulea, na Suécia, a cerca de 100 quilômetros do Círculo Polar Ártico. A estrutura vai usar o clima da região para manter a temperatura e a umidade adequadas às operações.
As melhores maneiras de lidar com esse panorama são mesmo aumentar a eficiência, adotar fontes de energia renováveis, equalizar gastos de água e dispensar geradores e backups movidos a diesel para diminuir as emissões de gás carbônico. A outra opção, nada viável, seria deixar de lado os avanços tecnológicos que a nuvem propicia. Alguém aí está a fim de ficar sem suas centenas de fotos no Facebook?

Lixo Digital
O uso crescente de e-mail e redes sociais para armazenar arquivos às vezes é visto como vilão no debate sobre o consumo de energia dos data centers. Mas, antes de apagar seus blogs, álbuns de fotos e perfis online, saiba que não é bem assim. “A noção de que é preciso apagar fotos ou perfis desatualizados é pura perda de tempo. Primeiro porque tais informações raramente são realmente deletadas dos bancos de dados – elas permanecem armazenadas com uma bandeira indicando que foram apagadas”.Depois, porque vivemos em um mundo de abundância. A quantidade de dados trafegando pela internet é tão inimaginavelmente grande que o ato de apagar seu ‘lixo digital’ se compara com um átomo de uma gota d’água no oceano.

Maiores consumidores de energia elétrica (em bilhões de kwh)

EUA – 3 923
China – 3 438
Rússia – 1 023
Japão – 925
Nuvem – 623
Brasil – 404

– 120 Wh por mês é quanto um usuário comum do Google consome. Isso equivale a uma lâmpada de 60 W ligada por 3 horas. Parece pouco, mas em se tratando do maior site do mundo, com mais de 1 bilhão de buscas por dia, o consumo total é de 2 bilhões de kWh por ano, o mesmo que Rondônia.

– O Facebook diz que um usuário do site gasta em um ano energia suficiente para esquentar uma xícara de café. Soa ridículo. Mas a rede social tem mais de 1 bilhão de usuários e consome quase um Acre de energia: 509 milhões de kWh

– E a nuvem vai crescer. O tráfego quadruplicará em cinco anos. 6,6 zettabyte, ou 6,6 trilhões de gigabytes, é o equivalente a toda a população do mundo em 2016 (7,5 bilhões de pessoas) vendo 2,5 horas de vídeo em HD na internet todos os dias do ano.

7472 – Mega Byte, o be a bá da informática – Prazer, eu sou um PC


Não fique assim quando seu PC der pau
Não fique assim quando seu PC der pau

No caso do PC, as partes são cinco: sistemas de entrada e saída de dados, programas e discos de armazenamento, microprocessador e memória. Os sistemas de entrada (input, em inglês) são o teclado, o scanner, o mouse ou qualquer outro artifício que você utilize para dar ordens ao computador. Os de saída (output) são itens como a impressora e o monitor – eles lhe mostram os dados processados pela máquina.
Os discos de armazenamento, sejam magnéticos, como os obsoletos disquetes, pen drive, cartão de memória ou ópticos (CD), são essenciais porque o computador esquece tudo o que estava armazenado em seus circuitos assim que é desligado – inclusive os programas, que são conjuntos de instruções para os circuitos executarem uma tarefa. Sem eles, é impossível interagir com o micro.
O microprocessador é o componente menos óbvio do PC. Ele é um conjunto de circuitos microscópicos por onde passa toda informação a ser processada. Tudo o que o processador faz é calcular, usando o sistema binário, e não se lembra de nada: só calcula, calcula e calcula. O resultado das operações, aí sim, é estocado na memória e nos discos, para que os dados possam ser reutilizados – na forma do texto que você quer escrever, do seu programa de navegação ou daquele joguinho de paciência.

Mainframes

Máquinas enormes, que ocupam salas inteiras, são usadas em grandes empresas, como bancos, ou em universidades. Enquanto o PC reúne todos os componentes do computador em uma só unidade, o mainframe tem suas partes bem separadas e conectadas por cabos.
Smartcards
Cartões inteligentes, utilizados principalmente em transações bancárias. Contêm um microprocessador e são capazes de armazenar dados que, por meio da conexão a uma leitora, podem ser manipulados. Na Europa, também já são usados para guardar informações médicas.
Supercomputadores
Instalados em centros de pesquisa científica, têm capacidade de executar até 1,8 trilhão de cálculos por segundo. É o caso do ASCI-RED, fabricado pela Intel, com 9 072 processadores trabalhando ao mesmo tempo.

Passo a passo
Logo depois de você acionar o botão, um programa chamado Bios (Sistema Básico de Entrada e Saída), armazenado em chips de memória permanente (a ROM), começa a verificar todas as partes do micro, como se estivesse fazendo uma chamada. Os sinais do Bios seguem pela placa-mãe, um grande circuito que conecta os pedaços do computador.
Em seguida, a memória RAM se manifesta. Ela é chamada memória de trabalho porque só armazena informações enquanto o computador está ligado. É nela que a CPU (Unidade Central de Processamento) guarda os resultados de seus cálculos, ficando livre para processar mais dados. Quando você desliga o micro, a informação some da RAM.
O primeiro a responder é o processador (CPU), o cérebro do micro. Ele contém um chip de silício do tamanho de uma unha que faz cálculos, executa programas e conecta as partes do computador necessárias à operação do software, como a memória e o disco rígido. Uma vez acordado pela corrente elétrica vinda do Bios, ele continua a verificar se os outros componentes estão lá.
O próximo da lista é o disco rígido, ou HD, um conjunto de placas de metal onde as informações são arquivadas para uso posterior. É lá que ficam os programas que você usa.
O teclado é a principal forma de input, ou seja, de dar instruções ao computador. Sob cada tecla existe um sensor que detecta variações na corrente elétrica. Quando você aperta uma tecla qualquer, a corrente muda. O processador interpreta essa variação como um caractere.
O monitor é o principal dispositivo de output, quer dizer, de exibição dos dados processados. A placa de vídeo se encarrega de transformar os dados digitais vindos da memória em sinais elétricos, que irão compor as imagens na tela.
Depois é a vez de o mouse, que ainda resiste mas em breve será aposentado, anunciar se está presente. Assim como o teclado, ele é uma forma de input. Em vez de digitar comandos, ele aponta coordenadas na tela.