13.269 – Mega Byte – A Ciência da Computação


ciencia da computacao

“ Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio, a biologia com o microscópio, ou a química com os tubos de ensaio. A ciência não estuda ferramentas, mas o que fazemos e o que descobrimos com elas. ”

É a ciência que estuda as técnicas, metodologias e instrumentos computacionais, que automatiza processos e desenvolve soluções baseadas no uso do processamento digital. Não se restringe apenas ao estudo dos algoritmos, suas aplicações e implementação na forma de software, extrapolando para todo e qualquer conhecimento pautado no computador, que envolve também a telecomunicação, o banco de dados e as aplicações tecnológicas que possibilitam atingir o tratamento de dados de entrada e saída, de forma que se transforme em informação. Assim, a Ciência da Computação também abrange as técnicas de modelagem de dados e os protocolos de comunicação, além de princípios que abrangem outras especializações da área.
Enquanto ciência, classifica-se como ciência exata, apesar de herdar elementos da lógica filosófica aristotélica, tendo por isto um papel importante na formalização matemática de algoritmos, como forma de representar problemas decidíveis, i.e., os que são susceptíveis de redução a operações elementares básicas, capazes de serem reproduzidas através de um qualquer dispositivo mecânico/eletrônico capaz de armazenar e manipular dados. Um destes dispositivos é o computador digital, de uso generalizado, nos dias de hoje. Também de fundamental importância para a área de Ciência da Computação são as metodologias e técnicas ligadas à implementação de software que abordam a especificação, modelagem, codificação, teste e avaliação de sistemas de software.
Os estudos oriundos da Ciência da Computação podem ser aplicados em qualquer área do conhecimento humano em que seja possível definir métodos de resolução de problemas baseados em repetições previamente observadas. Avanços recentes na Ciência da Computação tem impactado fortemente a sociedade contemporânea, em particular as aplicações relacionadas às áreas de redes de computadores, Internet, Web e computação móvel que têm sido utilizadas por bilhões de pessoas ao redor do globo.

abaco

Um pouco de História
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a habitantes da Mesopotâmia, em torno de 2700–2300 a.C.. Seu uso original era desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.
No século VII a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou transformações e recursividade com tamanha sofisticação que sua gramática possuía o poder computacional teórico tal qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os logaritmos para uso computacional no século XVI, seguiu-se um período de considerável progresso na construção de ferramentas de cálculo.
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o sistema de numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o matemático persa al-Khwarizmi escreveu o livro Calculando com numerais hindus, responsável pela difusão do sistema de numeração hindu-arábico no Oriente Médio, e posteriormente na Europa. Por volta do século XII houve uma tradução do mesmo livro para o latim: Algoritmi de numero Indorum. Tais livros apresentaram novos conceitos para definir sequências de passos para completar tarefas, como aplicações de aritmética e álgebra. Por derivação do nome do matemático,actualmente usa-se o termo algoritmo.

Lógica binária
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de numeração binário. Ainda usado atualmente no processamento de todos computadores modernos, o sistema estabelece que sequências específicas de uns e zeros podem representar qualquer informação.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e matemático, utilizando o sistema binário. Em seu sistema, uns e zeros também representam conceitos como verdadeiro e falso, ligado e desligado, válido e inválido. Mais de um século depois, George Boole publicou a álgebra booleana (em 1854), com um sistema completo que permitia a construção de modelos matemáticos para o processamento computacional. Em 1801, apareceu o tear controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual buracos indicavam os uns e, áreas não furadas, indicavam os zeros. O sistema está longe de ser um computador, mas ilustrou que as máquinas poderiam ser controladas pelo sistema binário.

Foi com Charles Babbage que o computador moderno começou a ganhar forma, através de seu trabalho no engenho analítico. O equipamento descrito originalmente em 1837, mais de um século antes de seu sucessor, nunca foi construído com sucesso, mas possuía todas as funções de um computador moderno. O dispositivo de Babbage se diferenciava por ser programável, algo imprescindível para qualquer computador moderno.
Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros programas de computador em uma série de notas para o engenho analítico. Por isso, Lovelace é popularmente considerada como a primeira programadora.

Nascimento da Ciência da Computação
Antes da década de 1920, computador era um termo associado a pessoas que realizavam cálculos, geralmente liderados por físicos. Milhares de computadores eram empregados em projetos no comércio, governo e sítios de pesquisa. Após a década de 1920, a expressão máquina computacional começou a ser usada para referir-se a qualquer máquina que realize o trabalho de um profissional, especialmente aquelas de acordo com os métodos da Tese de Church-Turing.
O termo máquina computacional acabou perdendo espaço para o termo reduzido computador no final da década de 1940, com as máquinas digitais cada vez mais difundidas. Alan Turing, conhecido como pai da Ciência da Computação, inventou a Máquina de Turing, que posteriormente evoluiu para o computador moderno.
Os fundamentos matemáticos da Ciência da Computação moderna começaram a ser definidos por Kurt Gödel com seu teorema da incompletude (1931). Essa teoria mostra que existem limites no que pode ser provado ou desaprovado em um sistema formal; isso levou a trabalhos posteriores por Gödel e outros teóricos para definir e descrever tais sistemas formais, incluindo conceitos como recursividade e cálculo lambda.
Em 1936 Alan Turing e Alonzo Church independentemente, e também juntos, introduziram a formalização de um algoritmo, definindo os limites do que pode ser computador e um modelo puramente mecânico para a computação. Tais tópicos são abordados no que atualmente chama-se Tese de Church-Turing, uma hipótese sobre a natureza de dispositivos mecânicos de cálculo. Essa tese define que qualquer cálculo possível pode ser realizado por um algoritmo sendo executado em um computador, desde que haja tempo e armazenamento suficiente para tal.
Turing também incluiu na tese uma descrição da Máquina de Turing, que possui uma fita de tamanho infinito e um cabeçote para leitura e escrita que move-se pela fita. Devido ao seu caráter infinito, tal máquina não pode ser construída, mas tal modelo pode simular a computação de qualquer algoritmo executado em um computador moderno. Turing é bastante importante para a Ciência da Computação, tanto que seu nome é usado para o Prêmio Turing e o teste de Turing. Ele contribuiu para a quebra do código da Alemanha pela Grã-Bretanha[3] na Segunda Guerra Mundial, e continuou a projetar computadores e programas de computador pela década de 1940; cometeu suicídio em 1954.
Até a década de 1930, engenheiros eletricistas podiam construir circuitos eletrônicos para resolver problemas lógicos e matemáticos, mas a maioria o fazia sem qualquer processo, de forma particular, sem rigor teórico para tal. Isso mudou com a tese de mestrado de Claude Shannon de 1937, A Symbolic Analysis of Relay and Switching Circuits. Enquanto tomava aulas de Filosofia, Shannon foi exposto ao trabalho de George Boole, e percebeu que poderia aplicar esse aprendizado em conjuntos eletro-mecânicos para resolver problemas. Shannon desenvolveu a teoria da informação no artigo de 1948: A Mathematical Theory of Communication , cujo conteúdo serve como fundamento para áreas como compressão de dados e criptografia.
Apesar de sua pequena história enquanto uma disciplina acadêmica, a Ciência da Computação deu origem a diversas contribuições fundamentais para a ciência e para a sociedade. Esta ciência foi responsável pela definição formal de computação e computabilidade, e pela prova da existência de problemas insolúveis ou intratáveis computacionalmente.
Também foi possível a construção e formalização do conceito de linguagem de computador, sobretudo linguagem de programação, uma ferramenta para a expressão precisa de informação metodológica flexível o suficiente para ser representada em diversos níveis de abstração.
Para outros campos científicos e para a sociedade de forma geral, a Ciência da Computação forneceu suporte para a Revolução Digital, dando origem a Era da Informação.
A computação científica é uma área da computação que permite o avanço de estudos como o mapeamento do genoma humano (ver Projeto Genoma Humano).

Blaise Pascal, desenvolveu a calculadora mecânica e tem seu nome em uma linguagem de programação;
Charles Babbage, projetou um computador mecânico, a máquina analítica;
Ada Lovelace, considerada a primeira pessoa programadora, deu nome à uma linguagem de programação;
Alan Turing, participou do projeto Colossus e foi um dos cérebros que decifra a Enigma. Também inventou um tipo teórico de máquina super-simples capaz de realizar qualquer cálculo de um computador digital, a Máquina de Turing
John von Neumann, descreveu o computador que utiliza um programa armazenado em memória, a Arquitetura de von Neumann, que é a base da arquitetura dos computadores atuais
John Backus, líder da equipe que criou o Fortran e criou a notação BNF
Maurice Vicent. Wilkes, inventor do somador binário
Howard Aiken, inventor do Mark I
Walter H. Brattain, inventor do transístor
William Shockley, inventor do transístor
John Bardeen, inventor do transístor
Fred Williams, inventor da memória RAM
Tom Kilburn, inventor da memória RAM
Konrad Zuse, inventor independente do computador digital e de linguagens de programação na Alemanha nazista
John Atanasoff, inventor do primeiro computador digital, o Atanasoff–Berry Computer, ABC
Clifford Berry, assistente de Atanasoff
Almirante Grace Hopper, programadora do Mark I, desenvolveu o primeiro compilador; primeira mulher a receber um Ph.D. em matemática
Edsger Dijkstra, líder do ALGOL 60, publicou o artigo original sobre programação estruturada
J. Presper Eckert, criador do ENIAC
John William Mauchly, criador do ENIAC

Abrange
Arquitetura de computadores — o desenvolvimento, a organização, a otimização e a verificação de sistemas computacionais
Computação distribuída — computação sendo executada em diversos dispositivos interligados por uma rede, todos com o mesmo objetivo comum
Computação paralela — computação sendo executada em diferentes tarefas; geralmente concorrentes entre si na utilização de recursos
Computação quântica — representação e manipulação de dados usando as propriedades quânticas das partículas e a mecânica quântica
Sistemas operacionais — sistemas para o gerenciamento de programas de computador e para a abstração da máquina, fornecendo base para um sistema utilizável
Por ser uma disciplina recente, existem várias definições alternativas para a Ciência da Computação. Ela pode ser vista como uma forma de ciência, uma forma de matemática ou uma nova disciplina que não pode ser categorizada seguindo os modelos atuais. Várias pessoas que estudam a Ciência da Computação o fazem para tornarem-se programadores, levando alguns a acreditarem que seu estudo é sobre o software e a programação. Apesar disso, a maioria dos cientistas da computaçao são interessados na inovação ou em aspectos teóricos que vão muito além de somente a programação, mais relacionados com a computabilidade.
Apesar do nome, muito da Ciência da Computação não envolve o estudo dos computadores por si próprios. De fato, o conhecido cientista da computação Edsger Dijkstra é considerado autor da frase “Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio […]”. O projeto e desenvolvimento de computadores e sistemas computacionais são geralmente considerados disciplinas fora do contexto da Ciência da Computação. Por exemplo, o estudo do hardware é geralmente considerado parte da engenharia da computação, enquanto o estudo de sistemas computacionais comerciais são geralmente parte da tecnologia da informação ou sistemas de informação.
Por vezes a Ciência da Computação também é criticada por não ser suficientemente científica, como exposto na frase “Ciência é para a Ciência da Computação assim como a hidrodinâmica é para a construção de encanamentos”, credita a Stan Kelly-Bootle.
Apesar disso, seu estudo frequentemente cruza outros campos de pesquisa, tais como a inteligência artifical, física e linguística.
Ela é considerada por alguns por ter um grande relacionamento com a matemática, maior que em outras disciplinas. Isso é evidenciado pelo fato que os primeiros trabalhos na área eram fortemente influenciados por matemáticos como Kurt Gödel e Alan Turing; o campo continua sendo útil para o intercâmbio de informação com áreas como lógica matemática, teoria das categorias e álgebra. Apesar disso, diferente da matemática, a Ciência da Computação é considerada uma disciplina mais experimental que teórica.

Várias alternativas para o nome da disciplina já foram cogitadas. Em francês ela é chamada informatique, em alemão Informatik, em espanhol informática, em holandês, italiano e romeno informatica, em polonês informatyka, em russo информатика e em grego Πληροφορική. Apesar disso, tanto em inglês quanto em português informática não é diretamente um sinônimo para a Ciência da Computação; o termo é usado para definir o estudo de sistemas artificiais e naturais que armazenam processos e comunicam informação, e refere-se a um conjunto de ciências da informação que engloba a Ciência da Computação. Em Portugal, no entanto, apesar de a palavra estar dicionarizada com esse sentido amplo, o termo é usado como sinónimo de Ciência da Computação.
De forma geral, cientistas da computação estudam os fundamentos teóricos da computação, de onde outros campos derivam, como as áreas de pesquisa supracitadas. Como o nome implica, a Ciência da Computação é uma ciência pura, não aplicada. Entretanto, o profissional dessa área pode seguir aplicações mais práticas de seu conhecimento, atuando em áreas como desenvolvimento de software, telecomunicação, consultoria, análise de sistemas, segurança em TI, governança em TI, análise de negócios e tecnologia da informação. O profissional de computação precisa ter muita determinação na apreensão tecnológica, uma vez que esta área sofre contínuas transformações, modificando rapidamente paradigmas.

13.262 – Política – Como funciona a perícia de um áudio?


temer

Da Super para o ☻Mega

Dois dias depois do escândalo Temer, a Folha de S.Paulo publicou uma matéria onde o perito Ricardo Caires afirmava que o áudio havia sido editado em 50 partes diferentes. O Globo, então, afirmou ter conversado com Caires, que havia mudado sua versão (dessa vez eram só 14 pontos de edição). Agora, nesta segunda, a Folha diz que o perito continua sustentando a teoria de que havia meia centena de cortes na gravação.

Mas, afinal, como funciona a perícia de uma gravação?
A resposta não é tão simples. “Cada áudio é particular, ele tem singularidades que vão guiando a forma como a perícia é feita. A análise é conduzida de forma diferente para cada áudio”, explica André Morisson, diretor Associação Nacional dos Peritos Criminais Federais (APCF). Isso não significa, no entanto, que alguns passos costumam ser mais comuns. É eles que vamos explicar no box abaixo.

Me empresta, rapidinho
Ter em mãos o gravador utilizado pode ajudar nas conclusões finais. Assim, existe a possibilidade de realizar testes, e simulações que recriam as situações dos áudios. Um defeitinho no microfone, ou um gravador antigo podem caracterizar um áudio. Funciona como uma espécie de impressão digital auditiva, que assim como a dos seus dedos, deixa marcas cruciais para um estudo criminal (Joesley, diga-se, usou um pen drive com gravador embutido).

A cópia perfeita
O arquivo tem que ser transportado para o computador do perito, onde vai ser feita a análise, da forma mais fidedigna possível. Se você, aí da sua casa, colocar uma música em um pendrive para ouvi-la na caixinha de som da sala, por exemplo, o arquivo pode sofrer modificações conforme passa de um dispositivo para o outro. Coisa pequena, mas que pode fazer diferença na hora da investigação: uma compressão na frequência ou até mesmo a exclusão de metadados, ou seja, informações sobre hora, dia e até local em que foi gravado o material. Os profissionais usam softwares específicos que conseguem copiar o arquivo, sem modificá-lo. É a chamada cópia bit a bit.

A primeira escutada
Chamada de análise oitiva, é a audição do arquivo sem necessariamente estar acompanhado de equipamentos especializados para a dissecação do áudio. “O perito passa por treinamentos que apuram sua audição para esse tipo de áudio. Ele percebe com mais facilidade se há algo errado na gravação”, conta Morisson. A ideia é que nessa fase o perito já comece a direcionar em que partes ele vai focar em um primeiro momento da análise. Um ruído meio estranho no minuto 7? Melhor analisá-lo com mais atenção desde o começo. Isso não significa, no entanto, que o restante do arquivo será ignorado. O áudio inteiro é investigado, mas esse é o momento de direcionar os primeiros esforços.

Não entendi
Uma frase ficou sem sentido? Pode ser indicação de que algo foi tirado do arquivo. O contexto acaba servindo como ferramenta na detecção de edições. Podem ser perguntas sem respostas, ou simplesmente afirmações que não fazem muito sentido naquela situação. Tudo é analisado.

maluf

13.255 – Santos ganha 1º ônibus sustentável movido a energia elétrica e diesel


Santos ingressou para o seleto grupo de cidades do País a contar com ônibus híbrido, que funciona com um motor elétrico e outro a diesel. Um veículo do tipo entrou em operação na tarde desta terça-feira (16) na linha 20, que liga o Centro ao Gonzaga. Além da economia de combustível, o modelo reduz a emissão de poluentes e a geração de ruído.
O novo veículo chama a atenção pelo design moderno e é mais alongado que o ônibus convencional, com 12,40 metros de comprimento – o outro tem 11 metros -, oferecendo 36 assentos. Dispõe de ar-condicionado e acessibilidade para pessoas com deficiência e mobilidade reduzida.
Ao acompanhar a entrega do veículo na Praça Mauá, o prefeito Paulo Alexandre Barbosa destacou que um dos tópicos do plano de melhorias do transporte coletivo é a modernização do sistema e a chegada do ônibus híbrido é mais um avanço.
“Estamos sempre buscando novas tecnologias”, disse o prefeito. Ele lembrou que hoje quase metade da frota está climatizada e 100% opera com wi-fi, além de o usuário contar com o aplicativo ‘Quanto Tempo Falta’, que informa o horário de chegada do ônibus no ponto.
A Viação Piracicaba informou que houve treinamento especial para os motoristas que vão trabalhar com o novo veículo adquirido pela empresa. A operação do híbrido deve atender as normas do fabricante, inclusive para que ocorra a recarga da bateria do motor elétrico.

Bateria elétrica
Os dois motores do ônibus híbrido funcionam de forma paralela ou independente. Quando o veículo está parado ou em velocidade de até 20km/h, é movido pela energia elétrica. Nas velocidades mais altas, entra em operação o sistema a diesel.
A bateria do motor elétrico é recarregada durante as frenagens. O veículo não emite ruído no arranque e fica silencioso quando parado em semáforos e nos pontos de embarque e desembarque de passageiros, momentos em que o motor a diesel permanece totalmente desligado.
Segundo a Volvo, fabricante do veículo, o híbrido gera economia de até 35% de combustível em relação ao veículo convencional e, por consequência, emite também 35% menos gás carbônico.

Saiba mais
No Brasil, há 41 unidades em circulação no momento. São 30 em Curitiba, cinco no Parque Nacional de Foz do Iguaçu, onde atende turistas, um em linha turística em São Paulo (onde há outros três em teste), além de um também em teste em Caxias do Sul e mais o de Santos. No mundo, são 3,3 mil veículos do tipo circulando em 21 países.

Cidades Sustentáveis

13.247 – O que se sabe até agora do mega-ataque cibernético em todo o mundo


hacker-attack-7849576-260120170021
Um ataque cibernético de grandes proporções atingiu diversas empresas e organizações pelo mundo nesta sexta-feira, afetando até mesmo os serviços de saúde britânicos.
Trata-se de uma aparente campanha de ransomware —em que computadores são infectados com um vírus que codifica e “sequestra” os arquivos. Os invasores, então, pedem um “resgate”: ameaçam destruir (ou tornar públicos) os arquivos caso não recebam dinheiro.
Há relatos de computadores infectados em até 74 países, incluindo Reino Unido, EUA, China, Rússia, Espanha e Itália, o que leva especialistas em segurança acreditar que se trate de uma ação coordenada.
Uma análise da empresa de antivírus Avast identificou um “enorme pico” de ransomwares pelo vírus WanaCrypt0r 2.0 (ou WCry). “Foram mais de 57 mil infecções até agora”, diz o blog da empresa, atualizado nesta tarde. “Segundo nossos dados, o ransomware alveja principalmente Rússia, Ucrânia e Taiwan, mas teve sucesso em infectar grandes instituições.”
No Reino Unido, houve significativo impacto sobre os arquivos digitais do NHS, equivalente ao SUS britânico. Dados de pacientes foram encriptados pelos invasores e se tornaram inacessíveis. Até ambulâncias e clínicas médicas foram afetadas.
Nos computadores invadidos, uma tela dizia “ops, seus arquivos foram codificados” e pedia pagamento de US$ 600 em bitcoins (moeda digital) para recuperá-los.
Outra grande empresa infectada foi a espanhola Telefónica, que disse em comunicado estar ciente de um “incidente de cibersegurança”. Segundo a empresa, clientes e serviços não foram afetados, apenas a rede interna.
Na Itália, um usuário compartilhou imagens de um laboratório de informática universitário aparentemente infectado pelo mesmo programa.
Nos EUA, a empresa de logística FedEx disse que, “assim como outras empresas, está vivenciando interferência com alguns de nossos sistemas baseados em Windows, por culpa de um malware (software malicioso) Faremos correções assim que possível”.

AMEAÇA CRESCENTE
Os ransomwares estão se tornando uma das mais importantes ameaças cibernéticas da atualidade.
E o ataque desta sexta se destaca: “Foi muito grande, impactando organizações pela Europa em uma escala que nunca havia visto”, disse o especialista em segurança cibernética Kevin Beaumont.
Especialistas apontam que o ataque explora uma vulnerabilidade que havia sido divulgada por um grupo que se autointitula The Shadow Brokers. Esse grupo recentemente declarou ter usado ferramentas digitais roubadas da NSA, a agência nacional de segurança dos EUA.
A empresa Microsoft havia conseguido criar proteções contra a invasão, mas os hackers parecem ter tirado proveito de redes de computadores que ainda não haviam atualizado seus sistemas.
Segundo especialistas, a proteção contra ransomwares passa por medidas básicas, como evitar clicar em links suspeitos e fazer cópia de arquivos importantes.

hacker resgate

13.245 – Audiotecnologia – A invenção do k7


Depois do vinil, derivado do gramofone, foi a tecnologia de gravação que mais tempo demorou no mercado.
A fita cassete (também conhecida como K7 ou compact cassette) reproduz áudios. É formada por dois carretéis e uma fita magnética coberta por substância à base de ferro ou de cromo. Nela, há milhões de imãs bem pequenos que formam um campo magnético. Ao gravar uma música, as partículas se ordenam de modo que conseguem captar o som.
Todo esse mecanismo é revestido por plástico para facilitar o manuseio e a utilização. Diferentemente do CD e MP3, se quiser escutar a mesma música é preciso rebobinar, ou seja, apertar o botão que faz a fita voltar e dar stop no ponto que deseja ouvir.
O K7 foi lançado oficialmente em 1963 pela empresa holandesa Philips. Tinha cerca de 10 cm e caixa plástica que permitia maior economia de espaço e excelente manuseio comparado às fitas tradicionais da época, que eram de rolo (uma forma ainda mais antiga de gravar áudios).
No início, era possível gravar apenas 30 minutos em cada lado da fita, totalizando uma hora de gravação. Se usasse mais tempo, a qualidade do som ficava ruim. Ao longo do tempo, foram acrescentados recursos tecnológicos e as fitas passaram a armazenar conteúdo por 45, 60, 90 e até 120 minutos. A invenção representava uma revolução na época, pois ampliava as possibilidades de reproduzir música.
Lógico que há muito mais pra se falar dessa tecnologia, pois surgiram depois as fitas de cromo e metal para alta fidelidade, mas isso pode ser visto em outro artigo do ☻ Mega.

O walkman, primeiro leitor de áudio portátil, ajudou a aumentar o número de usuários das fitas. Assim como o MP3, fez muito sucesso entre pessoas que adoravam ouvir música em todo lugar. No entanto, era bem maior do que os aparelhos que temos hoje e precisava de pilhas.

Do vinil ao CD player
Atualmente é difícil ver alguém usar fita cassete para ouvir a música preferida ou para gravar um som. Há anos esse mecanismo não é mais utilizado. O mercado de cassetes entrou em decadência no fim da década de 1980 devido ao aparecimento do CD player, que tem maior espaço para armazenamento de dados e músicas e qualidade de áudio superior. Também permite mudar as faixas rapidamente e pode durar por mais tempo. Afinal, as fitas magnéticas são facilmente danificadas pelo calor.
Desde os anos 2000, a forma de armanezar músicas e dados é feita por meio da mídia digital. Chamada MP3, a nova tecnologia pode vir em um CD, cartão de memória ou DVD. Tem qualidade de som superior e maior duração.

MAIS ANTIGO
O CD é a versão moderna do disco de vinil, que toca na vitrola. É feito de resina plástica derivada do petróleo, chamada policloreto de vinila ou PVC (mesmo material dos tubos e conexões usados em construções). O vinil surgiu em 1948, mas só começou a ser produzido em grandes quantidades na década de 1970. Ele era chamado de Long-Play (LP).

 

Fita Gradiente

som3fitas

13.241 – Neurociência – Elon Musk: o projeto que mesclará cérebros humanos e inteligência artificial


neurociencia
Elon Musk, CEO da SpaceX e da Tesla, está no processo de desenvolvimento de uma nova empresa de interfaces cérebro-computador. Chamada Neuralink, ela será voltada à criação de dispositivos que poderão ser implantados no cérebro humano.
Sua função será unir o cérebro humano a um software, permitindo o aperfeiçoamento da memória e a criação de interfaces diretas com aparelhos informáticos.
Embora, até o momento, esse tipo de interface exista apenas na ficção científica, na medicina as matrizes de eletrodos e outros implantes já são utilizados para ajudar no alívio de sintomas do mal de Parkinson, da epilepsia e de outras doenças neurodegenerativas.
Operar o cérebro humano é bastante complexo e invasivo e, segundo os pesquisadores, temos um entendimento muito limitado sobre como os neurônios reagem no cérebro humano. Por isso, é compreensível que somente as pessoas que tenham uma condição médica muito séria e já tenham esgotado todas as outras possibilidades estejam suscetíveis à ideia de um implante cerebral – pelo menos, em uma primeira fase.

13.239 – Museu do Automóvel – Aero Willys, o Rebelde


aero willys
Foi um automóvel sedan fabricado pela Willys Overland do Brasil entre 1960 e 1971.
O Aero Willys brasileiro foi lançado em 25 de março de 1960, mas seu projeto vinha sendo discutido na montadora brasileira desde 1958. O Aero Willys era um carro herdado de um projeto americano que havia sido desativado por insucesso. Lá as versões desse automóvel eram conhecidas como Aero-Ace, Aero-Eagle, Aero-Wing, Bermuda (um cupê duas portas), fabricados pela Willys Overland dos EUA, com os componentes mecânicos dos Jeep Willys.
O ferramental veio para o Brasil e a Willys começou a produzir automóveis (apenas os modelos 4 portas). Toda a linha Aero foi concebida sobre a plataforma do Jeep, com suspensão e direção do Jeep, e com freios a tambor nas quatro rodas. Eram carros duros, com uma linha arredondada, típica do início dos anos 50, que representavam à época a única opção para quem não quisesse entrar num Simca Chambord e precisasse de um automóvel maior que os Volkswagen, DKW e Dauphine. Seu motor era de seis cilindros em linha, o mesmo usado no Jeep (que mais tarde passou a ser usado no modelo Rural, e nos demais modelos derivados do Jeep, e até mesmo nos Mavericks fabricados pela Ford), a partir de 1973. Esse motor tinha uma característica incomum: a válvula de admissão situava-se no cabeçote, mas a válvula de escapamento ficava no bloco.
O início da fabricação deu-se em outubro de 1962 e sua primeira aparição foi em Paris, no mais famoso Salão do Automóvel do mundo. Entre as muitas novidades internacionais aparecia, um carrão com monobloco brasileiro, 110 cavalos no motor, concepção e estilos novos. Era o primeiro carro inteiramente concebido na América Latina.
Em julho de 1963 era lançado o Aero Willys 2600, o primeiro carro genuinamente brasileiro. As primeiras peças, como os primeiros carros eram inteiramente feitas à mão. O sucesso foi imediato, tanto que em 1966 foi lançado uma nova versão mais luxuosa batizada de Itamaraty, também chamado de Palácio sobre Rodas. O Itamaraty vinha equipado com acessórios a época sofisticados como bancos de couro e ar condicionado. Em 1967, foi lançada a Itamaraty Executivo, a primeira limusine fabricada em série no Brasil.
Em 1968 a Willys foi comprada pela Ford, que aos poucos foi fundindo o Aero Willys no seu Ford Galaxie. Houve uma tentativa de adaptação do motor V8 do Galaxie no Aero. Um dos engenheiros testou o desempenho do automovel, na estrada para Santos. Entretanto, a falta de estabilidade e deficiência de frenagem do carro com o potente motor V8, na estrada em descida e cheia de curvas, encerrou o episódio. Em 1971 a Ford anunciou que aquele seria o último ano de fabricação do automóvel, devido à queda nas vendas. Em 1972 foram vendidos os últimos Aero e Itamaratys, sendo sua mecânica utilizada como base do futuro Maverick, em 1973.

Aerowillys_original

13.234 – Segurança Pública – Habilitações passam a utilizar código de segurança digital para evitar fraude


habilitação
As Carteiras Nacionais de Habilitação (CNHs) emitidas a partir deste mês passarão a ter um QR Code –códigos de barra que podem ser escaneados por aparelhos ou dispositivos móveis com câmeras fotográficas.
De acordo com o Denatran (Departamento Nacional de Trânsito), do Ministério das Cidades, a mudança é uma forma de aumentar a segurança contra fraudes e cópias ilícitas do documento.
Através da leitura do QR Code, informações biográficas e foto do documento original dos motoristas armazenadas no banco de dados do Denatran poderão ser acessadas.
Segundo Elmer Vicenzi, diretor do departamento, a novidade permite que “qualquer setor da sociedade tenha acesso às informações, seja numa relação civil, seja numa relação empresarial, como bancos, cartórios e empresas de locadoras de veículos, por exemplo. Antes, a verificação se dava apenas dos dados presentes na CNH, podendo a foto não ser a do titular de fato, configurando fraude”.
A leitura do código –que fica na parte interna do documento–, é feita por um aplicativo, o “Lince”, disponível para os sistemas Android e iOS e foi desenvolvido pelo Serpro (Serviço Federal de Processamento de Dados).
A checagem das informações pode ser feita offline, o que permite que autoridades como as polícias rodoviárias possam ter acesso aos dados mesmo em lugares distantes.
Apesar de Vicenzi ressaltar que não há nenhum custo adicional que justifique o aumento da taxa de emissão, o órgão reconhece que faz parte da autonomia administrativa de cada Estado definir se haverá ou não aumento.
Mais de 300 mil habilitações foram emitidas com a funcionalidade desde 1º de maio, data em que a iniciativa entrou em vigor. A previsão é que, dentro de cinco anos, todos os motoristas brasileiros já possuam a nova CNH.

13.229 – Mega Byte – WhatsApp voltou a funcionar após instabilidade de mais de 2 horas


aplicativo-whatsapp-20121220-01-1-original
Após mais de 2 horas de instabilidade, o WhatsApp voltou a funcionar por volta das 19h20 desta quarta-feira (3 de maio). Segundo relatos nas redes sociais, o aplicativo de mensagens estava fora do ar desde as 17h no Brasil e em outros países do mundo.
Procurado pelo G1, o WhatsApp afirmou por meio de sua assessoria de imprensa que “está ciente do problema e trabalhando para corrigi-lo o mais rápido possível”.
Um mapa feito pela página mostra que os relatos se concentram na Europa ocidental e no Brasil. Na seção de comentários do site, porém, usuários de todo o mundo afirmaram que o aplicativo esteve fora do ar em seus respectivos países.

13.226 – Internet e Conhecimento – China lançará enciclopédia virtual para concorrer com a Wikipedia


enciclopedia virtual chinesa
O governo chinês chamou 20 mil cientistas e acadêmicos do próprio país para criar uma versão estatal da Wikipedia, a maior enciclopédia virtual do mundo. Segundo a agência estatal responsável, a obra ambiciosa, que terá conteúdo de mais de 100 áreas do conhecimento, entrará no ar em 2018.
A plataforma online é novidade, mas a enciclopédia em si, não. Essa é a terceira edição da Enciclopédia Chinesa, cuja primeira edição foi impressa em 1993 após 15 anos de trabalho. Ela tinha 74 volumes físicos.
O projeto prevê 300 mil verbetes de mil palavras cada um. Se tudo der certo, afirma o jornal neozelandês NZ Herald, o resultado final será duas vezes maior que a Encyclopædia Britannica. Do ponto de vista numérico, ela não chegará aos pés da Wikipedia chinesa, com 939 mil artigos.
Essas comparações, porém, são arriscadas. Desde 1974 a Britannica é publicada em três partes: a primeira é reservada a verbetes curtos, de consulta rápida. A segunda, a versões aprofundadas dos principais tópicos mencionados antes. A terceira, a índices e informações sobre os autores.
Essas diferenças tornam uma comparação direta muito difícil – critérios de contagem diferentes trarão resultados diferentes.
Além disso, tamanho não é documento. A padronização do conteúdo e a seleção de boas fontes e colaboradores são essenciais, e, nesse aspecto, a Wikipedia inevitavelmente perde para suas concorrentes de papel mais antigas.

 

13.225 – Tecnologia – Brasil vai lançar e controlar satélite de telecomunicações


satelite2
De Kourou, na Guiana Francesa, parte para o espaço o Satélite Geoestacionário de Defesa e Comunicações Estratégicas (SGDC).
Ele será apenas uma das muitas espaçonaves que hoje pairam sobre o território nacional e fornecem conexões via satélite para os mais variados fins, como telefonia, televisão e internet.
Mas será a primeira a ser operada e controlada pelo governo brasileiro -numa parceria entre o Ministério da Defesa e a Telebras.
De acordo com o governo brasileiro, o novo satélite é indispensável para a preservação da soberania nacional, permitindo comunicações seguras das Forças Armadas e a implementação do Plano Nacional de Banda Larga, que pretende levar internet rápida, pelo espaço, a locais do país onde a infraestrutura de telecomunicações por solo é deficitária.
Discutido desde 2011, o contrato para a construção do SGDC foi assinado em novembro de 2013, dois meses depois que documentos revelaram que contas de e-mail de diversos membros do governo brasileiro, inclusive da ex-presidente Dilma Rousseff, foram alvo de espionagem pela NSA, agência de segurança nacional dos EUA.
Os satélites geoestacionários são assim chamados porque se localizam num anel ao redor do equador terrestre, a cerca de 36 mil km de altitude. Nessa posição, têm a propriedade especial de evoluir em torno da Terra no mesmo ritmo da rotação do próprio planeta -com isso, é como se estivessem o tempo todo sobre o mesmo ponto do globo.
Por essa razão, a órbita geoestacionária é a preferencial para satélites de telecomunicações, pois podem atender ininterruptamente uma grande região territorial.
As tecnologias envolvidas num desses artefatos espaciais de última geração, contudo, não são dominadas pelo Brasil. Por isso, o governo decidiu criar uma empresa integradora nacional -a Visiona, uma joint venture entre a Telebras e a Embraer- e contratar, por meio dela, a construção do satélite no exterior.
A vencedora da licitação foi a empresa franco-italiana Thales Alenia, que se comprometeu a realizar transferência de tecnologias envolvidas na construção do SGDC e construiu o satélite com a colaboração de dezenas de engenheiros brasileiros.
O lançamento será feito pelo foguete Ariane 5, da empresa francesa Arianespace, que opera seus voos a partir de Kourou, na Guiana Francesa. Com 5,7 toneladas, o SGDC será a carga principal, e um segundo satélite, o KoreaSat-7, da Coreia do Sul, voará como carga útil secundária.
O satélite transmitirá em duas bandas: a X (entre 8 e 12 gigahertz) e a Ka (26 a 40 gigahertz). A primeira será usada exclusivamente para uso da Defesa e a segunda será parcialmente dedicada à implementação, pela Telebras, do Plano Nacional de Banda Larga. A capacidade excedente será licitada para uso por outras empresas interessadas.
A iniciativa pode dar algum retorno imediato ao governo, que investiu R$ 2,7 bilhões no projeto, entre satélite, lançamento e investimentos na infraestrutura de solo para suas operações.
Contudo, ao chegar à sua conclusão, o projeto deixa um enorme vazio para o futuro. Originalmente, a ideia era que o SGDC fosse o primeiro de uma constelação de três satélites geoestacionários de telecomunicações, incorporando gradualmente tecnologia nacional.
Contudo, o segundo satélite da série está apenas em fase de conceito, e sem essas especificações e um contrato firmado, a Visiona -empresa criada para integrar esse e os futuros satélites- basicamente fica sem o que fazer.

13.219 – Eletricidade – Qual a função de um alternador?


alternador
Todo carro tem uma alternador. É ele que que mantém a bateria sempre carregada, exatamente como ela saiu de fábrica. A função dele é a de converter a energia mecânica do motor em energia elétrica, devolvendo a carga à bateria.
Mesmo com o passar dos anos o alternador quase nada mudou, a não ser na aparência para ser instalado nos diversos modelos existentes, e na potência devido ao aumento dos componentes elétricos.
Mas o princípio do funcionamento é o mesmo. Ele é composto internamente por um rotor, escovas, regulador de voltagem, estator e mesa retificadora de diodos. Todos são assim, como o da foto acima, que é de um Ford Corcel com mais de 40 anos de fabricação.
Dizer que um alternador é um carregador de baterias é um exagero e pouco conhecimento dos fatos. Quase seria uma utopia esperar isso de uma peça como esta. Basta observar que quando sua bateria descarregou por um rádio ligado ou uma luz esquecida acesa, uma chupeta parece que resolveu tudo. Mas é apenas uma solução de emergência, para deslocar o carro de uma situação desagradável. Com o tempo a bateria vai arriar de novo. Um alternador gera energia apenas para repor uma determinada carga usada, como as que vem dos faróis, luz de freio, sistema de injeção, enfim, de toda a parte elétrica e eletrônica do carro. Confiar apenas no alternador para carregar sua bateria descarregada seria um erro, e uma troca de nome. Quem realmente carrega uma bateria descarregada é um carregador profissional, uma peça grande semelhante as usadas pelas fábricas. Algo parecido com a foto abaixo.

carregador de baterias

 

Uma bateria precisa ficar aos “cuidados”de um carregador como esse da foto acima por pelo menos 9 horas a uma carga constante de 10 amperes, o que é algo muito maior, em termos de gerar energia, do esperado de um alternador que subdivide a energia produzida.
Outro mito sobre um alternador é que ele aumenta o consumo de combustível do carro. Isso é irreal. O que pode causar isso é o equipamento interligado ao alternador, como o compressor do ar condicionado que também é tocado pela correia do motor, o que aumenta o esforço do motor e assim aumenta também o consumo. Alguns também afirmam que ao trocarmos uma bateria de menor capacidade por uma maior, devemos também trocar o alternador por um mais possante. Não é uma verdade. Basta pensar em um caminhão, dos antigos, que sempre foram equipados com baterias de 150 amperes (uma gigante do segmento) carregadas por um alternador de 35 amperes. Então por que um alternador de 60 amperes não conseguiria manter uma bateria de 60, ou 70?
O que importa é quanto de energia está sendo retirada da bateria do seu carro. Quanto mais equipamentos, acessórios como mídia, e som de competição, mais o alternador vai ser exigido.

13.216 – Exterminador do Presente – Curadores do jogo Baleia Azul podem ser robôs


robo ressicitador
O jogo “Baleia Azul”, em que um “curador” seleciona os jogadores e distribui 50 desafios a serem cumpridos até o suicídio, vem deixando pais e especialistas preocupados.
Mas de acordo com uma nova pesquisa, os curadores podem ser robôs. Na teoria, o curador utiliza uma inteligência artificial através de “chatbot” ou bots. Esses chatbots são capazes de se comunicar nas redes sociais e se passar por pessoas. Segundo Thiago Zaninotti, CTO da Aker N-Stalker, a comunicação interativa usada pelo modelo do jogo é compatível com os atuais bots, baseados em princípios de computação cognitiva.
“Em geral, os bots sociais, utilizados para finalidades criminosas ou lícitas, dispõem de recursos poderosos de aprendizado e são movidos por algoritmos de engenharia social que, embora relativamente sofisticados, estão se tornando cada vez mais corriqueiros nas estratégias de atração e engajamento de vítimas”, explicou.
Tudo faz sentido quando pensamos que as tarefas selecionadas são simples para um robô, como por exemplo, se cortar com uma lâmina, assistir a um filme de terror ou fazer voto de silêncio por um dia. “Para efeitos de comunicação verbal, tudo isto compreende um número pequeno de variáveis, passíveis de serem semanticamente mapeadas em esquemas de ação e reação bastante restritivos”.

13.215 – Cultura e Tecnologia – O brasileiro está lendo menos por causa da internet?


bienal_do_livro_de_sp
A pesquisa Retratos da Leitura no Brasil, feita pelo instituto Pró-Livro em parceria com o Ibope Inteligência, revelou que o brasileiro está lendo menos. De acordo com o levantamento nacional, o número de brasileiros considerados leitores – aqueles que haviam lido ao menos uma obra nos três meses que antecederam a pesquisa – caiu de 95,6 milhões (55% da população estimada), em 2007, para 88,2 milhões (50%), em 2011. Outro dado revela a queda do apreço do brasileiro pela leitura como hobby. Em 2007, ler era a quarta atividade mais prazerosa no tempo livre; em 2011, o hábito caiu para sétimo lugar. Na sua opinião, o afastamento entre leitores e livros pode ser motivado pelo uso crescente da internet no Brasil?
Pesquisa Ibope revela que hábito de leitura cai no Brasil. A internet tem culpa nisso?
Criancas reproduzem habitos dos pais, nao adianta a escola frisar a importância da leitura se os pais a despreza!
E você leitor do ☻Mega, qual a sua opinião?

13.212 – Energia – Brasil constrói ponte para a eficiência com novas usinas solares


paineis solares
Em 2017, o Brasil deve ter a capacidade de produzir seu primeiro gigawatt de energia solar fotovoltaica, estima a ABSolar (associação do setor).
O montante seria suficiente para atender a cerca de 800 mil residências, de acordo com Rafael Kelman, diretor da consultoria PSR.
Se confirmado, o marco vai representar um salto gigantesco sobre os 84 MW (megawatts) registrados em 2016 pela EPE (Empresa de Pesquisa Energética), do Ministério de Minas e Energia. O número, contudo, continua tímido se comparado aos 9,65 GW de capacidade das usinas hidrelétricas em 2015, último dado disponível.
Reforço para o segmento, a EGPB (Enel Green Power Brasil), subsidiária da italiana Enel, deve colocar em funcionamento neste ano quatro parques solares, adicionando 807 MW à capacidade instalada no país.
Três das estações ficam na Bahia e uma no Piauí. As plantas de Nova Olinda (PI), com 292 MW, e Ituverava (BA), de 254 MW, serão, segundo a empresa, as maiores da América Latina. A EGPB estima que, juntas, as quatro plantas serão capazes de gerar o suficiente para atender ao consumo anual de 845 mil famílias.
A empresa venceu leilões em 2014 e 2015 e investiu cerca de US$ 980 milhões nos projetos. “A vantagem do Brasil em relação à Europa é que o maior potencial solar está em áreas semiáridas do Nordeste não aproveitáveis para agricultura”, diz Carlo Zorzoli, presidente da Enel no Brasil.
O Brasil assumiu objetivos ambiciosos dentro do Acordo de Paris, ratificado no ano passado. A contribuição do setor energético inclui expandir a participação de energias renováveis na geração elétrica, além da hídrica, para pelo menos 23% até 2030. Em 2015, a oferta hídrica representava 64% da matriz brasileira; a solar não passava de 0,01%.

13.211 – (In) Segurança Digital – O que é um Pentest?


pentest_wall_image
Ainda que uma aplicação não envolva transações comerciais, ela geralmente capta dados privados do usuário.
Uma pesquisa da Lookout no sistema Android (o mais popular aqui no Brasil) mostrou que, de 30 mil aplicativos, 38% podem determinar localizações e 15% conseguem coletar números telefônicos. Esse acesso a dados sensíveis dos usuários exige que as empresas testem e aparem arestas na segurança de seus aplicativos, evitando complicações legais e descontentamento dos usuários. O Pentest é uma das maneiras de avaliar a segurança de um sistema ou aplicativo.
38% dos apps mobile podem determinar localizações. 15% conseguem coletar números telefônicos.
O Pentest é uma forma de detectar e explorar vulnerabilidades existentes nos sistemas, ou seja, simular ataques de hackers. Essas avaliações são úteis para validar a eficácia dos mecanismos de defesa do aplicativo e dos servidores por trás dele.
O teste pode ser realizado manualmente, mas normalmente é apoiado por ferramentas automáticas.
O propósito fundamental é avaliar quaisquer consequências que falhas de segurança possam ter sobre os recursos ou operações envolvidas. Isso é possível pois o Pentest detecta de forma rápida onde o sistema web/mobile é mais vulnerável, permitindo à equipe corrigir o que for necessário após o teste.
As vulnerabilidades de segurança em aplicações web podem resultar em roubo de dados confidenciais, quebra de integridade de dados ou ainda afetar a disponibilidade dos aplicativos web.
87% dos websites têm vulnerabilidades de segurança consideradas de médio risco. 46% dos websites possuem vulnerabilidades de alto risco.
Para se ter uma ideia do perigo, de acordo com uma pesquisa da Acunetix, 87% dos websites têm vulnerabilidades de segurança consideradas de médio risco. E fica pior: quase metade (46%) dos websites possuem vulnerabilidades de alto risco. A forma mais eficiente de garantir a segurança dessas aplicações é justamente eliminando estas vulnerabilidades.

SQL Injection
É um tipo de ataque utilizado para enviar comandos nocivos à base de dados através de formulários ou de URLs. Quando bem sucedido, pode apagar a tabela do banco de dados, deletar todos os dados da tabela ou ainda roubar senhas cadastradas em um banco. O SQL Injection funciona porque a aplicação aceita dados fornecidos pelo usuário, ou seja, confia no texto que é digitado e também porque essas conexões são realizadas no contexto de um usuário com nível de administrador.
Exemplo no mundo real: O SQL Injection foi utilizado em um dos maiores ataques hacker da história. Hackers russos roubaram logins e senhas de aproximadamente 1,2 bilhão de contas em websites diversos. De acordo com uma matéria do New York Times, os hackers atacaram cerca de 420 mil websites.

Cross Site Scripting (XSS)
Esse ataque se aproveita da vulnerabilidade nas validações dos parâmetros de entrada do usuário e resposta do servidor na aplicação. Imagine o caso de um fórum online, por exemplo, onde o usuário tem permissão para postar mensagens de sua autoria para outros membros. Se a aplicação não filtrar corretamente os códigos HTML, alguém mal intencionado pode adicionar instruções para leitura de informações específicas do usuário legítimo. E o que isso significa? Esse usuário mal intencionado terá acesso a códigos de sessão e poderá executar tarefas específicas, como o envio arbitrário de mensagens para o fórum.
Exemplo no mundo real: Um caso bem conhecido é do WordPress. O tema TwentyFifteen (que vem instalado por padrão) estava vulnerável à ataques XSS e deixou milhões de sites vulneráveis. O grande problema dessa vulnerabilidade é que, se o administrador de uma página na plataforma abrir um comentário malicioso, um script é ativado e possibilita ao invasor modificar o código ou as configurações do website.

Cross Site Request Forgery (CSRF)
Esse ataque se tornou muito comum e está no Top 10 ataques/falhas mais comuns em aplicações web da OWASP (Open Web Application Security Project). O ataque explora a relação de confiança entre o usuário e o aplicativo web, forçando-o a executar ações indesejadas na aplicação em que ele está autenticado. Os alvos geralmente são transações comuns porém valiosas, como alteração de e-mail ou dados pessoais. A maneira mais usual de ataque é o envio de e-mail para a vítima contendo um link ou formulário.
Exemplo no mundo real: Conhecido como “Golpe da Oi”, o ataque CSRF foi realizado via e-mail e modificou as características das configurações dos roteadores e modens no país todo. Técnica incomum até então, mas potente para espionar o tráfego de usuários na web, os e-mails fingiam ser enviados pela Oi. Se bem sucedido, o ataque leva usuários para um site fraudulento, mesmo que o endereço digitado seja correto. Assim, é possível interceptar e-mails, logins e senhas.

O que fazer?
Segurança total e irrestrita contra crimes virtuais (pelo menos hoje) não passa de um sonho. Contudo, é possível testar a solidez do sistema, detectar falhas e criar barreiras que desencorajem e minimizem o impacto desse tipo de ação.
O processo envolve uma análise nas atividades do sistema, que envolvem a busca de alguma vulnerabilidade em potencial que possa ser resultado de uma má configuração do sistema, falhas em hardwares/softwares desconhecidas, deficiência no sistema operacional ou técnicas contramedidas. Todas as análises submetidas pelos testes escolhidos são apresentadas no sistema, junto com uma avaliação do seu impacto e muitas vezes com uma proposta de resolução ou de uma solução técnica.
O teste da caixa preta assume que não existe qualquer conhecimento prévio da infra-estrutura a ser testada. Sendo que o primeiro teste deve determinar a localização e extensão dos sistemas antes de iniciar a análise.
O teste da caixa branca assume que o testador possui total conhecimento da infra-estrutura a ser testada, incluindo o diagrama da rede, endereçamento IP e qualquer informação complementar.
Teste de caixa preta simulam um ataque de alguém que esteja familiarizado com o sistema, enquanto um teste de caixa branca simula o que pode acontecer durante o expediente de um trabalho ou depois de um “vazamento” de informações, em que o invasor tenha acesso ao código fonte, esquemas de rede e, possivelmente, até mesmo de algumas senhas.

13.210 – Mega Byte – Como surgiu o Facebook?


Plataforma-do-Facebook-para-criar-jogos-size-620
Trata – se de uma rede social lançada em 4 de fevereiro de 2004, operado e de propriedade privada da Facebook Inc..
Em 4 de outubro de 2012, o Facebook atingiu a marca de 1 bilhão de usuários ativos, sendo por isso a maior rede social em todo o mundo
O nome do serviço decorre o nome coloquial para o livro dado aos alunos no início do ano letivo por algumas administrações universitárias nos Estados Unidos para ajudar os alunos a conhecerem uns aos outros. O Facebook permite que qualquer usuário que declare ter pelo menos 13 anos possa se tornar usuário registrado do site.
O Facebook foi fundado por Mark Zuckerberg e por seus colegas de quarto da faculdade Eduardo Saverin, Dustin Moskovitz e Chris Hughes.
A criação do site foi inicialmente limitada pelos fundadores aos estudantes da Universidade de Harvard, mas foi expandida para outras faculdades na área de Boston, da Ivy League e da Universidade de Stanford. O site gradualmente adicionou suporte para alunos em várias outras universidades antes de abrir para estudantes do ensino médio e, mais tarde, para qualquer pessoa com treze anos ou mais. No entanto, com base em dados de maio de 2011 do ConsumersReports.org, existiam 7,5 milhões de crianças menores de 13 anos com contas no Facebook, violando os termos de serviço do próprio site.
Um estudo de janeiro de 2009 do Compete.com classificou o Facebook como a rede social mais utilizada em todo o mundo por usuários ativos mensais.
A Entertainment Weekly incluiu o site na sua lista de “melhores de”, dizendo: “Como vivíamos antes de perseguirmos os nossos ex-namorados, lembrarmos dos aniversários dos nossos colegas de trabalho, irritarmos os nossos amigos e jogarmos um jogo empolgante de Scrabulous antes do Facebook?
A Quantcast afirma que o Facebook teve 138,9 milhões de visitantes únicos mensais nos Estados Unidos em maio de 2011.
De acordo com o Social Media Today, estimava-se que em abril de 2010 cerca de 41,6% da população estadunidense tinha uma conta no Facebook.
No entanto, o crescimento de mercado do Facebook começou a estabilizar em algumas regiões, sendo que o site perdeu 7 milhões de usuários ativos nos Estados Unidos e no Canadá em maio de 2011. O Facebook entrou com pedido de uma oferta pública inicial em 1 de fevereiro de 2012.
Em 21 de julho de 2016, o Facebook fez seu primeiro voo com drone que deve levar internet a todo o mundo. O modo escolhido por Zuckerberg e sua equipe para tentar levar a web a um público que, hoje, está offline, foi apostar em equipamentos voadores alimentados por energia solar, e depois de meses de testes com modelos menores, a empresa finalmente realizou o primeiro voo de seu drone Aquila.
Em maio de 2005, o Facebook recebeu 12,8 milhões de dólares de capital da Accel Partners.
Em 23 de agosto de 2005, o Facebook compra o domínio facebook.com da Aboutface por US$200.000,00 e descarta definitivamente o “The” de seu nome. A esta data, o Facebook foi “repaginado” recebendo uma atualização que, segundo Mark, deixou mais amigável aos usuários. Também neste mês, Andrew McCollum retornou a Harvard, mas continuou atuando como consultor e retornando ao trabalho em equipe durante os verões. Como antes, Chris Hughes permaneceu em Cambridge, enquanto exercia sua função como representante da empresa. Então, em 2 de setembro, Mark Zuckerberg lançou a interação do Facebook com o ensino secundário. Embora inicialmente definido para separar as “comunidades” para que os usuários precisassem ser convidados para participar, dentro de 15 dias as redes escolares não mais exigiam uma senha para acessar (embora o cadastro no Facebook ainda exigisse). Em outubro, a expansão começou a atingir universidades de pequeno porte e instituições de ensino pós-secundário (junior colleges) nos Estados Unidos, Canadá e Reino Unido, além de ter expandido a vinte e uma universidades no Reino Unido, ao Instituto Tecnológico y de Estudios Superiores de Monterrey no México, a Universidade de Porto Rico em Porto Rico e toda a Universidade das Ilhas Virgens nas Ilhas Virgens Americanas. Em 11 de dezembro de 2005, universidades da Austrália e Nova Zelândia aderiram ao Facebook, elevando sua dimensão para mais de 2 mil colégios e mais de 25 mil universidades em todo o Estados Unidos, Canadá, México, Reino Unido, Austrália, Nova Zelândia e Irlanda.

Passaram Açúcar
No início de 2012 o Facebook se tornou a maior rede social no Brasil e no restante da América Latina, ultrapassando o Orkut, Tumblr, Twitter. Durante o mês de dezembro de 2011, segundo dados da comScore divulgados em janeiro. Pesquisa da companhia mostrou que a rede fundada por Mark Zuckerberg atraiu 36,1 milhões de visitantes durante o período, superando os 34,4 milhões registrados pela rede social do Google.
Em 13 de janeiro de 2012, o Facebook lançou a funcionalidade que permite que o usuário escute uma música que o amigo está ouvindo.
Em 29 de fevereiro o Facebook lança a linha do tempo também para Fan Pages.
Pouco depois, o Facebook anunciou que uma nova ferramenta que permite que o usuário escute uma música que seu amigo esteja escutando ao mesmo tempo. Também é possível escutar a mesma música em um grupo, permitindo que seu amigo brinque de DJ.
Quando seu amigo estiver escutando uma música, uma nota musical aparecerá ao lado do seu nome. Para escutar a música, basta apenas você clicar no nome do seu amigo, que aparecerá uma janela com um botão escrito “Listen with” (escute com em português), clique no botão e você ouvirá música com seu amigo, como mostra a figura acima. Além de escutar você poderá comentar sobre a música.
Após lançar ações na bolsa, estima-se que o Facebook atingirá o valor de 100 bilhões de dólares ainda no primeiro semestre de 2012.
No total, a empresa registrou 421,2 milhões em ações vendidas, e devido a grande procura, aumentou o valor de uma ação de 34 dólares para 38 dólares, atingindo o máximo esperado. A oferta inicial informada era de 484,4 milhões, podendo arrecadar até 18,4 bilhões. A empresa será listada na bolsa da Nasdaq sob a sigla FB. A oferta de ações da rede social tornou-se a maior oferta de uma empresa de tecnologia, sendo também a 10ª maior dos últimos 25 anos.
Em 9 de abril de 2012, Mark Zuckerberg anuncia em seu perfil a aquisição do aplicativo Instagram pelo valor de aproximadamente 1 bilhão de dólares.
Após o lançamento na bolsa, o Facebook perdeu cerca de 50% do seu valor. Alguns sites publicaram uma possível saída de Mark Zuckerberg do posto de CEO do Facebook.
Na manhã do dia 4 de outubro, Marc Zuckerberg informou que havia já mais de mil milhões de utilizadores ativos do Facebook.
Em março de 2013 o Facebook anunciou mudanças em sua Linha do Tempo dos usuários. O novo design adiciona livros que o usuário leu ou gosta, filmes e músicas. A área fica ao lado das fotos pessoais e dos amigos. Quem gosta de assistir a filmes pode adicionar as produções favoritas e usar aplicativos como o Netflix para compartilhar o que se está assistindo no momento. A mudança vem acontecendo aos poucos, mas até o segundo semestre de 2013 todos os usuários já estarão com sua Linha do Tempo atualizada. Até o Google quis comprar o Facebook, mas Mark Zuckerberg não quis vender.
No dia 19 de fevereiro de 2014 a empresa anunciou que comprou o aplicativo WhatsApp por 16 bilhões de dólares. O valor é o mais alto já pago por um aplicativo móvel, desde que a própria rede social comprou o Instagram. Também é a maior aquisição do site de Mark Zuckerberg. O acordo também prevê um pagamento adicional de 3 bilhões de dólares aos fundadores e funcionários do WhatsApp que poderão comprar ações restritas do Facebook dentro de quatro anos. Além disso, o presidente-executivo e cofundador do WhatsApp, Jan Koum, tomará lugar no conselho administrativo do Facebook.
O website é gratuito para os usuários e gera receita proveniente de publicidade, incluindo banners, destaques patrocinados no feed de notícias.
Usuários criam perfis que contêm fotos e listas de interesses pessoais, trocando mensagens privadas e públicas entre si e participantes de grupos de amigos. A visualização de dados detalhados dos membros é restrita para membros de uma mesma rede ou amigos confirmados. De acordo com o TechCrunch, 85% dos membros dos colégios suportados têm um perfil cadastrado no website e, dentre eles, 60% fazem login diariamente no sistema, 85% o faz pelo menos uma vez por semana e 93% o faz pelo menos uma vez por mês. De acordo com Chris Hughes, porta-voz do Facebook, as pessoas gastam em média 19 minutos por dia no Facebook.
O Mural é um espaço na página de perfil do usuário que permite aos amigos postar mensagens para os outros verem. Ele é visível para qualquer pessoa com permissão para ver o perfil completo, e posts diferentes no mural aparecem separados no “Feed de Notícias”. Muitos usuários usam os murais de seus amigos para deixar avisos e recados temporários. Mensagens privadas são salvas em “Mensagens”, que são enviadas à caixa de entrada do usuário e são visíveis apenas ao remetente e ao destinatário, bem como num e-mail. Em julho de 2007 o Facebook, que só permitia posts de textos, passou a permitir postagem de anexos no mural.
O botão de “curtir/gostar” é um recurso onde os usuários podem gostar de certos conteúdos, tais como atualizações de status, comentários, fotos, links compartilhados por amigos, e propagandas. É também uma característica da Facebook Plataform, que permite aos sites participantes a exibirem um botão que permitem o compartilhamento de conteúdo do site com os amigos.
O Facebook adicionou um recurso chamado “Cutucar” (Brasil) ou “Toque” (Portugal) (em inglês: Poke) para que os usuários enviem “cutucadas” uns aos outros. Segundo o FAQ do Facebook, uma cutucada é “uma forma de você interagir com seus amigos no Facebook. Quando criamos a cutucada, achamos que seria interessante ter um recurso sem qualquer finalidade específica. As pessoas interpretam a cutucada de muitas maneiras diferentes, e nós encorajamos os usuários a interpretá-la com seu próprio significado”. A princípio, ele se destina a servir como uma forma de chamar a atenção do outro usuário. No entanto, muitos usuários o utilizam como uma forma de dizer “olá”.

Críticas
Facebook tem recebido inúmeras críticas principalmente por denuncias de que teria colaborado com o programa de vigilância eletrônica conhecido como PRISM, da Agência de Segurança Nacional estadunidense conhecida como NSA.
Apesar dos documentos revelados por Edward Snowden comprovarem a participação tanto do Facebook como de outras empresas, nos programas de vigilância, elas negam que hajam colaborado. A Microsoft, por exemplo, afirmou que só cede dados ao governo sob ordem judicial.
Todas as empresas como Google e Facebook negaram que tenham colaborado com a coleta de dados para o Prism, o programa secreto de monitoramento de e-mails, chats e buscas da Agência de Segurança Nacional (NSA) dos Estados Unidos. O jornalista estadunidense Glenn Greenwald, que tem acesso a todos os documentos secretos que revelaram um complexo mecanismo de espionagem dos usuários dos serviços de nove grandes empresas estadunidenses afirmou que não usa Facebook, e sim o Skype somente em casos de extrema necessidade, quando não há alternativa. Segundo Greenwald, apos avaliar os documentos, ele prefere não se arriscar.

13.207 – Mega Byte – O Sistema Blackbox da Linux


black box linux
É um gerenciador de janelas livre para sistemas Unix-like com X Window System. Se destaca pela leveza, sendo ideal para quem usa micro-computadores com poucos recursos e não quer abrir mão de uma interface gráfica. Um usuário conta que o Blackbox roda satisfatoriamente em um 486DX4 (66 MHz) com 16MB de memória RAM. Outras características são seu estilo minimalista e a capacidade do usuário personalizar seu visual a partir de temas. É escrito em C++ e contém código completamente original.
Blackbox é portável, podendo ser compilado e executado nos seguintes sistemas operacionais
BSD (principal plataforma de desenvolvimento)
Linux
IBM OS/2
Windows (under Cygwin)
Windows chamado BB4Win
Apple Mac OS X
Sun Solaris
SGI Irix
HP HP/UX
O Blackbox teoricamente roda em qualquer arquitetura.
O sucesso do BlackBox gerou alguns projetos derivados que se propuseram a continuar sua linha inicial de desenvolvimento – mas adicionar novos recursos. Alguns desses projetos são:

FluxBox
OpenBox
Um dos grandes motivos do sucesso do Blackbox e de suas variações é o fato dele ser uma interface completamente nova, diferente do Windows, MacOS, KDE e Gnome. O Blackbox foi desenvolvido do zero, tendo em mente um ambiente simples e rápido, mas ao mesmo tempo funcional. A página oficial é a http://blackboxwm.sourceforge.net
A interface do Blackbox é bastante simples. O iniciar pode ser acessado clicando com o botão direito sobre uma área vazia qualquer da área de trabalho
A barra de tarefas do Blackbox tem um layout bastante reduzido. As setas da esquerda permitem alternar entre as áreas de trabalho (você pode manter programas diferentes abertos em cada uma), enquanto as setas da esquerda alternam entre as janelas abertas

13.204 – Tecnologia – A era dos ciborgues chegou?


era dos cyborgues

 

Como todas as outras espécies, somos o resultado de milhões de anos de evolução. Agora, porém, estamos assumindo o comando desse processo.
Engenharia e medicina unem-se na criação de próteses comandadas por chip, sensores e software. Elas devolvem os movimentos a pernas, cotovelos, pés e mãos e substituem por perfeição até ouvidos.
Adam Jensen é um ex-policial americano que foi gravemente ferido enquanto tentava impedir um ataque ao laboratório em que trabalhava como segurança. À beira da morte em uma sala de cirurgia, conseguiu ser salvo por médicos que instalaram uma série de próteses cibernéticas em seu corpo.
Perfeitamente adaptados ao organismo de Jensen, os novos membros não foram apenas responsáveis por devolver-lhe a vida. Eles o transformaram em um super-homem: olhos que projetam informações digitais, ouvidos que funcionam como headphones, um braço capaz de esmagar paredes, pernas que realizam saltos inimagináveis.
Essas próteses sobre-humanas ainda não estão disponíveis. Fazem parte do enredo de Deus Ex: Human Revolution, game lançado no ano passado, ambientado na sociedade futurista de 2027. Na vida real, os pesquisadores ainda não conseguiram projetar membros capazes de expandir as habilidades humanas. Mas já fabricam próteses eletrônicas altamente tecnológicas que trazem conforto e segurança a milhares de pessoas, em todo o mundo, que sofrem com algum tipo de deficiência física.
Joelhos, pés, mãos, cotovelos, ouvidos. Com a ajuda de softwares e microprocessadores, engenheiros e médicos estão criando equipamentos artificiais cada vez mais semelhantes aos membros físicos, aproximando a ficção da realidade. “Trata-se de um conceito conhecido como biônico, quando a interface da prótese passa a ‘entender’ a necessidade do paciente”, afirma o fisioterapeuta José André Carvalho, diretor do Instituto de Prótese e Órtese (IPO), em Campinas, no interior de São Paulo.

Próteses inteligentes
Mesmo que a perfeita integração entre homem e máquina ainda não tenha sido totalmente alcançada, os membros eletrônicos disponíveis hoje já auxiliam seus usuários de maneira significativa. “Temos pacientes que jogam basquete, tênis, andam de skate, de bicicleta. Ao fazer essas atividades, eles esquecem que estão usando uma prótese”, diz o fisioterapeuta Carvalho.
O corretor de imóveis Reginaldo Dias de Souza, 39 anos, é um dos que nem percebem a falta do membro perdido. Primeiro, porque não tem tempo. Souza, que também é dono de uma empresa que realiza obras, passa o dia andando de um lado para outro, inspecionando a construção dos empreendimentos imobiliários.

Amputado da perna esquerda após sofrer um acidente de moto, em 2010, Souza é usuário da C-Leg, uma prótese eletrônica de joelho fabricada pela empresa alemã Otto Bock. “Não tenho mais medo de andar na rua e cair. Com a prótese consigo pular, descer uma rampa, andar em piso acidentado”, diz Souza. Antes da eletrônica, ele havia experimentado uma prótese convencional, mas não se adaptou. “Como ando muito, esquecia que estava usando uma prótese e acabava caindo com frequência. Não tinha segurança”, afirma Souza.

Após dez anos de pesquisas, a C-Leg foi lançada em 1997 e conta com mais de 50 mil usuários ao redor do mundo. O joelho eletrônico procura dar estabilidade total ao paciente na hora de caminhar, além de permitir realizar os movimentos com maior naturalidade. Para isso, o sistema é equipado com dois sensores internos responsáveis por fornecer informações como o ângulo e a velocidade de flexão do joelho. Um software interpreta esses dados e os envia ao microprocessador, que converte comandos para que um pequeno motor ative o sistema hidráulico, permitindo assim o movimento. Um detalhe importante: isso acontece 50 vezes a cada segundo.

Apesar da alta tecnologia empregada, o processo de adaptação do usuário à prótese não é simples. Antes de poder utilizá-la sem restrições, o paciente deve passar por um período de treinamento, ganhando confiança para voltar a andar. Além disso, o responsável pela instalação do membro artificial deve registrar algumas informações básicas no microprocessador interno da C-Leg, usando Bluetooth. “Quando o paciente está em treinamento na clínica, verifico seus movimentos usando gráficos e consigo fazer os ajustes necessários no software. Todas essas informações ficam armazenadas na prótese”, diz o fisioterapeuta José André Carvalho.

O usuário da C-Leg também conta com um controle remoto, que pode ser usado para a realização de atividades específicas. Caso queira andar de bicicleta, por exemplo, basta ligar uma função para que o joelho fique “livre”, sem nenhum tipo de travamento do controle hidráulico. Se preferir esquiar, é possível manter o equipamento em um ângulo específico, próprio para a prática da atividade. Apesar de todas essas possibilidades, o membro artificial ainda encontra uma limitação: não é à prova d´água. “Não poder entrar no mar com a prótese é uma coisa que me deixa chateado. Se elas tivessem algum tipo de blindagem seria limitação zero, daria para fazer qualquer coisa”, afirma Souza.

Mãos e ouvidos biônicos – Buscando explorar cada vez mais recursos, a Otto Bock lançou o Genium, um joelho eletrônico com tecnologia superior à da C-Leg. Já disponível no mercado europeu, o aparelho ainda depende da liberação da Anvisa (Agência Nacional de Vigilância Sanitária) para ser comercializado no Brasil.
Mas a oferta de próteses eletrônicas não fica restrita a joelhos e pernas. A empresa islandesa Össur projetou o Proprio Foot, um pé biônico que busca recriar o funcionamento do tornozelo. Por meio de sensores, o equipamento se adapta ao terreno em que pisa, modificando o funcionamento na hora de subir rampas e escadas, facilitando, assim, a movimentação do usuário.

Para os membros superiores, a alta tecnologia fica por conta das próteses de mãos. Desenvolvida pela companhia escocesa Touch Bionics, a i-LIMB revolucionou o mercado ao criar um sistema que permite o funcionamento de todos os dedos do membro artificial, a partir de motores independentes. Além disso, a prótese é capaz de realizar movimentos de rotação do punho e do dedão, possibilitando ao usuário segurar objetos de maneira segura.
A mão eletrônica funciona a partir da transmissão de impulsos nervosos vindos da contração dos músculos existentes na parte não amputada do braço. Captados por sensores instalados na prótese, esses sinais são convertidos em cargas elétricas e levados ao microprocessador do equipamento, permitindo a execução dos movimentos. Com um software instalado em seu computador pessoal, o usuário pode alterar os níveis de sensibilidade e aderência da mão, usando Bluetooth.

O jovem inglês Matthew James, 14 anos, é um dos pacientes que perceberam imediatamente os benefícios da i-LIMB. A nova prótese do garoto, que nasceu sem a mão esquerda, veio de uma maneira especial. Apaixonado por Fórmula 1, Matthew enviou uma carta para Ross Brawn, chefe de equipe da escuderia Mercedes. Nela, contava o desejo de ganhar uma prótese que fosse mais confortável e o ajudasse na vida cotidiana. Comovida, a equipe de corrida se dispôs a pagar parte das 35 mil libras (cerca de 95 mil reais), o valor da prótese.
Matthew contou sobre o novo membro tecnológico, que usa desde agosto do ano passado: “Agora, tenho muito mais controle e precisão. Posso segurar uma maçã ou, até mesmo, uma uva sem medo de esmagá-la. Além disso, ela é muito bonita. A luva transparente é sensacional.” Matthew afirma que usava pouco sua antiga prótese, porque era muito pesada e limitava os movimentos. Pesquisadores vêm desenvolvendo também membros artificiais que poderão substituir plenamente órgãos vitais, como coração, rins, pâncreas e bexiga.
Entre as próteses internas mais bem-sucedidas está o ouvido biônico. Com um procedimento conhecido como implante coclear, pessoas com surdez parcial ou total são capazes de voltar a receber estímulos sonoros. Desenvolvido desde o início da década de 80, o ouvido biônico funciona a partir de duas unidades, uma externa e outra interna.

A primeira é um processador de som. Captada por um microfone, a frequência sonora é digitalizada e enviada por meio de uma antena FM para a unidade interna. Instalado dentro do ouvido, na região da cóclea, esse dispositivo transforma os dados recebidos em impulsos elétricos, que estimularão o nervo auditivo responsável por levar as informações ao cérebro.
Processado por um software, o som que chega aos ouvidos parece uma voz robótica. Segundo o médico otorrinolaringologista Ricardo Ferreira Bento, coordenador do Grupo de Implante Coclear da Faculdade de Medicina da Universidade de São Paulo, o procedimento cirúrgico para a colocação da unidade interna é simples. “Um pequeno corte é feito atrás do ouvido para a instalação da unidade interna. A cirurgia demora cerca de uma hora e meia e o paciente sai do hospital no mesmo dia.”
Fabricado por quatro companhias, o ouvido biônico custa 60 mil reais. Mais de cem mil pessoas já fizeram o implante coclear no mundo. No Brasil, são realizados 800 procedimentos por ano. Só no Hospital das Clínicas de São Paulo, a equipe do doutor Bento realiza aproximadamente dez implantes por mês.
Ainda que o número de usuários seja alto, nem todas as pessoas que perderam a audição podem realizar o implante coclear. “O desenvolvimento do córtex cerebral deve ser levado em conta. Um indivíduo com 20 anos de idade que nasceu surdo e por isso nunca teve o cérebro estimulado terá um resultado pior do que o de um bebezinho de 1 ano. O ideal é que o implante seja feito o mais cedo possível”, afirma Bento.

Alto desempenho
Mesmo com tantos recursos tecnológicos, as próteses biônicas não são a única opção para as pessoas que perderam membros. É o que explica Ian Guedes, diretor do Centro Marian Weiss, de São Paulo, especializado na reabilitação de amputados. “A prótese mais avançada eletronicamente não é necessariamente a mais indicada. Precisamos sempre pensar quais são as necessidades e a expectativa do paciente.”
Um bom exemplo disso são os pés fabricados em fibra de carbono, como os desenvolvidos pela empresa Össur. Chamados Cheetah, são destinados a atletas e funcionam como molas. As próteses absorvem o impacto e devolvem essa energia na forma de impulsão. “Nesse caso, não podemos pensar em sistemas eletrônicos, pois não resistiriam aos choques intensos sofridos com o solo”, diz o fisioterapeuta José André Carvalho.

O atleta Alan Fonteles, 19 anos, já está acostumado a essa rotina de choques intensos. Nascido no Pará, o jovem sofreu uma biamputação abaixo dos joelhos quando tinha apenas 21 dias de vida, devido a uma infecção intestinal que se alastrou pela corrente sanguínea. Mas a amputação nunca lhe foi um empecilho. Com próteses mecânicas aprendeu a andar e a correr. Conheceu o atletismo aos 8 anos.
“Era doido para fazer algum esporte e, como alguns amigos praticavam atletismo, resolvi correr também. Em 2005 comecei a competir e em 2008 entrei para a seleção principal paraolímpica”, diz Alan, que conquistou duas medalhas de ouro no Mundial Juvenil, após vitórias nos 100 e 200 metros rasos, além de uma medalha de prata no revezamento 4 por 100 na Paraolimpíada de Pequim, na China.
Morando em São Paulo há quatro meses, Alan treina diariamente no Centro Olímpico do Ibirapuera, focado na Paraolimpíada de Londres, que acontece em agosto deste ano. Corre sobre pernas de fibra de carbono Cheetah que pesam 512 gramas cada e suportam até 147 quilos. “As próteses convencionais machucavam e não me permitiam melhorar o rendimento. Dei um salto no desempenho com a Cheetah”, diz Alan.
“Quando estou na pista de atletismo, tenho um retorno de energia muito grande, o que me permite correr em alta performance.” O modelo que o garoto pobre do Pará ganhou de presente e que mudou sua vida custa hoje cerca de 30 mil reais. Ele tem quatro pares. Fora das pistas, Alan usa próteses convencionais.

Competição de iguais – Com a Cheetah, alguns para-atletas já são capazes de competir em nível de igualdade com corredores olímpicos. É o caso do sul-africano Oscar Pistorius, 25 anos, que nasceu sem as fíbulas, osso localizado na parte lateral da perna. Biamputado que utiliza a Cheetah desde 2004, Pistorius é campeão paraolímpico em Atenas e Pequim. Conhecido como Blade Runner, em razão dos pés finos de fibra de carbono, o sul-africano participou, no ano passado, do Campeonato Mundial de Atletismo correndo ao lado de atletas não amputados.
Agora, na busca por vaga na Olimpíada de Londres, Pistorius tem até junho para conquistar o índice olímpico da prova dos 400 metros rasos, de 45s30. Em entrevista, Pistorius diz que quer fazer história nos Jogos Olímpicos ao tornar-se o primeiro atleta paraolímpico a disputar as competições regulares. “Tenho certeza de que serão os melhores jogos já disputados. Caso me qualifique, vou buscar ser consistente em cada corrida, vendo até onde consigo chegar.” Pistorius já está classificado para as competições paraolímpicas dos 100, 200 e 400 metros rasos.
Carro na vaga especial – Sem a necessidade de equipamentos eletrônicos, Daniela Raddi adaptou-se bem à sua prótese. Diretora de esportes do Instituto Paulo André, criado para inserir crianças e adolescentes carentes no mundo dos esportes, e ex-jogadora da Seleção Brasileira de Polo Aquático, Daniela sofreu uma amputação abaixo do joelho esquerdo em 2007, resultado de uma cirurgia malsucedida, e hoje utiliza uma prótese fabricada com fibra de vidro e carbono. No dia a dia, Daniela caminha com uma perna que possui um dispositivo capaz de inclinar o pé, o que possibilita até o uso de salto alto.
Para treinar natação, a atleta troca por uma prótese com nadadeira acoplada. “Tem gente que não faz ideia de que sou deficiente. Se manco um pouquinho, falam ‘você está com dor no joelho?’ E, muitas vezes, brigam comigo, dizendo que é um absurdo parar em vaga de carro para deficientes”, afirma Daniela.
Ainda que a reabilitação seja feita de maneira personalizada, de acordo com as necessidades de cada usuário, o desenvolvimento de próteses tecnológicas tende a disparar nos próximos anos. Mas por enquanto o cenário projetado em Deux Ex: Human Revolution está longe de ser concretizado. Quem sabe até 2027 não tenhamos uma nova geração de ciborgues aminhando pelas ruas?

O primeiro ciborgue
Neil Harbisson chama a atenção por si só. O cabelo em formato de tigela, as calças coloridas e o olhar zombeteiro fazem desse britânico de 29 anos uma figura peculiar. Mas é um pequeno dispositivo saindo de sua cabeça que o torna único: Harbisson é considerado o primeiro ciborgue do mundo. Ele nasceu com uma doença chamada acromatopsia, que o impede de enxergar cores. Mas seu mundo em preto e branco durou até 2004, ano em que desenvolveu o Eyeborg, um dispositivo que permite “escutar” as diferentes tonalidades de cor.
Capturada por uma webcam, a imagem é direcionada a um chip instalado em seu crânio e capaz de analisar a frequência da luz e transformá-la em som. Com as cores transformadas em frequências sonoras, Harbisson conseguiu expandir seus sentidos. Quando vai a um museu ou passeia pelas cidades, não só aprecia a beleza visual como também “ouve” as diversas tonalidades de cor presentes nos objetos.
Com seu Eyeborg, Harbisson consegue escanear os padrões de cores das metrópoles. Para ele, Londres é vermelha e amarela. São Paulo, uma mescla entre o azul e o vermelho. Formado em artes visuais, Harbisson fundou a Cyborg Foundation, cujo objetivo é ajudar humanos a se tornarem ciborgues. “A proposta é ampliar seus sentidos”, disse Harbisson.
Experimente perguntar a Harbisson como se sente sendo um ciborgue e a resposta será: “Fui gradualmente percebendo, ao notar que os componentes cibernéticos passaram a fazer parte de meus sentidos. Foi estranho porque não sabia quase nada sobre ciborgues quando comecei o projeto”. No início carregava um computador de 5 quilos com cabos. A grande mudança foi a instalação do chip, que é desenvolvido para que fique cada vez menor.

Esperança robótica
Épico. Esta foi a palavra encontrada pela mexicana Tamara Mena, 25 anos, para descrever um momento que jamais acreditou que viveria novamente. Moradora da Califórnia desde os 13 anos, ela e o namorado, Patrick, estavam num táxi em Rosarito Beach, na fronteira com o México, quando o carro atropelou um cavalo na estrada. O impacto lançou o animal para o ar. Ele caiu sobre o automóvel, matando na hora o motorista e Patrick. Tamara ficou paralisada do peito para baixo.
Era 2005 e, conformada de que nunca mais andaria, Tamara seguiu em frente. Concluiu o curso de comunicação na California State University e passou a fazer palestras e dar apoio a pessoas que vivem situação como a dela.
Foi num desses encontros que conheceu um projeto criado pela empresa Ekso Bionics. “Estava em um hospital e uma paciente comentou sobre um aparelho que estava sendo criado para pessoas paraplégicas”, disse Tamara. “Fui procurar mais informações e descobri uma tecnologia inimaginável.”
Fundada em 2005 na cidade de Berkeley, na Califórnia, a Ekso Bionics desenvolveu o Ekso, um exoesqueleto robótico capaz de devolver o movimento às pessoas que sofreram algum tipo de paralisia nos membros inferiores. Alimentados por duas baterias de íon de lítio, os quatro motores e quase 30 sensores espalhados pela estrutura de alumínio recriam os passos humanos. Com duas muletas, os pacientes ficam em pé e caminham, ainda que não tenham a sensibilidade do movimento.
“A primeira vez que usei o Ekso tive medo de cair. Era uma sensação diferente, já que não sentia as pernas. Parecia estar flutuando”, conta Tamara. “Após cinco anos e meio sem poder andar, era impressionante ver o meu pé tocando o solo, o joelho se dobrando. Estava caminhando, avançando.”
Tamara tornou-se “piloto de testes” da companhia desde fevereiro de 2011. Inicialmente, a concepção do exoesqueleto tinha fins militares. No ano 2000, a Darpa, agência americana vinculada ao Departamento de Defesa, iniciou o projeto Exoeskeletons for Human Performance Augmentation, que pretendia criar poderosas máquinas capazes de gerar mais força e resistência aos soldados no campo de batalha.
O processo de desenvolvimento comercial dos exoesqueletos começou em 2005, quando Homayoon Kazerooni, Russ Angold e Nathan Harding, professores do Laboratório de Engenharia Humana e Robótica de Berkeley, fundaram o que seria a Ekso Bionics. Em 2008, foi lançado o HULC (Human Universe Load Carrier), equipamento militar comprado pela empresa bélica Lockheed Martin. Três anos mais tarde seria a vez de a companhia anunciar o Ekso, versão “civil” do exoesqueleto.
Desde fevereiro deste ano, o Ekso está sendo vendido a hospitais americanos especializados no tratamento de pacientes com mobilidade comprometida. Por aproximadamente 130 mil dólares, o equipamento tem autonomia de três horas e necessita do auxílio de um especialista, responsável por ativá-lo e acompanhar os passos do usuário.

13.203 – Internet e Sociedade – A Frieza das redes Sociais


face whaqts
Inerente ao ser humano, o ato de reclamar encontrou no imediatismo e na simplicidade das redes sociais um novo lar, que oferece ao internauta um “megafone” para desabafar e reforçar seu ego.
A frieza do meio estimula o protesto e a crítica? Por que o ser humano usa a internet como um microfone inclusive para propagar mensagens destrutivas?
Vivemos tempos de muita democracia e pouca tecnocracia, que nas redes sociais qualquer cidadão pode se expressar em igualdade de condições com o maior analista em um assunto.

Quanto maior o acesso a tecnologia maior é a frieza do ser humano?
A tendência, no mundo atual, é as formas de contato social sofrerem uma reviravolta por causa das tecnologias. Antigamente, o contato familiar era mais frequente, pois não existiam formas de interação, como a internet e suas mais diversas ferramentas. Com o passar dos anos 90 e a difusão em larga escala da rede mundial de computadores, passa-se a ver ainda mais a individualização das pessoas na medida em que elas passam muito tempo no computador e se esquecem dos contatos primários (exemplo da família, amigos, namoradas ou namorados, entre outros).