13.269 – Mega Byte – A Ciência da Computação


ciencia da computacao

“ Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio, a biologia com o microscópio, ou a química com os tubos de ensaio. A ciência não estuda ferramentas, mas o que fazemos e o que descobrimos com elas. ”

É a ciência que estuda as técnicas, metodologias e instrumentos computacionais, que automatiza processos e desenvolve soluções baseadas no uso do processamento digital. Não se restringe apenas ao estudo dos algoritmos, suas aplicações e implementação na forma de software, extrapolando para todo e qualquer conhecimento pautado no computador, que envolve também a telecomunicação, o banco de dados e as aplicações tecnológicas que possibilitam atingir o tratamento de dados de entrada e saída, de forma que se transforme em informação. Assim, a Ciência da Computação também abrange as técnicas de modelagem de dados e os protocolos de comunicação, além de princípios que abrangem outras especializações da área.
Enquanto ciência, classifica-se como ciência exata, apesar de herdar elementos da lógica filosófica aristotélica, tendo por isto um papel importante na formalização matemática de algoritmos, como forma de representar problemas decidíveis, i.e., os que são susceptíveis de redução a operações elementares básicas, capazes de serem reproduzidas através de um qualquer dispositivo mecânico/eletrônico capaz de armazenar e manipular dados. Um destes dispositivos é o computador digital, de uso generalizado, nos dias de hoje. Também de fundamental importância para a área de Ciência da Computação são as metodologias e técnicas ligadas à implementação de software que abordam a especificação, modelagem, codificação, teste e avaliação de sistemas de software.
Os estudos oriundos da Ciência da Computação podem ser aplicados em qualquer área do conhecimento humano em que seja possível definir métodos de resolução de problemas baseados em repetições previamente observadas. Avanços recentes na Ciência da Computação tem impactado fortemente a sociedade contemporânea, em particular as aplicações relacionadas às áreas de redes de computadores, Internet, Web e computação móvel que têm sido utilizadas por bilhões de pessoas ao redor do globo.

abaco

Um pouco de História
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a habitantes da Mesopotâmia, em torno de 2700–2300 a.C.. Seu uso original era desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.
No século VII a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou transformações e recursividade com tamanha sofisticação que sua gramática possuía o poder computacional teórico tal qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os logaritmos para uso computacional no século XVI, seguiu-se um período de considerável progresso na construção de ferramentas de cálculo.
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o sistema de numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o matemático persa al-Khwarizmi escreveu o livro Calculando com numerais hindus, responsável pela difusão do sistema de numeração hindu-arábico no Oriente Médio, e posteriormente na Europa. Por volta do século XII houve uma tradução do mesmo livro para o latim: Algoritmi de numero Indorum. Tais livros apresentaram novos conceitos para definir sequências de passos para completar tarefas, como aplicações de aritmética e álgebra. Por derivação do nome do matemático,actualmente usa-se o termo algoritmo.

Lógica binária
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de numeração binário. Ainda usado atualmente no processamento de todos computadores modernos, o sistema estabelece que sequências específicas de uns e zeros podem representar qualquer informação.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e matemático, utilizando o sistema binário. Em seu sistema, uns e zeros também representam conceitos como verdadeiro e falso, ligado e desligado, válido e inválido. Mais de um século depois, George Boole publicou a álgebra booleana (em 1854), com um sistema completo que permitia a construção de modelos matemáticos para o processamento computacional. Em 1801, apareceu o tear controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual buracos indicavam os uns e, áreas não furadas, indicavam os zeros. O sistema está longe de ser um computador, mas ilustrou que as máquinas poderiam ser controladas pelo sistema binário.

Foi com Charles Babbage que o computador moderno começou a ganhar forma, através de seu trabalho no engenho analítico. O equipamento descrito originalmente em 1837, mais de um século antes de seu sucessor, nunca foi construído com sucesso, mas possuía todas as funções de um computador moderno. O dispositivo de Babbage se diferenciava por ser programável, algo imprescindível para qualquer computador moderno.
Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros programas de computador em uma série de notas para o engenho analítico. Por isso, Lovelace é popularmente considerada como a primeira programadora.

Nascimento da Ciência da Computação
Antes da década de 1920, computador era um termo associado a pessoas que realizavam cálculos, geralmente liderados por físicos. Milhares de computadores eram empregados em projetos no comércio, governo e sítios de pesquisa. Após a década de 1920, a expressão máquina computacional começou a ser usada para referir-se a qualquer máquina que realize o trabalho de um profissional, especialmente aquelas de acordo com os métodos da Tese de Church-Turing.
O termo máquina computacional acabou perdendo espaço para o termo reduzido computador no final da década de 1940, com as máquinas digitais cada vez mais difundidas. Alan Turing, conhecido como pai da Ciência da Computação, inventou a Máquina de Turing, que posteriormente evoluiu para o computador moderno.
Os fundamentos matemáticos da Ciência da Computação moderna começaram a ser definidos por Kurt Gödel com seu teorema da incompletude (1931). Essa teoria mostra que existem limites no que pode ser provado ou desaprovado em um sistema formal; isso levou a trabalhos posteriores por Gödel e outros teóricos para definir e descrever tais sistemas formais, incluindo conceitos como recursividade e cálculo lambda.
Em 1936 Alan Turing e Alonzo Church independentemente, e também juntos, introduziram a formalização de um algoritmo, definindo os limites do que pode ser computador e um modelo puramente mecânico para a computação. Tais tópicos são abordados no que atualmente chama-se Tese de Church-Turing, uma hipótese sobre a natureza de dispositivos mecânicos de cálculo. Essa tese define que qualquer cálculo possível pode ser realizado por um algoritmo sendo executado em um computador, desde que haja tempo e armazenamento suficiente para tal.
Turing também incluiu na tese uma descrição da Máquina de Turing, que possui uma fita de tamanho infinito e um cabeçote para leitura e escrita que move-se pela fita. Devido ao seu caráter infinito, tal máquina não pode ser construída, mas tal modelo pode simular a computação de qualquer algoritmo executado em um computador moderno. Turing é bastante importante para a Ciência da Computação, tanto que seu nome é usado para o Prêmio Turing e o teste de Turing. Ele contribuiu para a quebra do código da Alemanha pela Grã-Bretanha[3] na Segunda Guerra Mundial, e continuou a projetar computadores e programas de computador pela década de 1940; cometeu suicídio em 1954.
Até a década de 1930, engenheiros eletricistas podiam construir circuitos eletrônicos para resolver problemas lógicos e matemáticos, mas a maioria o fazia sem qualquer processo, de forma particular, sem rigor teórico para tal. Isso mudou com a tese de mestrado de Claude Shannon de 1937, A Symbolic Analysis of Relay and Switching Circuits. Enquanto tomava aulas de Filosofia, Shannon foi exposto ao trabalho de George Boole, e percebeu que poderia aplicar esse aprendizado em conjuntos eletro-mecânicos para resolver problemas. Shannon desenvolveu a teoria da informação no artigo de 1948: A Mathematical Theory of Communication , cujo conteúdo serve como fundamento para áreas como compressão de dados e criptografia.
Apesar de sua pequena história enquanto uma disciplina acadêmica, a Ciência da Computação deu origem a diversas contribuições fundamentais para a ciência e para a sociedade. Esta ciência foi responsável pela definição formal de computação e computabilidade, e pela prova da existência de problemas insolúveis ou intratáveis computacionalmente.
Também foi possível a construção e formalização do conceito de linguagem de computador, sobretudo linguagem de programação, uma ferramenta para a expressão precisa de informação metodológica flexível o suficiente para ser representada em diversos níveis de abstração.
Para outros campos científicos e para a sociedade de forma geral, a Ciência da Computação forneceu suporte para a Revolução Digital, dando origem a Era da Informação.
A computação científica é uma área da computação que permite o avanço de estudos como o mapeamento do genoma humano (ver Projeto Genoma Humano).

Blaise Pascal, desenvolveu a calculadora mecânica e tem seu nome em uma linguagem de programação;
Charles Babbage, projetou um computador mecânico, a máquina analítica;
Ada Lovelace, considerada a primeira pessoa programadora, deu nome à uma linguagem de programação;
Alan Turing, participou do projeto Colossus e foi um dos cérebros que decifra a Enigma. Também inventou um tipo teórico de máquina super-simples capaz de realizar qualquer cálculo de um computador digital, a Máquina de Turing
John von Neumann, descreveu o computador que utiliza um programa armazenado em memória, a Arquitetura de von Neumann, que é a base da arquitetura dos computadores atuais
John Backus, líder da equipe que criou o Fortran e criou a notação BNF
Maurice Vicent. Wilkes, inventor do somador binário
Howard Aiken, inventor do Mark I
Walter H. Brattain, inventor do transístor
William Shockley, inventor do transístor
John Bardeen, inventor do transístor
Fred Williams, inventor da memória RAM
Tom Kilburn, inventor da memória RAM
Konrad Zuse, inventor independente do computador digital e de linguagens de programação na Alemanha nazista
John Atanasoff, inventor do primeiro computador digital, o Atanasoff–Berry Computer, ABC
Clifford Berry, assistente de Atanasoff
Almirante Grace Hopper, programadora do Mark I, desenvolveu o primeiro compilador; primeira mulher a receber um Ph.D. em matemática
Edsger Dijkstra, líder do ALGOL 60, publicou o artigo original sobre programação estruturada
J. Presper Eckert, criador do ENIAC
John William Mauchly, criador do ENIAC

Abrange
Arquitetura de computadores — o desenvolvimento, a organização, a otimização e a verificação de sistemas computacionais
Computação distribuída — computação sendo executada em diversos dispositivos interligados por uma rede, todos com o mesmo objetivo comum
Computação paralela — computação sendo executada em diferentes tarefas; geralmente concorrentes entre si na utilização de recursos
Computação quântica — representação e manipulação de dados usando as propriedades quânticas das partículas e a mecânica quântica
Sistemas operacionais — sistemas para o gerenciamento de programas de computador e para a abstração da máquina, fornecendo base para um sistema utilizável
Por ser uma disciplina recente, existem várias definições alternativas para a Ciência da Computação. Ela pode ser vista como uma forma de ciência, uma forma de matemática ou uma nova disciplina que não pode ser categorizada seguindo os modelos atuais. Várias pessoas que estudam a Ciência da Computação o fazem para tornarem-se programadores, levando alguns a acreditarem que seu estudo é sobre o software e a programação. Apesar disso, a maioria dos cientistas da computaçao são interessados na inovação ou em aspectos teóricos que vão muito além de somente a programação, mais relacionados com a computabilidade.
Apesar do nome, muito da Ciência da Computação não envolve o estudo dos computadores por si próprios. De fato, o conhecido cientista da computação Edsger Dijkstra é considerado autor da frase “Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio […]”. O projeto e desenvolvimento de computadores e sistemas computacionais são geralmente considerados disciplinas fora do contexto da Ciência da Computação. Por exemplo, o estudo do hardware é geralmente considerado parte da engenharia da computação, enquanto o estudo de sistemas computacionais comerciais são geralmente parte da tecnologia da informação ou sistemas de informação.
Por vezes a Ciência da Computação também é criticada por não ser suficientemente científica, como exposto na frase “Ciência é para a Ciência da Computação assim como a hidrodinâmica é para a construção de encanamentos”, credita a Stan Kelly-Bootle.
Apesar disso, seu estudo frequentemente cruza outros campos de pesquisa, tais como a inteligência artifical, física e linguística.
Ela é considerada por alguns por ter um grande relacionamento com a matemática, maior que em outras disciplinas. Isso é evidenciado pelo fato que os primeiros trabalhos na área eram fortemente influenciados por matemáticos como Kurt Gödel e Alan Turing; o campo continua sendo útil para o intercâmbio de informação com áreas como lógica matemática, teoria das categorias e álgebra. Apesar disso, diferente da matemática, a Ciência da Computação é considerada uma disciplina mais experimental que teórica.

Várias alternativas para o nome da disciplina já foram cogitadas. Em francês ela é chamada informatique, em alemão Informatik, em espanhol informática, em holandês, italiano e romeno informatica, em polonês informatyka, em russo информатика e em grego Πληροφορική. Apesar disso, tanto em inglês quanto em português informática não é diretamente um sinônimo para a Ciência da Computação; o termo é usado para definir o estudo de sistemas artificiais e naturais que armazenam processos e comunicam informação, e refere-se a um conjunto de ciências da informação que engloba a Ciência da Computação. Em Portugal, no entanto, apesar de a palavra estar dicionarizada com esse sentido amplo, o termo é usado como sinónimo de Ciência da Computação.
De forma geral, cientistas da computação estudam os fundamentos teóricos da computação, de onde outros campos derivam, como as áreas de pesquisa supracitadas. Como o nome implica, a Ciência da Computação é uma ciência pura, não aplicada. Entretanto, o profissional dessa área pode seguir aplicações mais práticas de seu conhecimento, atuando em áreas como desenvolvimento de software, telecomunicação, consultoria, análise de sistemas, segurança em TI, governança em TI, análise de negócios e tecnologia da informação. O profissional de computação precisa ter muita determinação na apreensão tecnológica, uma vez que esta área sofre contínuas transformações, modificando rapidamente paradigmas.

10.607 – USP e Unicamp firmam parceria com grande plataforma de cursos online


Campus da USP no Butantã, São Paulo
Campus da USP no Butantã, São Paulo

Desde que foi criada na Universidade de Stanford em abril de 2012, a plataforma de cursos online gratuitos Coursera cresceu vertiginosamente: partindo de uma experiência com três cursos realizada poucos meses antes, que abrangia algumas centenas de pessoas, em pouco mais de dois anos a ferramenta está oferecendo 760 cursos, elaborados por 110 instituições de ensino e atingindo 9 milhões de estudantes do mundo todo.
O problema é que apenas 28 destes cursos foram legendados em português por 300 tradutores voluntários, e a maior parte do conteúdo do site está em inglês. Se alguém tivesse interesse em se inscrever em um dos programas, provavelmente teria que ter fluência no idioma – mas mesmo com as dificuldades, os usuários brasileiros chegam a 300 mil. “O Brasil demonstra ter uma forte paixão pela educação, mas ainda assim muitos não têm acesso a um conteúdo de qualidade. Por isso acreditamos que aqui é um lugar chave para se promover um grande impacto”, explica Daphne Koller, que já foi professora de ciência da computação em Stanford antes de ajudar a fundar o Coursera.
Para fortalecer ainda mais sua presença no país, a empresa anunciou oficialmente nesta quarta-feira (17/9) que as duas maiores universidades brasileiras, a USP e a Unicamp, vão começar a produzir cursos em língua portuguesa especialmente para o serviço. “Ninguém sabe exatamente qual é a direção que os cursos online vão tomar, cada faculdade faz de um jeito. Mas ninguém tem dúvida de que vão ser importantíssimos”, disse o empresário Jorge Paulo Lemann na cerimônia de lançamento. A Fundação Lemann, que fomenta a educação no Brasil, é a apoiadora oficial do projeto por aqui.
Tanto para a Universidade de Campinas quanto para a de São Paulo, a parceria é estratégica por três motivos: se alinha à busca comum de ambas por métodos de seleção alternativos ao vestibular, possibilita o acesso à enorme base de dados do serviço e também amplia o alcance do conteúdo acadêmico não apenas no Brasil, mas em toda a população lusófona. “Hoje queremos abrir o leque e buscar os melhores alunos, fabricá-los e contribuir na formação deles. Nós não vamos reinventar a roda, o Coursera é quase uma fábrica para se saber o que funciona ou não”.
A USP já soma quatro cursos agendados, três deles sobre finanças e negócios, e um sobre astronomia – “Origens da Vida no Contexto Cósmico”. A Unicamp conta com dois, nas áreas de computação e empreendedorismo. Apesar da data inicial ainda não estar marcada, a estimativa é que as atividades se iniciem no início do ano que vem. A expectativa das instituições é altíssima: o pró-reitor Meyer comparou o ingresso na plataforma com a simbólica superação do Cabo Bojador pelos portugueses. “Nós vamos descobrir Angola, chegar a Moçambique e dizer para o Cabo das Tormentas que ele é o cabo da Boa Esperança”.

8706 – Mega Byte – A Ciência da Computação II


Um breve reforço nos conceitos básicos…

É a área que estuda o uso e implementação dos algoritmos em computadores e softwares. Através de campo de conhecimento matemático torna-se possível suprimir processos de cálculos matemáticos e soluções de problemas através do uso de dispositivos mecânicos e eletrônicos.
Entre as ferramentas e dispositivos destacamos o computador digital e seus demais componentes tecnológicos. Outra ferramenta fundamental é o software que de forma geral oferece programas para registros, segurança digital, especificações, modelagens, testes e codificações de números e linguagens.
A ciência da computação, através de seus produtos, tem envolvido toda a sociedade global através do barateamento dos computadores, do acesso à Internet e ao conteúdo da mesma. Porém, uma das primeiras ferramentas desta ciência não foi um dispositivo eletrônico, e sim mecânico, o ábaco.
O ábaco foi inventado em torno de 2.400 a.C, na Mesopotâmia, e servia para desenhar linhas na areia com rochas. Os indianos, entre os anos 200 a.C e 400, criaram o logaritmo; que no século XIII, passou a ser estudado pelos islâmicos em tabelas logarítmicas.
Os indianos, através do estudo do matemático Pingala, desenvolveram o sistema de numeração binário, que até os dias atuais, estabelece que sequências específicas de “um” e “zero” podem representar informações de vários sentidos. Leibniz, matemático e filósofo , desenvolveu a lógica binária, na qual um e zero poderiam representar os conceitos de ligado ou desligado.
Os modelos matemáticos para o processamento da computação surgiu através da álgebra booleana, criada por George Boole em 1854. Antes, em 1837, Charles Babbage idealizou uma máquina similar à ideia de computador que viria a existir em meados do século XX, o equipamento que havia desenhado nunca foi construído e pertencia ao seu engenho analítico. Charles Babbage imaginou a ideia de programar algo através de uma máquina, o que se materializou nos computadores modernos.

8446 – Um Gênio Perseguido


No ano passado comemorou-se o centenário de nascimento do inglês Alan Turing, homenageado por uma concorrida exposição no Museu da Ciência de Londres. O que parece a princípio uma celebração doméstica tem, na verdade, contornos mais grandiosos: o pouco conhecido Turing está por trás de todos os computadores em ação no mundo. Ao formalizar os conceitos de algoritmo e computação, em um aparelho concebido teoricamente, esse matemático deu um empurrão fundamental no desenvolvimento da ciência da computação.
Turing nasceu em Londres em 23 de junho de 1912. Aos 24 anos já se destacava pela concepção de uma “máquina universal” – conhecida depois como máquina de Turing – cujo funcionamento lógico já pressupunha memória, estados e transições. Ela é a base de todo computador digital em uso. O conceito tornou possível o processamento de símbolos que fazem a ponte entre a abstração de sistemas cognitivos e a realidade dos números, um tema de especial interesse para os pesquisadores da inteligência artificial.
As habilidades de Turing o levaram a trabalhar, durante a Segunda Guerra Mundial, na equipe do centro de decifração de códigos do governo britânico (conhecida como Ultra), em Bletchley Park. Ali, o matemático criou uma série de técnicas e máquinas para quebrar os códigos da Marinha nazista.
Uma delas, um aparelho eletromecânico conhecido como Bombe, decifrou milhares de mensagens encriptadas pela máquina Enigma, usada pelos alemães. A atuação de Turing e sua equipe mereceu um elogio público do primeiro-ministro Winston Churchill feito na presença do rei George VI: “Foi graças à Ultra que ganhamos a guerra.”
Apesar de ser herói nacional, o cientista acabou sendo vítima do preconceito homofóbico.

Escândalo e vergonha
Depois do fim do conflito, em 1945, o matemático foi trabalhar no Laboratório Nacional de Física e no Laboratário de Computação da Universidade de Manchester, desenvolvendo aparelhos e programas de computação. Também deu uma contribuição importante para o campo da biologia matemática, escrevendo uma monografia sobre as bases químicas da morfogênese e antecipando em alguns anos a existência de reações químicas oscilantes fora da situação de equilíbrio.

Enquanto isso, sua vida pessoal entrava em ebulição. Homossexual discreto, Turing iniciou uma turbulenta relação com um técnico da Universidade de Manchester, Arnold Murray. O pesquisador se aproveitou da intimidade com o cientista para ajudar um cúmplice a Patrocínio: arrombar a casa do namorado. Após denunciar o assalto à polícia, o matemático viu o foco da investigação transitar da invasão da sua residência para a exploração da sua própria conduta sexual.
Em 1952, o homossexualismo era classificado como atentado violento ao pudor no Reino Unido. Uma condenação poderia colocar Turing na prisão. O cientista optou, então, pela castração química, tomando uma série de injeções de hormônio. As consequências desse tratamento lhe foram devastadoras, tanto física quanto mentalmente.
Turing teve de deixar a Universidade de Manchester e também foi impedido de trabalhar para o governo britânico. No dia 7 de junho de 1954, foi encontrado morto em sua casa, em Winslow, envenenado por uma dose de cianeto. O motivo do envenenamento, acidental ou provocado, é tema de discussão até hoje, mas a versão oficial foi de suicídio.
O homossexualismo só deixou de ser crime pelas leis britânicas em 1967. A partir daí o legado de Turing começou a ser resgatado. Em 2009, o primeiro-ministro Gordon Brown fez um pedido de desculpas póstumo, público, ao pioneiro, citando sua “contribuição excepcional” para o fim da guerra. “A dívida de gratidão que lhe é devida torna ainda mais horrível o tratamento desumano que lhe foi dado”, disse Brown. “Pedimos desculpas. Você merecia algo muito melhor.”

8244 – Mega Byte – Google e Nasa compram computador quântico


d-Wave, o 1° computador quântico
d-Wave, o 1° computador quântico

O Google anunciou que irá abrir um Laboratório Quântico de Inteligência Artificial em parceria com a Nasa e com a Universities Space Research Association (USRA – Associação de Universidades com Pesquisas Espaciais dos Estados Unidos). Para tanto, as organizações adquiriram um computador da D-Wave Systems — a primeira empresa do mundo a comercializar computadores quânticos — que será instalado no centro Ames da Nasa, na Califórnia. Em teoria, esses computadores permitirão avanços em inteligência artificial e na resolução de uma série de problemas da ciência da computação com os quais as máquinas atuais não conseguem lidar. O laboratório deve ser aberto aos pesquisadores no segundo semestre.

Os computadores quânticos não se baseiam nos fundamentos da física clássica, mas sim nos da física quântica, que descreve o comportamento das partículas menores do que os átomos. Enquanto na mecânica clássica uma partícula só pode assumir um estado de cada vez, na quântica ela pode assumir dois ao mesmo tempo — é o que os físicos chamam de sobreposição. A menor informação que um computador normal pode entender é um bit: um dígito binário, que pode ser 0 ou 1. Já no computador quântico, os pesquisadores podem usar os qubits, que podem valer 0 ou 1, como o bit, mas também 0 e 1 ao mesmo tempo. Esta característica permite aos computadores quânticos realizar milhões de cálculos simultaneamente. A máquina comprada para equipar o laboratório se chama D-Wave Two, possui 512 qubits e faz parte da segunda geração de computadores produzidos pela empresa. Segundo uma reportagem da BBC, o equipamento custou 15 milhões de dólares.

Inteligência artificial
Segundo o Google, a máquina deve ajudar na resolução de um dos mais desafiantes problemas da ciência da computação: o aprendizado das máquinas. Ao fazer os computadores selecionarem e analisarem dados com base em experiências anteriores, os pesquisadores esperam poder aprimorar a inteligência artificial para o reconhecimento da fala, tradução e busca por imagens.
Além disso, os cientistas esperam poder usar o computador para um grande número de aplicações, que vai da busca por planetas fora do Sistema Solar ao planejamento e agendamento de atividades. Como a USRA está envolvida nos projetos, um grande número de pesquisadores de universidades americanas poderá usar a máquina em suas pesquisas.
Esse é apenas o segundo computador quântico vendido pela D-Wave. O primeiro foi comercializado para a empresa aeroespacial Lockheed Martin, em 2011. Segundo uma reportagem veiculada na página da revista Nature na internet, a maioria das pesquisas com esse primeiro computador serviram para entender como ele funcionava e como poderia ser usado, em vez de resolver algum problema inédito.

7107 – Mega Byte – A Ciência da Computação


Trata-se do estudo dos algoritmos, suas aplicações e de sua implementação, na forma de software, para execução em computadores eletrônicos.
Desempenha um papel importante, na área de ciência da computação, a formalização matemática de algoritmos, como forma de representar problemas decidíveis, i.e., os que são susceptíveis de redução a operações elementares básicas, capazes de serem reproduzidas através de um qualquer dispositivo mecânico/eletrônico capaz de armazenar e manipular dados. Um destes dispositivos é o computador digital, de uso generalizado, nos dias de hoje. Também de fundamental importância para a área de ciência da computação são as metodologias e técnicas ligadas à implementação de software que abordam a especificação, modelagem, codificação, teste e avaliação de sistemas de software.
Os estudos oriundos da ciência da computação podem ser aplicados em qualquer área do conhecimento humano em que seja possível definir métodos de resolução de problemas baseados em repetições previamente observadas. Avanços recentes na ciência da computação tem impactado fortemente a sociedade contemporânea, em particular as aplicações relacionadas às áreas de redes de computadores, Internet, Web e computação móvel que têm sido utilizadas por bilhões de pessoas ao redor do globo.

Um Pouco +
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a habitantes da Mesopotâmia, em torno de 2700–2300 a.C.. Seu uso original era desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.
No século VII a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou transformações e recursividade com tamanha sofisticação que sua gramática possuía o poder computacional teórico tal qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os logaritmos para uso computacional no século XVI, seguiu-se um período de considerável progresso na construção de ferramentas de cálculo.
Algoritmos
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o sistema de numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o matemático persa al-Khwarizmi escreveu o livro Calculando com numerais hindus, responsável pela difusão do sistema de numeração hindu-arábico no Oriente Médio, e posteriormente na Europa. Por volta do século XII houve uma tradução do mesmo livro para o latim: Algoritmi de numero Indorum. Tais livros apresentaram novos conceitos para definir sequências de passos para completar tarefas, como aplicações de aritmética e álgebra. Por derivação do nome do matemático, atualmente usa-se o termo algoritmo.
Lógica binária
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de numeração binário. Ainda usado atualmente no processamento de todos computadores modernos, o sistema estabelece que sequências específicas de uns e zeros podem representar qualquer informação.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e matemático, utilizando o sistema binário. Em seu sistema, uns e zeros também representam conceitos como verdadeiro e falso, ligado e desligado, válido e inválido. Mais de um século depois, George Boole publicou a álgebra booleana (em 1854), com um sistema completo que permitia a construção de modelos matemáticos para o processamento computacional. Em 1801, apareceu o tear controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual buracos indicavam os uns e, áreas não furadas, indicavam os zeros. O sistema está longe de ser um computador, mas ilustrou que as máquinas poderiam ser controladas pelo sistema binário.

Engenho analítico
Foi com Charles Babbage que o computador moderno começou a ganhar forma, através de seu trabalho no engenho analítico. O equipamento, apesar de nunca ter sido construído com sucesso, possuía todas as funcionalidades do computador moderno. Foi descrito originalmente em 1837, mais de um século antes que qualquer equipamento do gênero tivesse sido construído com sucesso. O grande diferencial do sistema de Babbage era o fato que seu dispositivo foi projetado para ser programável, item imprescindível para qualquer computador moderno.
Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros programas de computador em uma série de notas para o engenho analítico. Por isso, Lovelace é popularmente considerada como a primeira programadora.
Antes da década de 1920, computador era um termo associado a pessoas que realizavam cálculos, geralmente liderados por físicos. Milhares de computadores eram empregados em projetos no comércio, governo e sítios de pesquisa. Após a década de 1920, a expressão máquina computacional começou a ser usada para referir-se a qualquer máquina que realize o trabalho de um profissional, especialmente aquelas de acordo com os métodos da Tese de Church-Turing.
O termo máquina computacional acabou perdendo espaço para o termo reduzido computador no final da década de 1940, com as máquinas digitais cada vez mais difundidas. Alan Turing, conhecido como pai da ciência da computação, inventou a Máquina de Turing, que posteriormente evoluiu para o computador moderno.

Precursores
Blaise Pascal, desenvolveu a calculadora mecânica e tem seu nome em uma linguagem de programação;
Charles Babbage, projetou um computador mecânico, a máquina analítica;
Ada Lovelace, considerada a primeira pessoa (e mulher) programadora, deu nome à uma linguagem de programação;

Por ser uma disciplina recente, existem várias definições alternativas para a ciência da computação. Ela pode ser vista como uma forma de ciência, uma forma de matemática ou uma nova disciplina que não pode ser categorizada seguindo os modelos atuais. Várias pessoas que estudam a ciência da computação o fazem para tornarem-se programadores, levando alguns a acreditarem que seu estudo é sobre o software e a programação. Apesar disso, a maioria dos cientistas da computaçao são interessados na inovação ou em aspectos teóricos que vão muito além de somente a programação, mais relacionados com a computabilidade.

6815 – Neurociência


Só nos EUA são 3 mil casos nos tribunais, baseados no depoimento de gente que garante ter recuperado lembranças traumáticas. São acusações de estupro e abusos sexuais. Muitas de tais recordações podem ser memórias imaginárias e o acusador nem sabe que está mentindo. Medicos fazem testes com estímulos cerebrais para saber a velocidade e intensidade do tráfego de informações no cérebro.

Um Pouco +
Neurociência é o estudo científico do sistema nervoso. Tradicionalmente, a neurociência tem sido vista como um ramo da biologia. Entretanto, atualmente ela é uma ciência interdisciplinar que colabora com outros campos como a química, ciência da computação, engenharia, linguística, matemática, medicina e disciplinas afins, filosofia, física e psicologia. O termo neurobiologia é usualmente usado alternadamente com o termo neurociência, embora o primeiro se refira especificamente a biologia do sistema nervoso, enquanto o último se refere à inteira ciência do sistema nervoso.
O escopo da neurociência tem sido ampliado para incluir diferentes abordagens usadas para estudar os aspectos moleculares, celulares, de desenvolvimento, estruturais, funcionais, evolutivos, e médicos do sistema nervoso, ainda sendo ampliado para incluir a cibernética como estudo da comunicação e controle no animal e na máquina com resultados fecundos para ambas áreas do conhecimento. As técnicas usadas pelos neurocientistas tem sido expandida enormemente, de estudos moleculares e celulares de neurônios individuais até imageamento de tarefas sensoriais e motoras no cérebro. Avanços teóricos recentes na neurociência têm sido auxiliados pelo estudo das redes neurais.
Dado o número crescente de cientistas que estudam o sistema nervoso, várias proeminentes organizações de neurociência tem sido formadas para prover um fórum para todos os neurociêntistas e educadores.
Observe-se que a maioria dos vocábulos com prefixo neuro podem ser substituídos ou associados ao prefixo psico, a moderna neurociência tende a reunir as produções isoladas face ao risco de perder a visão global do seu objeto de estudo: o sistema nervoso, contudo a complexidade deste, e em especial do sistema nervoso central da espécie humana, exige o estudo isolado de cada campo e o exercício da inter-relação de pesquisas.

O cérebro, a mente e os seus problemas
Além da tarefa ainda não concluída em milhares de anos de pesquisas, especulações, tentativas, erros e acertos sobre a anatomia e fisiologia do cérebro e de suas funções, sejam o comportamento/pensamento (psique) ou os mecanismos de regulação orgânica e interação psicossocial alguns problemas se impõem aos pesquisadores, destacando-se entre estes os que podem ser reunidos pela patologia.
Ressalte-se, porém, a inconveniência de reduzir a neurociência à clínica e anatomia patológica como na história da medicina já se fez, e perdermos de vista a possibilidade de construção de um conhecimento da saúde (não redutível ao oposto qualificativo da doença) considerando também as dificuldades de aplicação dos conceitos da patologia às variações genéticas e bioquímicas das espécies e natureza da psique e/ou comportamento.