3021 – Terremotos alteram eixo da Terra


Pesquisadores do JPL (Laboratório de Propulsão a Jato), da agência espacial americana Nasa, calculam que o terremoto recente no Japão deslocou o eixo rotacional da Terra em mais de 16,5 centímetros, alterando levemente a distribuição de massa no planeta.
Mas, segundo Allegra N. LeGrande, do Centro de Pesquisa de Sistemas Climáticas da Universidade Columbia, “alterações naturais na massa da Terra na atmosfera e oceanos também causam mudanças de aproximadamente 99 centímetros no eixo rotacional todo ano”
A mudança cíclica na inclinação do eixo associada a deslocamentos astronômicos, chamadas de obliquidade, tem um ciclo bastante longo, cerca de 41 mil anos, e mudam a inclinação de cerca de 22,1 graus para 24,5 graus. No presente momento, ela está ao redor de 23,4 graus.
Em latitudes mais altas, uma obliquidade maior significa maior irradiação anual total. Nas latitudes baixas, o oposto é válido e, nas médias, praticamente inexiste mudança.
Segundo LeGrande, quando a obliquidade é elevada, as diferenças entre o equador e os polos na irradiação total e, também, na temperatura, é mais ampla, resultando em estações do ano mais extremas.

3020 – Novo medidor espacial vai buscar matéria escura do Universo


Um equipamento que será transportado pelo ônibus espacial Endeavor na sexta-feira foi projetado para fornecer aos cientistas o primeiro estudo de medição detalhado sobre as partículas com cargas elétricas que correm pelo Cosmos.
O AMS (sigla em inglês para Espectrômetro Magnético Alfa) poderá reformular a compreensão moderna sobre o Universo, de forma muito parecida como o telescópio espacial Hubble desbravou novas fronteiras da astronomia, sendo responsável pela surpreendente descoberta de que a taxa de expansão do Universo está acelerando.
“Os raios cósmicos com carga são uma área da ciência praticamente inexplorada”, disse o físico Samuel Ting, do MIT (Instituto de Tecnologia de Massachusetts).
Laureado com um Nobel, ele lidera a equipe de 600 pessoas que desenvolveram o AMS ao custo de US$ 2 bilhões.
As imagens proporcionadas pelo AMS, montado no centro de pesquisa Cern, perto de Genebra, poderão elucidar a chamada matéria escura do universo –a matéria que até agora não foi encontrada, mas é necessária para explicar o que é observável.
Estrelas, planetas, gás, poeira e outros fenômenos detectáveis são responsáveis por menos de 10% da matéria que se acredita existir. Sem a matéria escura ou algum outro fenômeno, as galáxias seriam incapazes de se manterem como são.
Embora por definição, a matéria escura não possa ser detectada diretamente, estudos mostram que a colisão de partículas escuras deve deixar pegadas reveladoras na forma de pósitrons, um tipo de partícula da matéria normal.

3019 – De ☻lho no Mapa: Suíça


Alpes suíços

Uma pequena potência européia
É um país sem costa marítima cujo território é dividido geograficamente entre o Jura, o Planalto Suíço e os Alpes, somando uma área de 41.285 km². A população suíça é de aproximadamente 7,8 milhões de habitantes e concentra-se principalmente no planalto, onde estão localizadas as maiores cidades do país. Entre elas estão as duas cidades globais e centros económicos de Zurique e Genebra. A Suíça é um dos países mais ricos do mundo relativamente ao PIB per capita calculado em 43.196 de dólares americanos. Zurique e Genebra foram classificadas como as cidades com melhor qualidade de vida no mundo, estando em segundo e terceiro lugar respectivamente.
A Confederação Suíça tem uma longa história de neutralidade, não estando em estado de guerra internacionalmente desde 1815. O país é sede de muitas organizações internacionais como o Fórum Económico Mundial, a Cruz Vermelha, a Organização Mundial do Comércio e do segundo maior Escritório das Nações Unidas. A nível europeu, foi um dos fundadores da Associação Europeia de Comércio Livre e é parte integrante do Acordo de Schengen. Em termos desportivos, o COI, a FIFA e a UEFA possuem as suas sedes localizadas no território suíço.
A Suíça é constituída por quatro principais regiões linguísticas e culturais: Alemão, Francês, Italiano e Romanche. Por conseguinte, os suíços não formam uma nação no sentido de uma identidade comum étnica ou linguística. O forte sentimento de pertencer ao país é fundado sobre o histórico comum, valores compartilhados (federalismo, democracia directa e neutralidade)e pelo simbolismo Alpino. A criação da Confederação Suíça é tradicionalmente datada em 1 de Agosto de 1291.
Confœderatio Helvetica é a designação oficial em latim do país. O termo Helvética vem da palavra latina Helvetier que por sua vez provém do nome da antiga tribo celta dos Helvécios. A Revolução Suíça de 1798 foi a primeira contra a supremacia dos fundadores da Antiga Confederação Suíça: Uri, Schwyz, Unterwalden e as cidades de Lucerna, Zurique e Berna. As diferentes línguas faladas obrigaram a criar um nome único em latim, língua maioritariamente falada na Europa naquela época.O nome Confederação Suíça tornou-se conhecido apenas durante o século XVIII, quando não era nem oficial nem único, dado que designações como Corpo helvético, Magna Liga, Ligas e Helvetia eram também usadas para denominar a Suíça. A história da Suíça começa antes do Império Romano: em 500 a.C. Nessa altura, muitas tribos celtas estavam localizadas nos territórios do Centro-Norte da Europa. A mais importante delas era a dos Helvécios, nome que iria originar a designação atual da Suíça. Ao contrário do que era dito pelos Romanos e pelos Gregos, os Helvécios não eram selvagens mas sim avançados na técnica de jóias e outras peças pequenas corroborando as escavações feitas no Lago de Neuchâtel.
Em 58 a.C., os Helvécios tinham planeado descer para Sul, mas foram parados na batalha de Bibracte pelo Exército Romano sob o comando do general Júlio César e obrigados a recuar.
Os Romanos controlaram o território suíço até cerca 400 d.C. Foram criadas fronteiras e fortalezas a Norte do rio Reno para conter as invasões bárbaras provenientes do Norte da Europa. Com o imperador Augusto, os romanos conquistaram a parte Oeste da Alemanha e a Áustria. Muitas cidades actuais da Suíça foram fundadas naquela era: Genibra (Genebra), Lausana (Lausana), Octodurum (Martigny), Salodurum (Soleura), Turicum (Zurique), Sedunum (Sion), Basilia (Basileia), entre outras.
A água é obtida directamente dos glaciares e das fontes espalhadas nas mais diversas estâncias de alta altitude e apresenta óptima qualidade, pois a poluição mineral não desejada é baixa. Aliás, todas as minas que funcionavam antes da Segunda Guerra Mundial foram encerradas.
40% da electricidade é obtida através de centrais nucleares e de grandes barragens localizadas nos Alpes enquanto que o restante é importado de outros países durante os períodos de alto consumo (Inverno e noite). No verão, a Suíça exporta energia para os seus vizinhos evitando desperdícios.
Em 18 de maio de 2003, duas iniciativas antinucleares foram rejeitadas: Moratorium Plus, que objetivava a proibição de construção de novas usinas nucleares (41,6% apoiaram e 58,4% se opuseram), e Eletricidade Não Nuclear (33,7% apoiaram e 66,3% se opuseram).[ A primeira moratória de dez anos na construção de novas usinas nucleares foi o resultado de uma iniciativa popular votada em 1990, a qual foi aprovada com votos de 54,5% Sim contra 45,5% Não. Atualmente, uma nova usina nuclear no Cantão de Berna está planejada. A Secretaria Federal de Energia Suíça (SFES) é o órgão responsável por todas as questões relacionadas ao abastecimento e uso de energia dentro do Departamento Federal de Meio-ambiente, Transporte, Energia e Comunicações (DMTEC). A agência apoia a iniciativa da sociedade dos 2.000 watts para cortar o uso de energia da nação em mais da metade até 2050.

Escola onde estudou Albert Eistein

A educação tem vindo a ser uma fonte importante de recurso para o seu desenvolvimento económico. Por isso, o país clama em ter um dos melhores sistemas do mundo nessa área. No entanto, não existe um sistema educativo mas sim 26, o mesmo número de cantões, variando entre eles. Por exemplo, em alguns cantões o ensino da primeira língua estrangeira é iniciado no quarto ano enquanto que em outros inicia-se no sétimo. O facto de cada cantão possuir o seu sistema educativo, transferir os estudantes de uma escola para outra fora do seu cantão de residência pode se tornar problemático, podendo resultar na rejeição de vários deles nas suas escolas de destino.A ciência e a tecnologia são fontes importantes para o desenvolvimento económico suíço. A Fundação Nacional para a Ciência é a organização do Governo que apoia através de fundos a investigação científica no país. A estrutura política e educacional permitem que a Ciência na Suíça esteja entre as mais avançadas do Mundo.
O país tem a sua Agência Espacial e participa directamente com a Agência Espacial Europeia, sendo um dos dez fundadores. O astrónomo suíço Michael Mayor descobriu 51 Pegasi b, o primeiro exoplaneta a girar a volta de uma estrela como o Sol do Sistema Solar. Nas áreas da Matemática Leonhard Euler é considerado como o mais proeminente do século XVIII. Fez descobertas importantes nas áreas das funções matemáticas. Na Física, o naturalizado Albert Einstein (em 1901 foi um dos maiores génios científicos de todos os tempos através das suas teorias da relatividade e da sua equação E=mc².A cidade de Genebra acolhe o maior laboratório do mundo, o CERN, que se dedica à investigação na área da Física. Outra instituição importante é o instituto Paul Scherrer. De entre as invenções mais famosas feitas na Suíça, destacam-se a Dietilamida do ácido lisérgico (LSD), o Microscópio de corrente de tunelamento e o velcro. O sistema de saúde na Suíça baseia-se através de um sistema de seguros no qual todos os cidadãos são obrigados por lei a adquirir um, previsto pelo Acto Federal da Saúde. Enquanto que o seguro é subsidiado pelo governo, sobretudo para os mais pobres, os suíços pagam uma larga percentagem dos prémios do seu seguro de saúde. O governo paga 25 % dos prémios enquanto os cidadãos pagam o resto. No entanto, o Estado é muito severo no que aplica a cobertura dos seguros sendo proibida a rejeição de uma cobertura a nenhum cidadão; exige que todos os preços dos mesmos sejam publicados.A qualidade de vida reflecte-se na esperança de vida em boa saúde de 71 anos para os homens e 74 para as mulheres. A taxa de natalidade, estimado para o ano de 2008, está registada nos 9,62 nascimentos por cada 1000 habitantes, enquanto que a taxa de mortalidade fica-se pelos 8,54 falecimentos por 1000 habitantes.

Sede da Nestle

3018 – Cinema: O Predador


Poster do filme

O Predador (no original em inglês: Predator) é um filme americano de ação, ficção científica e terror de 1987.
Foi feito com 18 milhões de dólares e rendeu 60 milhões só nos Estados Unidos. Também levou à continuação Predador 2.
História
Um pelotão do exército americano (boinas verdes), liderado pelo Major “Dutch” (Arnold Schwarzenegger), é enviado em missão na América Central, para resgatar uns soldados e um ministro da Guatemala de guerrilheiros.
A missão é realizada logo, mas descobre-se que os prisioneiros já estavam mortos, eram agentes da CIA (a história do ministro fora inventada pelos superiores). Então uma estranha criatura invisível começa a caçar e matar cada um do pelotão.
Elenco
Arnold Schwarzenegger (Major Alan “Dutch” Schaeffer)
Carl Weathers (Capitão George Dillon)
Bill Duke (Sargento Michael “Mac” Elliott)
Jesse Ventura (Sargento Blain Cooper)
Sonny Landham (Sargento William “Billy” Sole)
Shane Black (Sargento Richard Hawkins)
Richard Chaves (Tenente Jorge “Poncho” Ramirez)
R.G. Armstrong (General Homer Phillips)
Elpidia Carrillo (Anna Gonsalves)
Kevin Peter Hall (O Predador)
Gilberto Pasold (Major Gilbert “Bert” Pasold)
Guilherme Pasold (Tenente William “Bill” Pasold)
O roteirista Shane Black , que escreveu a série “Máquina Mortífera” e dirigiu “Beijos e Tiros”, com Robert Downey Jr., aparece como integrante do pelotão de Dutch Schaeffer As locações do filme em Puerto Vallarta, México, viraram atração turística na região. A enorme choupana, que no filme serve como alojamento dos guerrilheiros, foi mantida e no local, hoje, há um restaurante Neste filme, curiosamente, co-atuaram dois futuros governadores dos Estados Unidos e um candidato: Schwarzenegger, pela Califórnia, Jesse Ventura, governador por Minesotta e Sonny Landham, que foi candidato ao governo do Kentucky.
A história de um grupo de soldados encurralados por um inimigo invisível, uma força mais poderosa do que suas mais eficazes armas. Recrutados pela CIA para resgatar reféns mantidos pelos guerrilheiros em um país da América Central, os homens encontram um inimigo muito mais mortal do que qualquer outro sobre a face da Terra – porque o Predador não é deste planeta.
• Bilheterias: EUA (US$ 59,735,548); restante do mundo (US$ 38,532,010) Total: US$ 98,267,558

3017 – Os mistérios do planeta – O El Niño


É uma prova de que o homem ainda desconhece aspectos cruciais do clima terrestre.

Foi só em 1983, ano de desastres globais, que os climatologistas perceberam, pela primeira vez, que havia uma causa comum para muitos dos nossos infortúnios ambientais. Não foi difícil notar que o sinal mais evidente estava na temperatura elevada das águas do Oceano Pacífico. Com isso, descobriu-se um fenômeno que daria muito o que falar. O El Niño em si já era conhecido dos pescadores peruanos há séculos, pois o aquecimento episódico das águas do Pacífico afugenta os peixes.
Mas em 1983 viu-se que o calor oceânico era só uma parte de um fenômeno maior. Um desequilíbrio que envolvia todo o planeta. Sua causa ainda não está esclarecida. O que pode causar desequilíbrio térmico numa massa de água tão grande quanto a do Pacífico? É razoável pensar que se trata de uma oscilação monumental, perturbando o conjunto da atmosfera e dos oceanos. Mas desvendar o mecanismo exato é um desafio. Os astrofísicos conhecem diversos fenômenos gigantes, pois a estrelas podem oscilar por inteiro. Só que, como elas são muito diferentes dos planetas, não ajudam muito. Por outro lado, também não seria muito útil tentar estudar outros planetas para ver se neles ocorre algo semelhante ao El Niño. Infelizmente, o único planeta com oceanos que conhecemos é a Terra.
Seja como for, o El Niño parece ser um fenômeno absolutamente natural, que aparece em registros muito antigos. O que chama atenção é que esse acontecimento, apesar de ser tão forte e marcante na história da Terra, só foi identificado pela ciência há pouco mais de uma década. A variação climática anual que nós chamamos de quatro estações é conhecida desde tempos imemoriais. Não é para menos! A diferença entre o verão e o inverno não só é gritante, como rigorosamente periódica, repetindo-se todos os anos. Mas aí vem o El Niño, que é a segunda perturbação climática mais importante, depois das estações. A demora em identificá-la certamente está associada à sua complexidade. Mesmo com os computadores mais modernos é difícil simular a interação entre oceanos e atmosfera.

3016 – Mega Byte – ☻Mega Bloco: A Odisséia Digital


Eniac, o pioneiro

A aventura do conhecimento humano, do dedo ao computador
A primeira comunidade de homens e mulheres que acrescentou à História uma herança hoje reconhecida como intelectual foi a dos sumérios, um povo que viveu na região onde hoje fica o Iraque, nos campos férteis entre os rios Tigre e Eufrates, conhecida como Mesopotâmia. Intelectualidade é aquela capacidade que só os humanos têm de perceber coisas fora do alcance de seus cinco sentidos, o chamado pensamento abstrato. Os sumérios foram os responsáveis por algumas abstrações notáveis, que turbinaram a marcha da humanidade e influenciaram para sempre o modo como as pessoas pensam, agem e se comunicam – dos babilônios e egípcios, que vieram logo em seguida, até nós, aqui nesse mundinho, 50 séculos depois.
Foi deles, há 5 mil anos, a idéia de criar símbolos que pudessem representar os sons vocais, através de uma escrita chamada cuneiforme. O nome pode ser complicado, mas na prática a coisa era simples: marcas feitas em tabletes úmidos de barro, que depois eram secados ao sol. Os estiletes de madeira usados para marcar os símbolos no barro tinham a ponta em forma de cunha, ou, como se diz em eruditês, eram cuneiformes.
Hoje, pode parecer que passar da palavra escrita à invenção dos algarismos numéricos foi só um pulinho, quase uma conseqüência natural, mas entre os dois fatos atravessamos um abismo de alguns séculos. Muita gente pode não ter essa impressão, mas aprender a escrever é muito, muito mais simples do que aprender a calcular. Tanto que, enquanto a escrita se desenvolvia através de diferentes símbolos para diferentes sílabas, as contagens continuavam a ser feitas com base no conceito 1. Um evento, igual a um risquinho, numa pedra, numa árvore ou num osso.
A primeira maneira que os seres humanos encontraram para mostrar a que quantidade estavam se referindo foi o uso dos dedos das mãos. Hoje isso pode parecer brincadeira, mas 5 mil anos atrás para contar até 20 eram necessários dois homens, porque tinham que ser usadas quatro mãos. Demorou alguns séculos até que caísse a ficha e alguém dissesse: “Olha, pessoal, já acumulei o resultado de duas mãos e agora vou continuar, voltando à primeira mão”.
Através dos tempos, as mãos foram sendo substituídas por equipamentos mais sofisticados, mas a palavra em latim para dedo, digitus, sobrevive até hoje, tanto na palavra dígito – um algarismo – quanto no verbo digitar – escrever com os dedos (sendo que seu verbo gêmeo, datilografar, vem da mesma palavra para dedo, só que a grega – datilos). Os dez dedos são também a origem do sistema numérico com base decimal.
Mas mostrar os dedos era uma coisa e saber contar era outra. A maioria dos povos da Idade do Dedo sabia contar apenas até três; do quatro em diante a coisa já entrava numa dimensão meio fantástica. Em praticamente todos os idiomas, as palavras para os três primeiros algarismos se parecem, porque todas elas derivam de uma língua antiquíssima e já extinta, o sânscrito: an, dve, dri. Já a noção de quatro é tão posterior que cada povo desenvolveu sua própria palavra para expressá-la: catvarah em sânscrito, tessares em grego, quattuor em latim, feower em inglês antigo.
Quando a humanidade aprendeu a fazer contas?
Há cerca de 4 mil anos. Foi quando os mercadores da Mesopotâmia desenvolveram o primeiro sistema científico para contar e acumular grandes quantias. Primeiro, eles faziam um sulco na areia e iam colocando nele sementes secas (ou contas) até chegar a dez. Aí, faziam um segundo sulco, onde colocavam uma só conta – que equivalia a 10 -, esvaziavam o primeiro sulco e iam repetindo a operação: cada dez contas no primeiro sulco valia uma conta no segundo sulco. Quando o segundo sulco completava dez contas, um terceiro sulco era feito e nele era colocada uma conta que equivalia a 100. Assim, uma quantia enorme como 732 só precisava de 12 continhas para ser expressa.
Tal engenhosidade daria origem à nossa palavra contar – a partir das primitivas contas que enchiam os sulcos.
O conceito errar é humano deve ser tão antigo quanto a preocupação de inventar algum aparelho para auxiliar na contagem e reduzir a margem de erro. Apesar da fama dos árabes e dos chineses, a contribuição mais importante para a abstração matemática foi um trabalho dos hindus. Sem eles não haveria o zero e, portanto, toda a base da abstração que, junto com o 1, deu origem a tudo o que conhecemos hoje como ciências matemáticas.
A primeira tentativa bem-sucedida de criar uma máquina de contar foi o ábaco. O nome tem origem numa palavra hebraica abaq (pó), em memória a antiqüíssimos tabletes de pedra, aspergidos com areia, onde os antigos mestres desenhavam figuras com o dedo para educar seus discípulos.
Os inventores do ábaco de calcular, aparentemente, foram os chineses, que deram ao aparelhinho o nome de suan pan. Mas há controvérsias: os japoneses também reivindicam a invenção – no Japão o ábaco chama-se soroban -, para não falar dos russos: o deles é conhecido como tschoty. Feito com fios verticais paralelos pelos quais seus operadores podiam fazer deslizar sementes secas, o ábaco chinês era incrivelmente eficiente. E rápido: um operador com prática podia, por exemplo, multiplicar dois números de cinco algarismos cada um com a mesma velocidade com que alguém hoje faria a mesma conta numa calculadora digital. Quase 3 mil anos depois de ter sido inventado, o ábaco ainda é usado em muitas regiões da Ásia por pequenos comerciantes.
Quando surgiram os algarismos atuais?
Essa seqüência que conhecemos hoje por algarismos arábicos tem pouco mais de mil anos. A bem da verdade, os algarismos arábicos não são arábicos: foram criados pelos hindus. Os árabes ficaram com a fama porque foi através deles que os números escritos se espalharam pelo mundo.
A própria palavra algarismo é uma homenagem a um renomado matemático árabe do século 9 d.C., al-Huarizmi.
Os algarismos arábicos foram trazidos da Índia para o Ocidente por volta do ano 770 da era cristã, mas não foram adotados de imediato, porque outros povos já estavam acostumados com suas próprias maneiras de representar os numerais, por mais complicadas que elas parecessem. As três principais correntes eram as formas romana, grega e egípcia. Que na verdade nem eram algarismos numéricos, mas letras que assumiam funções de números.
O número 323, por exemplo, era escrito da seguinte forma:
Em algarismos romanos: CCCXXIII
Em caracteres gregos: HHHAEAEIII
Em sinais egípcios:
Mas os romanos não se atrapalhavam na hora de somar C com X?
Pelo jeito, não. Quem se acostuma com um sistema, só enxerga complicação no sistema dos outros. Ainda nos dias de hoje, a gente fica se perguntando:
Não seria mais fácil raciocinar em metros do que em pés? Entender o peso em quilos não seria mais simples do que pesar em onças? Não é mais fácil visualizar 8 milímetros do que 1/32 de polegada? Não senhor, é tudo uma questão de costume. Como somos um povo que mede seu grau de aquecimento específico, inclusive da cerveja, com graus centígrados, achamos que o sistema de graus Fahrenheit é coisa de doido, a começar pelo nome esquisito; depois porque para transformá-lo em graus centígrados é preciso subtrair 32, dividir por 9 e multiplicar por 5. Mas quem usa o sistema Fahrenheit, e que em geral bebe cerveja quente, tem que fazer o cálculo inverso para chegar aos graus centígrados: dividir por 5, multiplicar por 9 e somar 32. Logo, eles acham que os complicados somos nós, porque para eles é tudo muito simples: 95 graus é quente pra burro e 35 graus é frio de rachar.
O que fez com que os algarismos arábicos se tornassem o padrão numérico mundial não foi sua simplicidade, foi o poderio militar dos árabes. Durante dois milênios, até 1432, enquanto o Império Romano dominou o mundo, os dominados não se cansavam de elogiar a beleza e a eficiência dos algarismos romanos. Foi somente com a queda de Roma e a ascensão ao poder dos turcos otomanos (mais de 700 anos depois de os algarismos arábicos terem chegado à Europa e menos de 100 anos antes do Brasil ser descoberto) que os algarismos arábicos foram, digamos assim, globalizados. Por pressão, não por precisão. Como sempre, a verdade não é exatamente um conceito, mas um atributo dos vencedores. Napoleão deu ao mundo uma belíssima aula sobre os limites da razão e as razões do poder, ao mandar esculpir em seus canhões a seguinte expressão latina: ultima ratio Regis, ou seja, a última razão do Rei. Mas está faltando alguém muito importante nessa história.Com a socialização dos numerais, a coisa foi ficando cada vez mais sofisticada: da palavra grega para número, arithmos, veio Aritmética. Conceitos muito simples foram ampliados e viraram ciência, como a Trigonometria, que antigamente era só uma continha para medir os lados de um triângulo: trigon, em grego, quer dizer três cantos. E mesmo termos que antes não tinham nada a ver com números foram sendo adaptados à numerologia: do árabe al-jabr, consertar ossos fraturados, derivou Álgebra.
A palavra capital, tão importante para a história moderna de nosso bizarro planeta, tem origem na forma mais primitiva de contar bens e valores: a cabeça de uma rês, ou, em latim, capita. Quanto mais vacas alguém amealhava, melhor era sua posição na sua comunidade. Curiosamente esta palavra está ligada hoje ao conceito de riqueza, de centro do pensamento, de cidade mais importante, além de algumas mais prosaicas, como decapitar, perder a cabeça, encabeçar.
A situação chegou a tal refinamento que extrair uma raiz quadrada começou a levar mais tempo do que extrair um dente. E ambas eram experiências bastante dolorosas. Estava mais que na hora de alguém começar a pensar em alguma coisa para amenizar o sofrimento…
E, pode apostar: com o tempo, alguém acabou pensando…
O que é um computador?
Até meados do século 19, um computador não era uma máquina, mas uma pessoa, que tinha a função de fazer contas e arbitrar conflitos que envolvessem números. Seus descendentes diretos são os atuais contadores, os técnicos em contabilidade que registram os números para fins legais.
A origem da palavra computar é muito antiga e começa com o latim putare (epa!), fixar quantidades, de onde derivaram palavras como disputar, reputar e imputar. O verbo putar não existe em português, mas seu DNA pode ser encontrado na palavra putativo, ainda muito usada na linguagem jurídica: quando perguntamos “Quem é o pai da criança?”, os possíveis suspeitos são chamados de pais putativos. E, para os muito curiosos, a resposta é não: aquela famosa palavrinha de quatro letras não tem nada a ver com tudo isso: ela vem do latim puttus, menino (e em Portugal ainda é usada com esse mesmo sentido; nós, brasileiros, é que a pervertemos…)
Mas, voltando ao computador, no século 17 os franceses criaram o verbo computer (com acento tônico no e), com o sentido de calcular, mas foram os ingleses que transformaram o verbo no substantivo computer (com acento tônico no u), para designar as primitivas máquinas que hoje chamamos de calculadoras.
A aplicação do termo ao moderno computador só aconteceria a partir de 1944, quando o jornal inglês London Times publicou uma então delirantíssima matéria sobre alguns equipamentos inteligentes que no futuro poderiam vir a substituir o esforço humano. O Times chamou uma hipotética máquina pensante de computer. Foi isso, gente.
Curiosamente, apesar de terem usado pela primeira vez a palavra computer, os franceses jamais a aceitaram para definir as engenhocas que hoje chamamos de computadores. Para os franceses, estas caixinhas feias e cheias de fios são ordinateurs de gestion, ou seja, ordenadores de gestão, e nada mais.
Quem inventou o computador?
O computador é uma invenção sem inventor. Ao contrário de muitas novidades, que alguém com nome, sobrenome e atestado de vacina desenvolveu em um laboratório, ou descobriu por acaso, o computador sempre foi um aperfeiçoamento constante de idéias anteriores. Muitas vezes, nada acontecia durante séculos, até alguém dar o passo seguinte; e alguns desses passos foram gigantescos. É só ler o que vem a seguir para perceber que ainda falta muito – mas muito mesmo – para ser inventado no campo da computação.
Nos dias mais recentes, acrescentamos à indústria da invenção a indústria da obsolescência planejada e a criação de uma famosa teoria baseada na idéia de que a capacidade de memória e gestão dos computadores dura apenas 18 meses – e que neste período novas máquinas são inventadas, tornando as anteriores carroças medievais.
Quando apareceu a primeira máquina de computar?
Há pouco menos de 400 anos, o que significa que o ábaco era mesmo uma invenção danada de boa. A única grande desvantagem do ábaco era que o operador não podia errar ou se distrair. Se uma dessas duas coisas acontecesse, ele teria que começar tudo de novo, porque o ábaco não tinha memória.
O primeiro instrumento moderno de calcular – na verdade, uma somadora – foi construído pelo físico, matemático e filósofo francês Blaise Pascal, em 1642. A máquina, com seis rodas dentadas, cada uma contendo algarismos de 0 a 9, permitia somar até três parcelas de cada vez, desde que o total não ultrapassasse 999999. Uma multiplicação, por exemplo, de 28 por 15 era feita somando-se 15 vezes o número 28.
Aliás, soma é uma palavra interessante: em latim antigo, summa significava essência. Daí vieram sumário e súmula, no sentido de resumo, duas palavras anteriores à aplicação do termo soma ao campo da matemática. Soma é, então, uma série de parcelas resumidas em um total.
A somadora original de Pascal ainda existe, ainda funciona e está exposta no Conservatoire des Arts et Metiers, em Paris. Olhando para ela, qualquer pessoa com dois neurônios ativos diria: Mas isso é muito simples. E é mesmo, mas também é verdade que qualquer coisa parece simples depois que alguém já fez. Interessante é que a maquininha não tenha sido criada por nenhum dos grandes cientistas da época: quando a construiu, Pascal tinha só 19 anos. A História vem se cansando de registrar façanhas como essa: de vez em quando, um garoto aparece do nada e muda o mundo.
Como a somadora se transformou em computador?
A máquina de Pascal teve uma vida útil de quase 200 anos e foi sendo aperfeiçoada por diversos inventores. Funcionava cada vez melhor, mas tinha um limite: a entrada de dados dependia da eficiência da pessoa que estivesse batendo os números em suas teclas. E, mesmo que essa tarefa fosse executada por alguém altamente treinado, esse alguém ainda seria um ser humano, e seres humanos têm limites físicos. Assim, o passo seguinte teria que ser necessariamente o aumento na velocidade de alimentação dos dados.
Quem conseguiu encontrar a solução para isso foi um francês, Joseph-Marie Jacquard, depois de passar 20 anos matutando. Curiosamente, ele era de um ramo que não tinha nada a ver com números e calculadoras: a tecelagem. Filho de tecelões – e, ele mesmo, um aprendiz têxtil desde os dez anos de idade -, Jacquard sentiu-se incomodado com a monótona tarefa que lhe fora confiada na adolescência: alimentar os teares com novelos de linhas coloridas para formar os desenhos no pano que estava sendo fiado. Como toda a operação era manual, a tarefa de Jacquard era interminável: a cada segundo, ele tinha que mudar o novelo, seguindo as determinações do contramestre.
Com o tempo, Jacquard foi percebendo que as mudanças eram sempre seqüenciais. E inventou um processo simples: cartões perfurados, onde o contramestre poderia registrar, ponto a ponto, a receita para a confecção de um tecido. Daí, Jacquard construiu um tear automático, capaz de ler os cartões e executar as operações na seqüência programada. A primeira demonstração prática do sistema aconteceu na virada do século 19, em 1801, quando Jacquard tinha 48 anos. Dez anos depois, já havia mais de 10 mil teares de cartões em uso na França.
Os cartões perfurados são a origem do computador?
Sozinhos não, mas foram um passo crucial. Eles eram uma maneira eficiente de alimentar a máquina com milhares de dados em poucos minutos, eliminando a lentidão humana. Faltavam ainda outros dois passos, e quem primeiro conseguiu equacioná-los foi um inglês, Charles Babbage, em 1834.
Babbage chamou seu projeto de aparelho analítico e anteviu os passos que até hoje são a base do funcionamento de um computador:
• Alimentação de dados, através de cartões perfurados.
• Uma unidade de memória, onde os números podiam ser armazenados e reutilizados.
• Programação seqüencial de operações, um procedimento que hoje chamamos de sistema operacional.
Infelizmente, a máquina de Babbage nem chegou a ser construída: professor de Matemática na Universidade de Cambridge, ele não dispunha de recursos para financiá-la, nem encontrou investidores dispostos a ir além de algumas doações ocasionais. Mas seus relatórios e projetos tornaram-se leitura obrigatória – e inspiradora – para todos os cientistas que dali em diante se aventuraram pelo mesmo caminho.
Curiosamente, os planos originais de Babbage ficaram engavetados por 157 anos, até que em 1991 cientistas britânicos do Museu da Ciência, em Kensington, resolveram montar a engenhoca. Que funcionou, com uma fantástica precisão de 31 casas depois da vírgula. Se bem que hoje qualquer coisa é possível… recentemente, um maluco aí pulou no primeiro pára-quedas, projetado há 550 anos por Leonardo da Vinci, e aterrissou inteirinho.
Hollerith?!
Isso mesmo, Herman Hollerith (o nome dele é o apelido que muita gente ainda dá a seu recibo de pagamento). O conceito de Hollerith tinha duas etapas: primeiro, transferir dados numéricos para um cartão duro, perfurando-o em campos predeterminados; depois, transformar os furos em impulsos, através da energia elétrica que passava por eles, ativando dessa forma os contadores mecânicos dentro de uma máquina. O pulo do gato de Hollerith foi o de juntar duas coisas que já existiam: os cartões de Jacquard e o conceito de impulsos elétricos para transmissão de dados, usando um princípio que Samuel Morse havia desenvolvido bem antes, em 1844, quando inventou o telégrafo e transformou letras e números em sinais elétricos.
O cartão perfurado de Hollerith estreou em 1887, em estudos estatísticos sobre mortalidade. Mas foi em 1890, no recenseamento dos Estados Unidos, que o sistema ganhou fama mundial. Pela primeira vez, o pessoal do censo não precisou fazer o estafante trabalho braçal de tabular os milhões de dados que haviam sido coletados pelos pesquisadores. O recenseamento ficou pronto numa fração do tempo que normalmente levaria, gerou uma enorme economia para o governo americano e deu fama instantânea a Hollerith.
Portanto, há mais de 100 anos, no final do século 19, já existiam equipamentos capazes de transferir dados para máquinas, que podiam processá-los e tabulá-los a grande velocidade. E, durante os 40 anos seguintes, isso pareceu coisa de ficção sideral, pelo menos para as pessoas normais – aquelas que ainda estavam discutindo as vantagens do fogão a lenha sobre seu similar a gás. Como se vê, não é de hoje que coexistem esses mundos diferentes, o do progresso e o da manutenção. Em 1918, quase 30 anos depois da proeza futurística de Hollerith, uma epidemia de gripe espanhola assolou o mundo e matou 10% da população do Rio de Janeiro, incluindo o recém-eleito presidente da República, Rodrigues Alves. Holleriths e gripes espanholas são facilmente encontráveis ao mesmo tempo na história da humanidade, como se caminhássemos desajustadamente, um pé sobre a calçada e outro no asfalto, quase todo o tempo. Nada é linear, nem no uso das tecnologias, nem nas ciências, nem no desenvolvimento dos povos.
O que ainda estava faltando para o computador computar?
Uma guerra, talvez. Apesar de serem um dos maiores contra-sensos da humanidade, as guerras têm sido uma espécie de dínamo tecnológico: novidades que demorariam anos para surgir em tempos de paz acabam sendo antecipadas pela urgência da vitória (ou o pavor da derrota). Foi durante a Segunda Guerra Mundial (1938/1945) que a ciência da computação deu seu salto definitivo.
Turing já havia publicado trabalhos teóricos sobre computação de dados antes da guerra e por isso foi recrutado a toque de caixa pelas Forças Armadas. Se suas teorias estivessem corretas, elas levariam à construção de uma máquina capaz de imitar o cérebro humano para explorar – como num jogo de xadrez – todas as alternativas possíveis a partir de uma variável. Como a hipotética máquina de Turing estaria apta a computar e traduzir milhares de caracteres por segundo, bastaria alimentá-la com qualquer mensagem cifrada alemã, para que ela em seguida devolvesse a mesma mensagem escrita em alemão compreensível. Simples… só faltava alguém construir a tal máquina. Batizada de Colossus, a máquina levou um ano para ser montada nos laboratórios dos correios londrinos, pelo cientista Thomas Flowers. Mas, uma vez plugada, programada e alimentada, resolvia qualquer questão de criptografia em poucos minutos. Concluído em 1941, o Colossus ainda não era um modelo bem-acabado de computador, porque só executava uma única e específica tarefa, mas mostrou que a computação poderia resolver rapidamente qualquer problema que pudesse ser transformado em instruções numéricas. Mas, como tudo isso foi mantido em segredo durante e após a guerra (as dez unidades construídas do Colossus foram desmontadas em 1946, para evitar que caíssem em mãos inimigas), a obra de Turing só se tornou pública anos depois, quando outras máquinas mais eficientes já haviam surgido.
Quando apareceu o primeiro computador moderno?
Vários renomados pesquisadores passaram anos disputando a primazia de ter sido o criador. Um deles foi o alemão Konrad Zuse, que aparentemente construiu em 1941 o primeiro computador eletro-mecânico, perfeitamente operacional, controlado por um programa com sistema binário (que Zuse chamava de ja/nein, sim/não, o antecessor do zero/um dos bits). Mas a máquina de Zuse, chamada Z1, foi reduzida a cinzas em um bombardeio dos aliados sobre Berlim, em 1944. Porém, além do próprio Zuse, que sobreviveu ao foguetório para contar sua história, restaram as suas anotações e as plantas de construção, e os princípios do Z1 se mostraram incrivelmente semelhantes a tudo o que viria depois.
Uma ampla e muito bem-feita campanha promocional talvez explique por que hoje se acredita que o primeiro computador tenha sido uma máquina americana, o ENIAC.
O ENIAC é de quando?
Foi ligado na tomada em 1946. Era uma geringonça que funcionava usando 17480 válvulas de rádio, pesava 4 toneladas, media incríveis 30 metros de comprimento por 3 de altura. Ocupava uma área de 180 m2, e era capaz de fazer 5 mil somas por segundo. Foi construído por dois cientistas da Universidade da Pennsylvania, nos Estados Unidos, e seu nome vem das letras iniciais de Electronic Numerical Integrator And Computer – Integrador e Computador Numérico-Eletrônico. Seu desenvolvimento foi financiado pelas Forças Armadas americanas, a um custo, na época, de 500 mil dólares, o que hoje corresponderia a uns 20 milhões de dólares. Por conta da repercussão daquela matéria do London Times, a mídia americana usou a palavra computer para explicar ao povão o que aquele paquiderme era capaz de fazer. Se a escolha recaísse sobre o I de ENIAC, e não sobre o C, hoje poderíamos ter integradores ao invés de computadores.
Como o primeiro computador funcionava?
Hoje, ao clicar o mouse, ou ao teclar um ESC, um usuário não tem a mínima idéia de como as coisas acontecem lá dentro do sistema. Simplesmente, o comando é obedecido, e isso parece a coisa mais natural do mundo. No ENIAC, tudo isso acontecia do lado de fora. Primeiro, um grupo de cientistas desenvolvia equações matemáticas na exata seqüência em que elas tinham que ser digeridas pelo sistema. A seguir, seis especialistas programavam o computador para executá-las, girando botões de sintonia e plugando centenas de fios nas tomadas corretas. Portanto, o que hoje chamamos de sistema operacional era, em 1946, uma operação totalmente manual.
O primeiro teste do ENIAC – uma demonstração feita para generais das Forças Armadas – calculou a trajetória de uma bala de canhão até um alvo predeterminado. Alimentado com as equações, o computador forneceu os dados para que o canhão fosse calibrado. A bala acertou o alvo, mas o que mais impressionou os generais foi o fato de que o tempo que o computador levou para fazer o cálculo foi menor que o tempo real ocorrido entre o disparo do canhão e a chegada da bala ao alvo. O único problema do ENIAC era que, para calcular a trajetória de uma nova bala até um novo alvo, tudo tinha que ser refeito: desde as equações até o reacerto dos fios e dos botõezinhos. É exatamente essa tarefa, a mais complicada de todas, que hoje já vem embutida nos programas – chamados de software.
O Mark I tinha o nome técnico de Calculador Automático Seqüencial Controlado e foi construído entre 1939 e 1944 (praticamente, durante toda a Segunda Guerra Mundial) pelo professor Howard Aiken. Como o próprio nome técnico já indica, o Mark I talvez tenha sido a maior máquina calculadora já construída (20 metros de comprimento por 3 de altura, e 750 mil componentes).
O papel da IBM no desenvolvimento da computação é inegável. Por isso, se as máquinas Mark da Harvard e da IBM eram ou não legítimos computadores, ou apenas enormes calculadoras, é hoje uma questão secundária. O acaso se encarregaria de dar-lhes um lugar de destaque na história da computação, mas por um outro motivo, bem mais prosaico: foi num Mark II que apareceu o primeiro bug.
Um bug?
Não um bug, mas o bug. A palavrinha já vinha sendo usada como gíria para significar complicação desde os primórdios da Revolução Industrial. No século 19, quando as máquinas começaram a substituir o trabalho braçal, elas foram instaladas em galpões abertos, onde havia uma variada frota de insetos voando para lá e para cá, o tempo todo. A possibilidade de um deles pousar no lugar errado e causar estragos era grande, e aí qualquer parada mecânica era, em princípio, atribuída a um bug.
Só que no caso dos computadores foi um bug de verdade: sabe-se lá como, uma mariposa conseguiu entrar num Mark II do Centro Naval de Virgínia, nos Estados Unidos, e travou todo o sistema. O episódio aconteceu em 1945, e está perfeito e hilariamente documentado, porque o técnico que descobriu a mariposa a anexou a seu Relatório de Manutenção, grudando a danadinha com fita adesiva, após explicar tecnicamente: Havia um bug no sistema. Daí em diante, o nome passaria a ser sinônimo de qualquer tipo de falha ou erro, sendo que o mais famoso (e mais caro) de todos os bugs foi o bug do milênio, que iria paralisar o mundo na virada de 1999 para 2000. Calcula-se que, para neutralizá-lo, foram gastos 120 bilhões de dólares, dinheiro suficiente para comprar todo o estoque de inseticidas do mundo!
Desde quando a IBM domina o mercado de grandes computadores?
Desde sempre. Quando foi constituída, em 1911, a empresa fabricava equipamentos para escritórios e se chamava CTR, o que já demonstrava sua simpatia por siglas. E a letra C da sigla era a inicial de computação, embora a palavra ainda não tivesse nada a ver com os atuais computadores, mas com as calculadoras da época. Um dos fundadores da IBM foi Herman Hollerith, o homem dos cartões perfurados, e daí veio o T, de tabulação. O nome IBM, uma sigla para International Business Machines, apareceu em 1924 e daí em diante a empresa só fez crescer e abocanhar mercados.
A entrada da IBM no ramo de computadores ocorreu quase que por inércia, numa época em que a maioria das empresas ainda estava em dúvida sobre a viabilidade comercial da computação, mas não queria correr o risco de ficar de fora. Aliás, esse a maioria aí incluía a própria IBM. Em 1943, seu presidente, Thomas Watson Jr., entrevistado sobre o potencial do novo segmento, declarou: “Eu não acredito que exista um mercado mundial para mais de cinco computadores.”
Previsões sobre computadores têm sido uma das piores armadilhas para quem se arrisca a exercícios de futurologia. Em 1949, a influente revista americana Mecânica Popular profetizou, empolgadíssima: Enquanto atualmente um computador tem 18 mil válvulas e pesa 30 toneladas, no futuro eles terão apenas mil válvulas e pesarão no máximo 1 tonelada e meia. Depois dessa, seu micro não se sentiu um tanto quanto anoréxico? Bom, para não ficarmos apenas na pré-história, que tal essa frase de Bill Gates, em 1981, quando a IBM lançou seu computador pessoal: Não vejo motivos para algum dia alguém querer ter um micro com mais de 64K de memória. 64K???
Sim, houve um tempo em que 64K era uma memória de elefante!
O que é bit?
Bit é uma palavra formada pelas duas primeiras letras de binário e pela última letra de dígito (digit, em inglês). Quem inventou a palavrinha foi um engenheiro belga, Claude Shannon, em sua obra Teoria Matemática da Comunicação, de 1948. Nela, Shannon descrevia um bit como sendo uma unidade de informação.
Por que não bid, que seria mais óbvio? Talvez porque bit, em inglês, quer dizer pequena parte. E bid significa lance, oferta. Pode ser que a formação bit seja menos correta gramaticalmente, mas define com mais perfeição aquela partezinha que dá início a tudo.
Para que serve um bit?
O bit é a base de toda a linguagem usada pelos computadores, o sistema binário, ou de base dois, e graficamente é representado por duas alternativas possíveis: ou o algarismo 0, ou o 1. É como se, lá dentro da máquina, houvesse um sistema de tráfego com duas lâmpadas: a informação entra e, se encontra a lâmpada 1, segue em frente até a lâmpada seguinte. Se dá de cara com a lâmpada 0, muda de direção. São bilhões de informações repetindo essas manobras a cada pentelhésimo de segundo. E, por incrível que pareça, sem congestionamentos.
O que é mesmo um sistema binário?
Num sistema binário usam-se só dois dígitos, o 0 e o 1, para representar qualquer número. Comparado com o sistema de base decimal, a relação é a seguinte:
Sistema Decimal
1
2
3
4
5
6
7
8
9
10
Sistema Binário
0001
0010
0011
0100
0101
0110
0111
1000
1001
1010
E por aí vai, até o infinito: por exemplo, em notação binária, 1000000000000 – 13 algarismos – corresponde ao numeral 4096, de apenas quatro algarismos. Parece complicado, mas a vantagem do sistema binário é sua simplicidade, pelo menos do ponto de vista do computador: se cada um dos dez algarismos arábicos tivesse que ser reconhecido individualmente pelo sistema, os cálculos demorariam muito mais.
Os bits não servem apenas para representar números, mas para qualquer coisa que precise ser informada a um computador. De uma letra ou uma vírgula, até a cor que queremos usar. Cada uma dessas informações é transformada em um código binário e interpretada pelo sistema. Por exemplo, ao ler 01001010 01000001 01000011 01001011, o computador saberia que isso, obviamente, quer dizer JACK.
É bom a gente lembrar que o sistema binário é bem antigo – em relação à televisão, por exemplo, é 100 anos mais velho. Os cartões perfurados do século 19 já o utilizavam: ou uma determinada posição tinha um furo (1) ou não tinha (0). Depois, viriam as fitas perfuradas de papel (mais estreitas que um cartão, e em bobinas, contínuas) e finalmente as fitas magnéticas, tipo fita de áudio. Mas o princípio continuou o mesmo: na fita, ou um espaço estava magnetizado (1) ou não estava (0).
O curioso nessa história toda é que a ciência da computação não foi a primeira a usar o sistema binário. Os papuas, habitantes da Nova Guiné, são uma tribo tão primitiva, mas tão primitiva, que até hoje ainda não aprenderam a contar usando os dedos. Há milênios, eles se utilizam de um rudimentar sistema binário. Há um símbolo para 1, outro para 2 e daí em diante, para qualquer quantidade, emprega-se um grunhido que significa imensamente mais..
Quantos bits tem um byte? Ou é o contrário?
Um byte tem oito bits.
Qual é a diferença entre um bit e um byte?
Um byte é uma informação inteira (por exemplo, um número). E os bits são as oito peças que, colocadas juntas, permitem ao sistema reconhecer que número é aquele. Em linguagem binária, o número 14 é expresso assim: 00001110. Cada um dos oito algarismos é um bit. Todos eles juntos, um byte. E o sistema lê zeros e uns, mas entende 14.
Por que um byte não tem dez bits, já que os sistemas de base decimal são os mais usados no mundo?
São oito bits num byte porque as combinações possíveis de oito dígitos são mais que suficientes para expressar qualquer número, letra ou símbolo (nossas placas de automóveis têm sete caracteres pelo mesmo motivo). Hoje estamos muito acostumados à prevalência das métricas de base 10, mas muitas matemáticas foram construídas tendo como base o 60 – uma herança que recebemos dos babilônios, há 40 séculos – e não o 10. O triunfo do 10, fruto da prosaica vitória de nossas mãos e pés de dez dedos, não impediu no entanto que a base 60 ainda seja amplamente usada – no contar das horas e dos graus, por exemplo – e que conviva com o atual reinado da base decimal. Quem sabe se, num futuro movido a computação, o oito não passará a ser o único padrão?
E o kilobyte?
Como todo mundo já percebeu, todo dia aparece um novo microchip com capacidade para processar o dobro de dados que o chip da véspera tinha (o que faz com que aquele micro zerinho que nós compramos já esteja ultrapassado no momento em que é retirado do caixa). Por isso, as medidas também têm que ir aumentando. O primeiro salto foi o kilobyte.
Um kilobyte são mil bytes, assim como um quilômetro são mil metros e um quilograma são mil gramas?
Kilo é uma palavra grega que significa mil, logo um kilobyte tem mil bytes, certo? Infelizmente, a informática é simples, mas nem tanto. Um kilobyte tem 1 024 bytes. Porque a base de tudo, como já vimos, é o número 2, e a capacidade de processamento dos micros evolui em múltiplos, sempre dobrando em relação à medida anterior: 4K, 8K, 16K, 32K, 64K, 128K, 256K, 512K. O pulo seguinte, para 1024, dá o valor mais próximo de mil. Portanto, esse kilo de bytes aí já vem com um chorinho… Mas, para quem se liga em matemática, a explicação é que o sistema usa como base o logaritmo 2: o número 1024 corresponde a 2 elevado à décima potência.
Logo, a medida seguinte, o megabyte, tem 1024 mil kilobytes, certo?
É duro de acreditar, mas a resposta também é não. Um megabyte tem mil kilobytes, redondinhos. É que a partir do megabyte todas as novas medidas são sempre mil vezes maiores que a anterior. E todas elas derivam de palavras gregas: mega em grego quer dizer grande. Daí derivou, por exemplo megalomania, a chamada mania de grandeza.
Depois do megabyte, vem o terabyte. Pense um pouquinho: que nome você daria a uma medida mil vezes maior que uma megalomania? Monstruosa, talvez? Pois é isso mesmo, tera em grego é monstro. Então, só pra gente não se perder, um terabyte são mil megabytes, ou um milhão de kilobytes, ou 1024 bilhões de bytes, ou 8,192 bilhões de zerinhos ou unzinhos, os bits.
E isso vai longe. As próximas palavras que muito em breve vão aparecer nos anúncios de qualquer jornal de domingo, anunciando uma liquidação de micros no armazém da esquina, são o petabyte, o exabyte, o zettabyte e o yottabyte. Um yottabyte corresponde a um número que talvez nem exista uma palavra para definir: 10 elevado à 24ª potência, ou, de modo mais simples, 1.000.000.000.000.000.000.000.000 de bytes. Parece uma enormidade, mas é bem provável que daqui a uns 20 anos um yottabyte vá valer menos que um bit furado. Felizmente, o dicionário grego é uma fonte inesgotável de palavras novas, e uma sugestão, para quando o número de bytes chegar ao centésimo zero, poderia ser quambyte, já que em grego quam significa cumé quié??
Por que o tamanho dos computadores foi reduzido tão rapidamente?
Porque na década de 1950 apareceu o transistor, circuito integrado para substituir as antigas válvulas. Eram elas, enormes, que ocupavam a maior parte da estrutura física de um computador. Fabricado inicialmente pela Fairchild Semiconductors, o transistor era uma maravilha eletrônica que fazia a mesma coisa que uma válvula – deixar ou não deixar passar uma corrente elétrica – , mas ocupando um espaço muitas vezes menor: enquanto uma válvula mal cabia na palma da mão, um transistor era menor que um dedo mindinho.
Transistor é um desses nomes que parecem ter vindo diretamente de Marte, mas o termo foi inventado por um cientista dos Laboratórios Bell, John Pierce (que nas horas vagas era, claro, escritor de ficção científica) a partir de outras duas palavras: transferir e reter (em inglês, transfer e resistor). O nome batizou a obra de três outros cientistas dos Laboratórios Bell, Bill Schockley, John Bardeen e Walter Brattain, que, em 1945, concluíram os estudos teóricos que anos depois possibilitariam a fabricação em massa do transistor. Em 1956, eles receberiam o Prêmio Nobel por seus trabalhos. Aliás, o que esse povo dos Laboratórios Bell inventou de coisa e ganhou de Prêmio Nobel no século 20 daria para encher um outro livro…
Mas para nós brasileiros, que há 40 anos achávamos que computador era algo que jamais faria parte de nossas vidas, a novidade do transistor se encarnou numa mania instantânea: o radinho de pilha – ou, como era solenemente chamado, o rádio portátil transistorizado que na época desencadeou uma febre consumista: era um tal de levar o radinho à missa, ao cinema, ao escritório, ligá-lo bem alto para todo mundo ouvir, explicar como aquela maravilha funcionava… na verdade, uma epidemia não muito diferente da que acometeria os proprietários dos primeiros telefones celulares nos anos 90.
O microchip é um transistor?
É uma placa minúscula com uma batelada de minúsculos transistores – o Pentium IV, da Intel, tem 42 milhões deles – cada um com a mesma função do transistor original: transferir ou reter a corrente elétrica. A diferença está na dimensão: se o transistor era do tamanho de um dedo, o microchip era menor que uma impressão digital. O que permitiu o aparecimento dos microchips foi a aplicação prática de novos semicondutores de eletricidade, que têm esse semi no nome porque conduzem – ou não – uma carga elétrica. Voltando ao começo da história, o sistema binário funciona através da leitura de um impulso elétrico, e quanto mais rápida for essa leitura maior será a capacidade do computador.
A vantagem do microchip sobre o transistor é o silício, um elemento que faz com que a corrente elétrica seja conduzida muito mais rapidamente de um bit para outro. Daí vem o nome Vale do Silício para a região da Califórnia, nos Estados Unidos, onde está instalado o núcleo das empresas digitais, entre elas a Intel Corporation, que criou o primeiro microchip, em 1971. Tudo em família: tanto o pessoal que fundou a Intel, dos microchips, como o povo que fundou a Fairchild, dos transistores, era gente vinda dos Laboratórios Bell.
Quando foi que os computadores digitais substituíram os analógicos?
Nunca. Essa parece meio difícil de acreditar, mas as palavras analógico e digital convivem desde os primórdios dos computadores. Só que essa noção atual de que analógico é algo arcaico, e que digital é seu sucessor moderno, não só não existia há 60 anos como era exatamente o contrário: o analógico era muito mais avançado que o digital.
Os computadores digitais – que também eram chamados, com otimismo exagerado, de cérebros eletrônicos – custavam bem menos que seus similares analógicos e tinham como principal vantagem a rapidez. Eles operavam com informações numéricas fixas – ou dígitos – e o resultado era uma única e exata solução.
Já os computadores analógicos, muito mais caros, lidavam com dados que requeriam variações contínuas, como por exemplo a alteração da velocidade, a direção do vento ou a posição de um avião numa simulação de aerodinâmica de vôo.
Aliás, as próprias origens das duas palavras já mostram a diferença na sua sofisticação: digital, como já vimos, veio de digitus, dedo. E analógico vem do grego analogos, proporcionalidade, ou, em seu significado original, razão. Hoje, a nova razão da moçada passou a ser o mundo digital, enquanto a geração analógica parece que perdeu a razão de existir.
E então surgiu o microcomputador?
Muita gente vai se surpreender, mas bem antes do microcomputador surgiu o video game. Treze anos antes, para ser mais exato, em 1962. Três sujeitos de 25 anos, que trabalhavam juntos no altamente tecnológico Instituto Ingham, em Massachusetts, nos Estados Unidos, e que eram fanáticos por ficção científica, começaram a juntar protótipos de equipamentos que o instituto estava desenvolvendo. E se puseram a pensar se tudo aquilo não poderia ser transformado em algo útil para matar o tempo entre um projeto e outro. Para seus chefes, eles justificariam o esforço dizendo que estavam trabalhando numa demonstração das potencialidades interativas da computação. O resultado foi o Spacewar, o primeiro game.
Aí por 1960, já existiam dois ou três programinhas que faziam bolinhas pular na tela, ou tijolos ir sendo empilhados. A grande diferença é que o Spacewar permitia que duas pessoas controlassem o que estava acontecendo na tela. Para isso foram criadas duas caixas de controle, com três comandos: uma alavanca que movia para a frente e para trás uma nave espacial (na verdade, um ponto na tela), outra alavanca que acelerava a velocidade e um botão que disparava um torpedo e reduzia a nave inimiga a pó. Game over!
Os três inventores, a quem as indústrias do milionário setor de joguinhos devem pelo menos uma plaquinha de agradecimento na recepção, foram Slug Russel (especialista em inteligência artificial), Wayne Witanen (matemático) e Martin Graetz (nenhuma especialização, mas muita imaginação). O Spacewar mostraria que era possível ao operador escapar da ditadura dos programas quadrados e decidir o que iria acontecer na tela no momento seguinte.
Em 1970, a Xerox Corporation, não querendo perder o bonde do avanço tecnológico, decidiu investigar algumas opções de negócios que poderia vir a ter no futuro, além de fabricar e alugar máquinas copiadoras. Para isso, contratou a nata das cabeças pensantes da época – cientistas, principalmente, mas também gênios recém-saídos de universidades de alta tecnologia e confinou essa turma em seu Centro de Pesquisas em Palo Alto, cidade da Califórnia. Ao fim de quase dois anos espremendo os neurônios, a equipe conseguiu chegar a duas idéias bem interessantes:
A primeira foi um protótipo batizado de Alto, em homenagem à cidade – de uma maquininha desenvolvida para pertencer a um único indivíduo, que poderia, se quisesse, usá-lo até em sua própria casa. O Alto era simplesmente uma tela vertical de televisão, acoplada a um teclado semelhante ao de uma máquina de escrever, e ambos conectados a uma caixa, pouco maior que um nobreak atual, dentro da qual programas com instruções faziam a engenhoca funcionar. O conceito era incrivelmente revolucionário para uma época em que computadores eram equipamentos enormes, pesadões e, principalmente, caríssimos, tanto que só grandes empresas podiam se dar ao luxo de possuir um.
A Xerox tinha inventado o microcomputador?
Inventado talvez não, porque os conceitos estavam voando há algum tempo, e alguns dos técnicos que a Xerox contratara já tinham trabalhado em projetos ligados à computação pessoal. Mas a Xerox foi a primeira a construir um micro que funcionava na prática. Só isso já seria uma história e tanto, mas o Alto tinha outras características ainda mais impressionantes:
• Para abrir os ícones, foi usado um pequeno aparelho, conectado ao micro. Ao movê-lo, o usuário via um pontinho caminhar na tela, reproduzindo o movimento feito com a mão. Era o mouse. Quando o pontinho parava sobre um ícone, tudo o que o usuário tinha a fazer era apertar um dos três botões do mouse para que o programa aparecesse na tela. O mouse não era uma idéia nova (havia sido inventado sete anos antes, em 1965, por um engenheiro, Doug Engelbart, do Instituto de Pesquisas da Universidade de Stanford – e era de madeira!). Mas, ao adaptá-lo ao Alto, o pessoal da Xerox encontrou o uso perfeito e definitivo para ele.
• Ao invés de fazer os caracteres – letras, números e figuras – aparecerem já formados na tela, num processo semelhante ao de uma máquina de escrever, o sistema construía cada um deles, a partir de milhões de pontos isolados (ou pixels), um processo hoje chamado de bit mapping, que é a base de qualquer sistema gráfico.
• Para operacionalizar os comandos do Alto, a Xerox criou uma linguagem com codificação própria, chamada Smalltalk, que permitia a seus programadores desenvolver novos programas e aplicativos compatíveis com o sistema. A diferença era como a de inventar uma palavra nova para um língua já existente, ou ter que criar uma nova língua todos os dias.
Foram construídas 150 unidades do Alto, mas nenhuma chegou a ser colocada à venda – se fosse, seu preço na época teria que ser superior a 30 mil dólares, o que em valores atuais corresponderia a dez vezes mais. Mas o Alto era tão avançado que muitas de suas características não apareceriam nem na primeira geração de microcomputadores da Apple, em 1976, mas só na seguinte, com o Macintosh, em 1984.
De uma tacada só, a Xerox havia antecipado toda a revolução das décadas seguintes, construindo o micro pessoal e antevendo a Internet atual (porque no começo dos 1970 a Arpanet, avó da Internet, não se parecia em nada com a Internet que conhecemos hoje, como se verá na segunda parte deste livro). E, cá entre nós, o nome Ethernet é muito mais bonito: ether, do grego aither, é a região acima das nuvens, onde o sol sempre brilha. Muito melhor que Internet, a rede interativa, teria sido Eternet, a rede do espaço infinito.
Quando o microcomputador finalmente chegou às lojas?
Como a Xerox não colocou o Alto à venda, a honra de lançar o primeiro computador pessoal – em inglês, Personal Computer, ou PC – coube a uma pequena americana de porte médio, a MITS (Micro Instrumentation and Telemetry Systems) em 1975. E não era bem o que hoje reconheceríamos como sendo um micro, mas um kit de partes vendidas separadamente e que tinham que ser montadas pelo próprio usuário. Mas já tinha o cérebro dos micros atuais: um único microprocessador, o chip, fabricado pela – quem mais? – Intel. E as instruções para que ele pudesse funcionar estavam contidas em um programa em linguagem BASIC, escritas por – quem mais? – Bill Gates e seu colega de escola, Paul Allen. Ambos tinham, na época, 18 anos, e estavam apenas entrando na faculdade.
O Altair 8800 custava 395 dólares e tinha 256 bytes de memória. Como cada letra corresponde a um bit, e 256 bytes são 2048 bits, a memória básica do Altair era suficiente apenas para guardar na lembrança o conteúdo de uma página igual a esta…
De apelo comercial limitado – era mais um hobby restrito a um pequeno grupo de entendidos em computação que, entre outras coisas, precisava saber escrever seus próprios programas, já que o Altair não tinha nenhum software -, o bisavô de todos os micros desapareceu logo depois que a Apple entrou no mercado.
Quando apareceu a Apple?
Em 1976, na garagem da casa de Steve Jobs, na Califórnia. A empresa começou no dia 1º de abril e tinha três sócios: Steve Jobs, Stephen Wozniak e Ron Wayne. Quando a Apple surgiu, Jobs e Wayne ainda trabalhavam na Atari, e Wozniak estava na Hewlett Packard, a HP. Na sociedade, Wozniak era o técnico, Jobs, o comercial e Wayne, o administrativo. A idéia do nome Apple foi de Jobs, e outras alternativas consideradas foram Executek e Matrix (esta última, aliás, bem mais apropriada que Apple, tanto sonora quanto tecnologicamente).
A primeira loja a vender o Apple I foi a Byte Shop, da Califórnia, e ao proprietário dela, Paul Terrell, deve-se uma mudança pequena, mas radical, no conceito de como vender micros ao usuário final. A idéia da Apple era competir com o Altair, portanto o Apple I também foi criado para ser vendido na forma de um kit faça você mesmo. Uma caixa, que continha o circuito impresso, mais um saco cheio de pequenas partes, e um manual de montagem de 16 páginas custavam 666 dólares. Terrell prometeu a Jobs comprar 50 unidades a 500 dólares cada uma, desde que os micros já viessem montados e prontos para usar.
Em janeiro de 1977, Ron Wayne decidiu deixar a sociedade e recebeu sua parte: um cheque de 1800 dólares. Se tivesse ficado, teria se tornado milionário menos de três anos depois. A contribuição mais visível de Wayne para a Apple foi o seu primeiro logotipo – uma ilustração mostrando o físico Isaac Newton embaixo de uma macieira – que logo seria substituído pela famosa maçãzinha estilizada, criada por Rob Janov, diretor de arte da agência Regis McKenna (ao que consta, por menos de 500 dólares, uma das maiores barganhas do mercado da propaganda em todos os tempos).
O micro era um grande computador em tamanho menor?
Muito menor, por isso era chamado de pessoal: tinha infinitamente menos memória e menos capacidade de processar dados. A diferença básica é que os grandes computadores (chamados de mainframe, estrutura principal, já que tinham alguns periféricos conectados a eles) possuíam vários microprocessadores e o micro tinha apenas um. Aliás, é desse único microprocessador que surgiu o apelido do micro, e não de uma idéia de tamanho menor. Se fosse assim, o computador pessoal teria sido chamado de míni.
Por que na época nenhuma grande empresa entrou no ramo de micros?
Porque aquilo não parecia ser um grande negócio. O primeiro microcomputador Apple era vendido ao consumidor final por 800 dólares – equivalentes a uns 5 mil dólares, em valores atualizados. Era mais uma mania de fanáticos do que uma utilidade doméstica, como é hoje.
A primeira grande empresa a achar que o negócio de micros não tinha futuro foi a Hewlett Packard. Steve Wozniak ainda trabalhava para a HP, em 1976, quando montou o primeiro protótipo do Apple I e tentou convencer sua empresa a entrar naquele novo ramo. Os diretores da HP fizeram sua obrigação profissional: mandaram memorandos a diversas áreas da empresa, convidando os seus responsáveis para ver uma demonstração prática e em seguida perguntando se aquilo interessava. A resposta, unânime, foi não. Há duas ironias nessa história: a primeira foi que a HP mudou de idéia sete anos depois e lançou sua linha de micros; a segunda é que a própria HP havia sido fundada, décadas antes, por William Hewlett e David Packard, também numa garagem, que ficava a poucos quarteirões da casa de Steve Jobs.
Em 1981, a Apple já faturava 500 milhões de dólares anuais. Nada mal para quem, em 1976, tinha começado o negócio com um capital inicial de 1750 dólares, fruto da venda da calculadora HP de Jobs e da Kombi de Wozniak.
O que os primeiros micros da Apple faziam?
Não muito, se comparados com os de hoje: joguinhos que não ocupassem muita memória e um editor de texto bem simplesinho. O grande salto – que abriria os olhos das corporações para a primeira e real utilidade prática do micro – viria em 1979, com o VisiCalc, a mãe de todas as planilhas eletrônicas de cálculo. Foi o VisiCalc que impulsionou as vendas de um novo modelo que estava sendo lançado, o Apple II, e multiplicou da noite para o dia o valor da Apple como empresa.
Mas… e a IBM?
A IBM demorou para acreditar no mercado de micros e preferiu focar seus esforços nos grandes sistemas, que eram literalmente uma máquina de fazer dinheiro. Foi só em 1979, após o sucesso do VisiCalc, que a IBM acordou. E, aí, pulou da cama com a corda toda.
Em agosto de 1981, o micro da IBM estreou no mercado, vendido a 1565 dólares e com 16K de memória. Mas, quando o IBM-PC chegou às prateleiras, a reação do pessoal da Apple foi de alívio – e de certa arrogância. Steve Jobs diria: A maior empresa de computadores do mundo conseguiu construir um micro pior do que aquele que montamos seis anos atrás numa garagem.
Jobs estava enganado. Com seu sólido nome e sua estrutura de distribuição, já em seu primeiro ano no mercado a IBM vendeu 50 mil micros. E apenas dois anos depois, em 1983, passaria a Apple em vendas.
Quando a IBM entrou no mercado, permitiu que seu sistema operacional – o MS-DOS – fosse usado também por outras companhias. Isso permitia que qualquer empresa de software pudesse desenvolver programas para os micros da IBM e que qualquer empresa de tecnologia pudesse fabricar micros compatíveis com o IBM-PC. A primeira delas foi a Compaq, em 1983, mas logo haveria uma proliferação de marcas famosas no mercado – Toshiba, Dell e HP, entre outras. Já a Apple resolveu trancar a sete chaves seu sistema operacional o Applesoft BASIC e portanto tinha que fazer tudo sozinha.
Rapidamente, as empresas que desenvolviam aplicativos abarrotaram o mercado com programas para os micros da IBM ou seus similares. Além disso, um disquete gravado em um IBM-PC podia rodar em micros de qualquer outra marca, menos num Apple. E um disquete gravado em um Apple só podia rodar em outro Apple. Assim, a IBM estabeleceu um novo padrão para o mercado: ela e o resto de um lado, e a Apple sozinha do outro.
Nessa briga entre a IBM e a Apple, como é que Bill Gates ficou mais rico que as duas?
Ficou por dois motivos: o primeiro foi a sua percepção de que a máquina – ou hardware – se tornaria menos importante que os programas que rodavam nela – os softwares. Gates fundou sua empresa na cidade de Albuquerque, Estado de New Mexico, em 1975, e já a batizou de Micro-Soft (assim mesmo, com hífen e S maiúsculo), uma combinação de software com microcomputador. Era uma aventura, porque o incipiente mercado de micros estava nas mãos de pequenas e desconhecidas empresas com muitas idéias e pouco dinheiro. A própria Apple só seria fundada um ano depois que a Microsoft já existia.
Mas foi o segundo motivo que transformou Gates num bilionário: quando decidiu desenvolver seu micro, a IBM não achou importante criar uma nova linguagem de programação. Em vez disso, resolveu usar um sistema operacional desenvolvido por Gates – o MS-DOS, ou Microsoft Disk Operating System – , mas não o comprou, apenas o alugou, pagando à Microsoft alguns dólares por micro vendido. E, ainda por cima, permitiu que a Microsoft licenciasse o MS-DOS para outras empresas fabricantes de micros. Em pouco tempo, Gates e a Microsoft tinham nas mãos o monopólio do coração de qualquer micro: o sistema que o faz funcionar. Porque o resto era uma caixa de plástico, que qualquer um podia construir.
Por que a gigante IBM simplesmente não comprou a Microsoft?
Ninguém sabe, mas a melhor explicação é que a IBM decidiu que seu negócio não era desenvolver programas, mas sim vender microcomputadores às pencas, o que ela realmente conseguiu fazer. Porém, o próprio Gates também teve lá suas dúvidas sobre o futuro da Microsoft. Em 1979, quando a Microsoft era apenas uma pequena empresa que produzia programas para os nanicos concorrentes da Apple, o milionário texano Ross Perot, duas vezes candidato derrotado à presidência dos Estados Unidos, perguntou se Gates queria vender a empresa. E Gates disse yes! Perot ofereceu algo como 6 milhões de dólares pela Microsoft. Gates pediu 15. Ainda assim, era realmente uma pechincha: aqueles 15 milhões corresponderiam, em valores de hoje, a uns 90 milhões. Só para comparar com uma negociação feita num outro setor, em 1998, a Gessy Lever compraria a brasileiríssima Kibon por quase 900 milhões de dólares, dez vezes mais do que Perot achou que a Microsoft não valia…
O Windows é um sistema operacional ou um aplicativo?
Desde sua versão 95, o Windows é um sistema operacional (o programa básico que faz o micro funcionar). Antes disso, era um aplicativo (que funcionava dentro do sistema MS-DOS). O Windows tem a cara de um prédio cheio de janelas – daí o seu nome – que se abrem para o usuário acessar cada programa, simplesmente clicando nos ícones desejados. Antes do Windows, o usuário de um micro da IBM tinha que digitar uma instrução para abrir um programa, o que requeria memorizar centenas de abreviações em código (do tipo C:>Copy A:*.* ). Um simples sinal trocado já provocava uma mensagem antipática, do tipo Abort, Retry, Fail? e aí a única solução era pegar o manual e ficar procurando a instrução correta. Tudo isso foi substituído por um simples clique do mouse em uma janelinha.
A primeira versão do Windows foi lançada em 1985, não sem alguma confusão, porque ela era parecida demais com as janelas do Macintosh, que já estava no mercado há quase um ano. E havia uma razão para isso: em 1982, Steve Jobs e Bill Gates haviam feito um acordo, pelo qual Gates poderia usar alguns dos recursos visuais do Macintosh, que ainda estava em fase de protótipo, e em troca a Microsoft passaria a desenvolver softwares específicos para os micros da Apple. Antes que algo de prático acontecesse, a Apple voltou atrás, mas Gates decidiu que o acordo continuava válido e tocou o Windows em frente. A Apple processou a Microsoft, e a briga se arrastou até 1993, quando a Justiça deu ganho de causa à Microsoft.
Em 1989, no auge da encrenca, Bill Gates lembrou que as janelas da Apple tinham sido, na verdade, inventadas pela Xerox, no projeto do Alto.
Quem fez o primeiro notebook, a IBM ou a Apple?
Por incrível que pareça, nenhuma das duas. E, mais incrível ainda, não foi nenhuma das grandes empresas de tecnologia. O micro portátil foi lançado em 1981, por uma empresinha desconhecida, a Osborne Computers. O Osborne I pesava 12 quilos, mas apesar de ser um peso-pesado se tornou um sucesso instantâneo. Tinha tudo o que um micro tinha e era uma pechincha: custava 1800 dólares, só 15% a mais que o micrão da IBM.
Adam Osborne, o dono da empresa, deu a seu micro portátil o nome de laptop, algo como nas coxas, só que no bom sentido: é que, quando os computadores pessoais foram lançados, eles ganharam o apelido de desktop, ou em cima da mesa, para diferenciá-los dos enormes computadores das empresas, que ficavam no chão. Daí, o micro portátil virou laptop, no colo. E, mais recentemente, apareceu o palmtop, porque cabe na palma da mão. Do jeito que vai, o próximo passo talvez seja o nailtop, pois deverá caber na unha – e ainda vai sobrar espaço.
Mas foi só o Osborne I aparecer e os grandões caíram de pau. Surpreendido com a enorme demanda, Adam Osborne precisou de tempo e de capital para ampliar suas instalações e sua rede de distribuição. Só que, enquanto se preparava, os concorrentes, muito maiores e mais bem aparelhados, lançaram suas próprias versões de micros portáteis, com tecnologia mais avançada, menos peso e menor tamanho. Vítima de seu sucesso, a Osborne foi à falência menos de dois anos após revolucionar o mercado.
Mas o que realmente mudou nos computadores?
Não é bem o que mudou, é o que está mudando, pois tudo indica que o processo evolutivo ainda está só no começo. Essa mudança está na capacidade de processamento e de armazenagem de dados na memória do computador: quanto mais memória, mais tarefas podem ser executadas, e cada vez com mais sofisticação. Os efeitos especiais que se vêem num filme como O Parque dos Dinossauros, por exemplo, são o resultado prático dessa evolução: eles só não foram feitos antes porque não havia computadores com memória capaz de processar as toneladas de dados necessárias para animar os mastodontes.
Em 1981, quando a IBM lançou seu primeiro micro pessoal, cada kilobyte de memória custava aproximadamente 100 dólares (16K de memória a 1565 dólares). Hoje, um micro com 20 gigabytes de memória custa 4 mil dólares, o que quer dizer que o preço de 1 kilobyte caiu para um valor cem vezes menor que 1 centavo de dólar. Ou seja, o custo para se executar uma mesma operação num micro foi reduzido para 1/10000000 do valor original. Se a velocidade dos aviões a jato comerciais tivesse aumentado na mesma proporção, uma hipotética viagem da Terra à Lua num Boeing, que em 1981 levaria 17 dias, hoje seria feita em menos de 15 milésimos de segundo.
Curiosamente, tem uma coisa que não mudou: o teclado, ou keyboard. É certo que novas teclinhas foram adicionadas a ele – as de função, a de enter e outras – mas as letras continuam na mesma ordem desde 1873, quando a Remington & Sons, de Nova York, colocou no mercado a primeira máquina de escrever que realmente funcionava. Na fase de testes da máquina da Remington, as letras estavam arranjadas em ordem alfabética, mas isso fazia com que as hastes se enganchassem e travassem com irritante freqüência. Então, o inventor da máquina, Christopher Sholes, teve uma idéia: fez uma lista das letras mais usadas na língua inglesa e colocou essas teclas o mais distante possível umas das outras, – o E e o O, por exemplo, as que mais se repetem, estão em setores opostos do teclado. Do arranjo alfabético original, ficaram apenas vagas lembranças: f-g-h vêm em seqüência, assim como j-k-l. Por que, 130 anos depois, ninguém ainda mudou isso? É que a gente se acostumou tanto que já nem percebe…
Quem são a ROM e a RAM?
Embora pareça nome de dupla sertaneja, ROM e RAM são os dois tipos de memória contidas no microprocessador do computador. A diferença básica entre elas é que a ROM trabalha com informações fixas e permanentes e a RAM lida com informações temporárias, que tanto podem ser guardadas ou apagadas quando o computador é desligado. De forma geral, pode-se dizer que a ROM trabalha para o usuário, enquanto que o usuário trabalha com a RAM.
Essas máquinas de café de escritório ou de refrigerante dos postos de gasolina, que parecem um armário, têm um microprocessador. Quando o usuário escolhe sua opção – café com leite, com pouco açúcar, por exemplo – , a máquina executa uma operação, a partir de instruções fixas e seqüenciais: baixa o copinho, mistura os pós de café e de leite e o açúcar, esquenta e despeja a água, e libera o misturador de plástico. Tudo isso é feito a partir de uma memória do tipo ROM, porque o usuário não interfere no processo, nem pode mudar as proporções de pós e água na mistura.
A palavra random tem origem francesa – randir – e antigamente significava galopar sem destino. Depois, foi adotada pela Estatística para definir qualquer fato que acontece ao sabor do acaso, sem método, como os números da Mega Sena, por exemplo. Daí, entrou para o ramo da computação, com o sentido de você decide.
O que é um megahertz?
É a medida da velocidade de operação de um microprocessador. Um megahertz, ou MHz, corresponde a 1 milhão de ciclos por segundo. Na prática, isso quer dizer que um microprocessador de 600 MHz pode fazer 600 milhões de operações aritméticas em 1 segundo.
A palavra é uma homenagem ao físico alemão Heinrich Hertz, que descobriu o fenômeno das vibrações eletromagnéticas no início do século 20. A primeira grande aplicação prática e de alcance popular do invento de Hertz foram as transmissões de rádio (nos anos 40, os locutores das rádios do Interior do Brasil proclamavam, eufóricos: Este é o milagre do rádio, e esta é a sua Rádio Difusora, ZYE 6, mandando para o éter suas ondas artesianas!). É que naqueles tempos pronunciar hertzianas era meio complicado…
Informática não é uma palavra americana?
Não. Não há nada parecido na língua inglesa. O nome foi criado pelos italianos, ainda na era jurássica da computação (período anterior aos anos 70, quando qualquer computador, por mais simplesinho que fosse, pesava mais que um caminhão) e nasceu da junção de informazione com matemática. A palavra é bonita e prática e por isso foi aceita pelos brasileiros e entrou no nosso dicionário. Além dela, os italianos criaram vários outros termos, como sistemística (que não sobreviveu fora da Itália) e telemática (que hoje anda forte e rija pelo mundo afora).
Enquanto isso, aqui no Brasil…
Pois é, nós também temos nossa historinha digital para contar. Na década de 70, quando os micros começaram a ganhar projeção mundial, nosso governo resolveu criar uma reserva de mercado (ou seja, proibir as importações) com a melhor das intenções: permitir que os fabricantes locais desenvolvessem sua própria tecnologia para um dia competir em igualdade de condições com os gigantes alienígenas. Como era praxe na época, foi criada uma agência governamental encarregada de regulamentar todo o processo. Quando o primeiro computador brasileiro foi fabricado, a ditadura fez uma festa. Teve até padre para benzer o bichinho. Como conseqüência, da reserva de mercado, mais que estatizada, nossa microinformática ficou engessada por longos 17 anos.
Na prática, a reserva de mercado – da qual ainda restam resquícios, já que a importação de itens de informática continua limitada ou sobretaxada – atrasou a entrada do Brasil no mundo dos computadores pessoais: algumas privilegiadas empresas nacionais importavam os componentes lá de fora, a preços camaradas e livres de impostos, montavam os micros em Manaus, e faziam pouco mais que grudar neles os seus próprios logotipos. Embora nossa mão-de-obra fosse bem mais barata, e Manaus oferecesse vantagens fiscais para os montadores, os micros eram vendidos a preços cavalares, já que não havia a concorrência externa. Sem falar que nossos micros estavam sempre tecnologicamente desatualizados, já que não havia pressa.

3015 – Bartolomeu de Gusmão, o padre voador


Nascido em SP, foi estudar em Coimbra, com 15 anos ordenou-se sacerdote e distinguiu-se como pregador. Também estudou física e matemática e concebeu um aeróstato ( nome de aparelhos como balões e dirigíveis ) , que chamou de instrumento voador. A primeira tentativa de vôo mal sucedida foi em Lisboa , na presença da corte. Na 3ª , em 1709, conseguiu subir 4 metros. Foi uma sensação, o povo passou a chamar o aparelho de passarola e a Gusmão de padre voador. Mas quem levou as glórias e o crédito pela invenção do balão foram os irmãos franceses Montgolfier, em 1783.

Padre Bartolomeu Lourenço de Gusmão
Em agosto de 1709, o jesuíta apresentou à corte portuguesa seu invento mais famoso: o balão de ar quente. Foi o suficiente para que Gusmão fosse apelidado de “padre voador”. Os primeiros balões eram rudimentares e não deram muito certo. Mas, no século seguinte, seriam usados na…
Guerra Civil Americana
A guerra (1861 a 1865) começou quando os escravagistas do sul americano declararam independência do resto do país, formando os Estados Confederados da América. Os outros Estados, que eram contra a escravidão, formaram o Exército da União. Entre várias inovações tecnológicas, como minas terrestres e submarinos, esse exército tinha a primeira força aérea do mundo – que usava balões para fazer espionagem. Lutando pela União, estava…
O Estado do Kansas
A União venceu, a guerra civil e a escravidão acabaram, e o Kansas começou a prosperar: recebeu uma leva maciça de imigrantes, que ajudaram a transformá-lo num dos principais produtores agrícolas dos EUA. Algumas décadas mais tarde, viria outra fonte de riqueza: a descoberta de jazidas de gás natural. Numa dessas jazidas foi encontrada, em 1903, uma grande quantidade de…
Hélio
O elemento químico, que forma um gás inofensivo (He2), havia sido identificado em 1868 como presente no Sol, mas quase inexistente na Terra. Os EUA praticamente mantiveram o monopólio de hélio até os anos 90 (é por isso que os zepelins criados pela Alemanha usavam hidrogênio, altamente explosivo). Hélio era o gás nos balões do…
Padre Adelir de Carli
Em 20 de abril, o padre decolou de Paranaguá com 1 000 balões de hélio. Enfrentando ventos desfavoráveis, ele desapareceu no litoral de Santa Catarina. Ele era adepto do vôo livre com bexigas, um “esporte” inventado pelo americano Larry Waters em 1982. Waters sobreviveu, mas foi preso. Carli perdeu a vida. Mas entrará para a posteridade conhecido por seu apelido: padre voador.

3014 – Mega Almanaque: A Origem da Maratona


A corrida foi criada como homenagem ao herói grego Feidípedes que no ano 490 AC correu da planície de Maratona, á beira do Mediterrâneo, até Atenas, para anunciar a expulsão dos Persas pelo exército grego. Exausto após o combate e a corrida, deu a notícia e morreu. Nas primeiras olimpíadas modernas a prova tinha 40 km e a distância atual de 42,195 km se tornou padrão após os jogos de Londres (1908) , quando a maratona foi esticada para a largada ser feita dentro do castelo de Windsor. A primeira prova feminina de maratona só foi disputada em Los Angeles em 1984.

Natação
Os registros históricos dão conta que suas primeiras provas foram disputadas na Inglaterra, na primeira metade do século 19. O estilo único era o atual nado de peito, na época chamado nado científico, que dominou as provas nos jogos olímpicos de Atenas, em 1896. Os estilos crawl e borboleta foram criados a partir do nado científico e ganharam provas próprias, o estilo livre em 1908 e o borboleta em 1952. O nado de costas começou a ter provas a partir de 1900.

Esporte olímpico – Ginástica
Foi o 1º esporte a ter sua federação internacional filiada ao Comitê Olímpico Internacional e ginastas, apenas homens estavam presentes nos jogos de Atenas. As provas foram nas argolas, barras paralelas, fixa e cavalo com alça. A participação feminina começou em 1928.

O Centenário das Olimpíadas
Em abril de 1896, os primeiros jogos olímpicos da era moderna eram inaugurados em Atenas com apenas 285 atletas, todos homens, de 13 países que disputaram competições de 9 esportes. 100 anos depois, os jogos de Atlanta reuniram 10 mil atletas, 3.700 mulheres de quase 200 países, com provas em 26 esportes : da maratona, cuja origem remonta á Grécia antiga, passando por modalidades tradicionais como a natação e a ginástica e até o vôlei de praia que estreou em Atenas, com medalhas para o Brasil.

3013 – ☻Mega Memória: Lembre-se: recordar é viver


A memória humana é capaz de armazenar bilhões de informações. Graças a ela somos capazes não só de fazer algo, como também de relacionar as coisas entre si, de estabelecer associações, sem as quais seria impossível a própria sobrevivência. Boxe: como testar a sua capacidade de concentração.
A massa de informações que a memória humana grava equivale a 20 bilhões de livros. Mas é preciso que um fato mexa com as emoções para ser encontrado depois com facilidade nesse fantástico arquivo do cérebro.
Já pensou se, cada vez que fosse assinar o nome, você tivesse de recordar as primeiras letras, aprendidas na infância? Pois é exatamente isso que acontece, embora não se perceba: escrever é como pressionar no cérebro a mesma tecla da cartilha do curso primário, desenhar novamente as palavras do jeito que a professora ensinou. A rigor, fazer qualquer coisaqualquer coisa mesmoé voltar inconscientemente à primeira experiência de aprendizado. A memória está presente em tudo. Graças a ela somos capazes não só de fazer algo como também de relacionar as coisas entre si, de estabelecer toda sorte de associações, sem as quais a própria sobrevivência seria impossível. Todos nós, enfim, vivemos de recordações.
A memória é uma interação entre o ambiente e o organismo. Essa interação altera o sistema nervoso de tal modo que lhe permite reviver uma experiência. Naturalmente, todos os sentidostato, paladar, olfato, audição e visãosão instrumentos da memória. Mas a sede das lembranças é uma massa gelatinosa, com cerca de 1 quilo e meio que mal se acomodaria na palma da mão. Ou seja, o cérebro.
Comparáveis ao número de estreIas na Via Láctea, existem no cérebro 100 bilhões de neurônios, acinzentadas células nervosas com centésimos de milímetro de diâmetro, que possuem prolongamentos, chamados axônios.
Aparentemente, o cérebro é revestido por uma camada cinza, o córtex, que deve sua cor ao fato de ser formado quase só por corpos de neurônios. Dentro está a chamada substância branca. Trata-se de uma rede de axônios, feito fios encapados. O revestimento é a mielina, componente químico que lhe confere a cor clara.
Neurônios e axônios formam conexões: não chegam propriamente a se tocar, mas se aproximam tanto, que basta um neurônio liberar a substância química chamada neurotransmissor para que outro neurônio a capte e se estabeleça a comunicação entre eles. Calcula-se que no cérebro humano existam 100 trilhões dessas conexões. Chamadas sinapses. Um pensamento, por mais simples que seja, ativa centenas de sinapses. A capacidade de memorizar que todas as sinapses dão ao homem é incrível: aproximadamente 1014 bits (unidades de informação), ou o número 1 seguido de catorze zeros. Esse oceano de bits daria para escrever 20 bilhões de livros. Difícil é imaginar que cada um de nós carrega essa megabiblioteca na cabeça.
Já se nasce sabendo. É o que os cientistas chamam de memória biológica do cérebro, herdada geneticamente, que tem a ver com o instinto de sobrevivência de cada indivíduo de uma espécie. Assim, não se precisa ensinar o recém-nascido a mamar. O bebê também já nasce com todo o potencial para arquivar o que for aprendendo pela vida afora e formar, dessa maneira, a memória cerebral que é, aliás, 10 mil vezes mais ampla que a memória dos genes das células do organismo.
Recentemente, cientistas italianos levantaram a hipótese de que a potencialidade da memória cerebral é hereditária. Eles fizeram uma experiência muito sugestiva: cruzaram ratos de laboratório dotados de boa capacidade de memorização; verificaram depois que a geração seguinte de ratinhos se distinguia pela facilidade com que aprendia a buscar comida num labirinto, em comparação com filhotes de outros ratos. Mas nada prova por enquanto que filhos de pais com boa memória também nasçam com boa memória.
Normalmente, o esquecimento é um recurso do cérebro para não ficar entulhado de informações inúteis. Trata- se, portanto, de uma limpeza de arquivos. Ocorre que nem sempre alguns diriam, raramenteos critérios dessa seleção do que deve ser guardado passam pelo racional. Se já não bastassem as teorias de Freud e a prática da psicanálise, a experiência pessoal de cada um demonstra que aquilo que mexe com as emoções fica guardado no cérebro por mais tempo e com uma riqueza maior de detalhes. Ficar guardado não quer dizer necessariamente que se consiga evocar certas memórias com facilidade. Ao contrário: lembranças associadas a emoções básicas ou poderosas demais tendem a permanecer bloqueadas.
A terapia analítica busca desbloquear tais fatos, que seriam a causa oculta de neuroses e outros distúrbios de personalidade. Os neurologistas, de seu lado, já descobriram que os sentimentos influem na formação de neurotransmissores. “Parece que nada melhor do que uma novidade para ajudar a memorizar algo”, revela Esper Cavalheiro, do Laboratório de Neurologia Experimental da Escola Paulista de Medicina. Trabalhos com animais têm demonstrado que o cérebro reage à novidade liberando a substância endorfina, um eficiente fixador de memórias.

3012 – Cinema: Kill Bill, um coquetel no matadouro


Kill Bill poster, clic para ampliar

Os filmes de luta e ação costumam fazer sucesso de público e bilheteria e kill Bill não fugiu a regra.

Kill Bill é um filme nipo-americano de 2003 e 2004, o quarto do roteirista e diretor Quentin Tarantino. Originalmente concebido como um único filme, foi lançado em dois volumes (nos EUA, Kill Bill: Volume 1 no outono de 2003 e Kill Bill: Volume 2 na primavera de 2004), devido à sua duração de aproximadamente quatro horas. O filme é um drama fictício de vingança, que homenageia antigos gêneros, tais como filmes antigos asiáticos de kung fu, filmes japoneses de samurai, western spaghetti italiano, trash, anime, uma grande referência à música popular e cultura pop; e alta violência deliberada.
As gravações ocorreram nos Estados Unidos, México, Japão e China. Kill Bill conta a história de vingança de Beatrix Kiddo, interpretada por Uma Thurman, contra seus ex-parceiros do Esquadrão Assassino de Víboras Mortais”, que tentaram assassiná-la no dia do ensaio do seu casamento. O filme foi lançado em DVD nos EUA em 13 de abril de 2004, no Brasil o filme só chegou em 25 de setembro, já em Portugal, o filme foi lançado em um Box Duplo em 7 de outubro do mesmo ano.
Kill Bill: Volume 1
O filme começa com um homem, Bill, caminhando, no chão há cápsulas de balas e vários corpos, ele vai até Beatrix, que está ensangüentada e ferida, e lhe dá um tiro na cabeça, deixando-a para morrer.
Nesta primeira parte o diretor exerce seu poder ao criar uma obra com violência caricata impressionante. Há pitadas de humor e muita ação. Inicia com um provérbio Klingon já denunciando o tom do filme: “Revenge is a dish best served cold.”, algo como “A vingança é um prato que se come frio”.
Ou seja, é um filme sobre vingança. Esta parte da obra mostra a vingança da Noiva contra Vernita Green (Vivica A. Fox) e O-Ren Ishii (Lucy Liu). Há explicações de o que aconteceu após ela ficar 4 anos em coma, sobre o passado de O-Ren Ishii (em anime), onde ela conseguiu a espada Hattori Hanzo e cenas de luta bem coreografadas com destaque para a travada contra Go-Go Yubari (Chiaki Kuriyama), além de uma apresentação musical do grupo de rock japonês, “The 5,6,7,8’s”.
Há curiosidades que percebemos ao assistir o vol.1: a primeira delas é que o próprio Bill nunca aparece. Só ouvimos sua voz em alguns momentos e sua mão direita aparece brevemente. Outra é o nome verdadeiro da Noiva. Toda vez que é citado, um bip encobre o som e não conseguimos identificá-lo. Uma dica é prestar atenção na passagem aérea quando a Noiva vai para Tóquio e/ou Okinawa.
Toda a história de Kill Bill – uma mulher que busca vingança de um grupo de pessoas, marcando-as em uma lista e matando um por um – é adaptado do filme japonês de 1973 Lady Snowblood, no qual uma mulher mata a gangue que assassinou sua família. O jornal britânico The Guardian comentou que Lady Snowblood foi “praticamente um modelo para todo o Kill Bill Volume 1”.
O enredo é bastante semelhante ao filme A Noiva Estava de Preto (1968), de François Truffaut, no qual cinco homens tornam uma jovem viúva no dia de seu casamento. Ela quer vingança, matando metodicamente cada um dos cinco homens usando vários métodos.
Kill Bill presta homenagem ao western spaghetti, blaxploitation, “wuxia” chinês e filmes japoneses de artes marciais, e filmes de kung fu dos anos 60 e 70. Este último gênero, que foi produzido em grande parte pelos Shaw Brothers, é dado como óbvio pela inclusão do logo Shaw Scope logo no começo de Kill Bill: Volume 1.
Prêmios
Cada filme foi indicado ao [[Golden Globe Awards[Globo de Ouro]]. Uma Thurman recebeu uma indicação para Melhor Atriz – Drama em 2004 e em 2005 por seu trabalho no Volume 1 e Volume 2. David Carradine recebeu uma indicação para Melhor Ator Coadjuvante em 2005 pelo Volume 2. O filme foi muito popular no MTV Movie Awards. No MTV Movie Awards de 2004, Uma Thurman venceu Melhor Atriz pelo Volume 1, Lucy Liu venceu Melhor Vilão no Volume 1 e a luta entre A Noiva e Gogo Yubari venceu Melhor Luta. No MTV Movie Awards de 2005, Kill Bill Vol. 2 foi indicado para melhor filme, Thurman foi indicada para melhor atriz, e a luta entre A Noiva e Elle Driver também ganhou Melhor Luta. Uma Thurman também recebeu um Saturn Award por sua atuação no Volume 1.
Violência
Muita crítica dizia respeito à quantidade e à apresentação de sangue, especialmente no primeiro volume. Um crítico referiu-se ao Volume 1 como “uma festa de coquetel em um matadouro”.

3011 – Como se troca o pneu de um avião?


É simples: basta trocar o macaco por um King Kong e descolar um pouco de nitrogênio

Pilotos habilidosos já pousaram pequenas aeronaves sem trem de pouso e até Boeings gigantescos com problemas nas rodas. Mas para que tanta emoção, não é? O melhor é apostar em manutenção constante. “Depois que uma roda passa 6 vezes pelo check-up obrigatório, ela sempre vai para uma revisão geral”, diz o engenheiro Marcelo Guimarães Fernandes, gerente-geral de hangar e revisão da Gol.

Pneus dianteiros podem ter até 11 recauchutagens antes de ser descartados, mas os traseiros, que sofrem mais impacto pelo peso do avião, apenas 5. Após 100 voos, chega a hora de trocar o pneu – um processo simples para profissionais, mas que requer muita prática e habilidade.
Perca o pneu em 15 minutos!
É quanto os mecânicos precisam para trocar uma roda de avião

1. As Preliminares
Não é só estacionar no posto: é preciso isolar a área, calçar as rodas e fechar portas – isso é para evitar que a fuselagem entorte quando o avião é erguido.

2. O King Kong
A peça-chave para trocar o pneu do avião é um grande macaco hidráulico chamado de malabar. Primeiro, acionado manualmente, ele é só encaixado na aeronave.

3. O grande truque
Uma mangueirinha passa a pressão interna de um pneu para o malabar – é tanta pressão que ele consegue erguer o avião. Com o avião suspenso, é retirado o pneu que não está conectado.

4. A grande porca
A porca que segura a roda é solta com a ajuda de um equipamento hidráulico. Recomenda-se tirar a roda com ajuda de um suporte – cada uma delas pesa pelo menos 200 kg.

5. A nova roda
A roda tem de ser colocada ainda com seu pneu desinflado. Com a roda encaixada e presa, o freio é desativado para verificar se ela gira normalmente. Depois, a porca é presa outra vez.

6. O novo gás
Com o avião ainda suspenso, o novo pneu é inflado. E não se usa ar comprimido, mas nitrogênio, que não congela na altitude e demora mais a sair do pneu.

3010 – ☻Mega Notícias: Não acreditamos em pessoas com sotaque


Olhamos com desconfiança para aqueles que falam de maneira diferente de nós. Uma pesquisa da Universidade de Chicago mostrou que, quando o interlocutor tem um sotaque carregado, a fluência cognitiva diminui, ou seja, o cérebro tem mais dificuldade em processar os estímulos. E assim acaba desconfiando do conteúdo do que está sendo dito.

afundou por erro de manobra
Sempre se acreditou que o Titanic se acidentou porque os tripulantes não viram o iceberg se aproximando. Mas, agora, o mais alto oficial que sobreviveu à catástrofe, Charles Lightoller, revelou que todos viram a ameaça a tempo, mas o responsável pelo rumo do barco se confundiu e fez uma manobra para o lado errado. O resultado todos conhecem

Encontrado matusalém
O grupo de geociência da Universidade Newcastle descobriu uma bactéria que está hibernando há 100 milhões de anos. O micro-organismo (que normalmente vive num calor de 50 ºC) estava em uma ilha congelada na Noruega. E concluíram: a bactéria está há milhões de anos esperando o clima esquentar.

Robô vai explorar a Pirâmide de Gizé
Aparelho vai entrar em dois corredores misteriosos
Um time de robótica da Universidade de Leeds desenvolveu um robozinho que vai entrar em dois caminhos obstruídos da Pirâmide de Gizé, no Egito. Os corredores saem da tumba da rainha e, ao contrário dos caminhos que saem da tumba do rei, não têm uma função religiosa definida.

3009 – Uma ilha feita de lixo


O mar está cada vez mais poluído. Mas um projeto quer transformar sujeira em moradia
No meio do oceano Pacífico, fica o maior lixão do mundo – são 4 milhões de toneladas de garrafas e embalagens, que foram empurradas para lá pelas correntes marítimas e formam um amontoado de 700 mil km2 (duas vezes o estado de São Paulo). Um desastre – mas que pode virar uma coisa boa. Uma empresa da Holanda quer coletar todo esse plástico e reciclá-lo para fazer uma ilha artificial, de aproximadamente 10 mil km2 (equivalente a uma cidade como Manaus) e capacidade para 500 mil habitantes. Ela teria casas, lojas, praias, áreas de lazer e plantações – tudo apoiado numa base de plástico flutuante. Seus criadores acreditam que a ilha possa se tornar autossuficiente, produzindo a própria comida e energia. “Queremos levar o mínimo de coisas para a ilha. A principio, tudo será feito com o lixo que encontrarmos na área”, diz o arquiteto Ramon Knoester. A cidade flutuante seria cortada por canais, para que as correntes oceânicas pudessem passar livremente (sem ameaçar a estabilidade da ilha).

O projeto já recebeu o apoio do governo holandês, mas não tem data para começar – ninguém sabe quanto a obra custaria, nem se é viável. “A ilha não é economicamente rentável. Nós a vemos apenas como uma maneira de limpar a poluição causada pelo ser humano”, diz Knoester. Enquanto isso não acontece, toda a matéria-prima que seria usada nesse em-preendimento continua boiando.
Lixão flutuante
Como é e onde fica a supermancha de lixo.
Onde: Oceano Pacífico.
O que tem: 4 milhões de toneladas de plástico
Origem: 80% vêm dos continentes; 20% são jogados por navios.

3008 – Ler no ônibus descola a retina?


Só se o veículo sofrer um acidente. Mas a leitura pode levar à tontura
Basicamente, essa tontura vem do fato de que quem lê no ônibus está mandando duas mensagens conflitantes para o sistema nervoso. Do ponto de vista central, concentrada no texto à sua frente, você está parado. Mas a visão periférica capta a paisagem correndo ao seu lado e manda avisar que você está em movimento. “Isso gera uma confusão entre o cérebro e a visão que pode causar um mal-estar”, explica Paulo Mello Filho, membro do Conselho Brasileiro de Oftalmologia. Mas essa indisposição não tem nada a ver com descolamento da retina – e pode ser facilmente evitada se você fechar a cortininha da janela do ônibus.

Claro que toda regra tem exceção: a literatura oftalmológica registra o caso de um cidadão amazonense que descolou a retina lendo a bordo de um barco. Todavia, como ressalta Omar Bonilla, presidente da Sociedade de Oftalmologia do Amazonas, o leitor tinha agravantes que contribuíram para o descolamento: 6 graus de miopia e um caso severo de diabetes.

Saindo da retina
Para que ela descole, é preciso muito mais que leitura

Ler não dá L.E.R.
A retina é uma camada interna do olho, que recebe e repassa imagens para o cérebro. Colada no globo ocular, ela não descola apenas com um movimento involuntário fruto de uma leitura no ônibus. É preciso algo mais forte.

Ponto de vista
Uma retina normal só se descola após receber um impacto muito forte, como no exemplo acima. Descolada, ela não reflete mais as imagens captadas: começa com algumas manchas e avança até a perda da visão.

Silicone nela
O tratamento tem de ser imediato, e geralmente inclui cirurgia. No procedimento mais comum, é colocado um anel de silicone em volta do olho. Permanente, o anel serve para suturar a retina rompida e restaura a visão normal.

3007 – Deus – Biografia


Da Super para o ☻Mega

Deus criou o Universo.
Deus está em todos os lugares.
Deus é a força que nos une.

Cada sociedade vê a figura do Criador à sua maneira. Cada indivíduo, até. Para Einstein, Ele era as leis que governam o tempo e o espaço – a natureza em sua acepção mais profunda. Para os ateus, Deus é uma ilusão. Para o papa Bento 16, é o amor, a caridade. “Quem ama habita Deus; ao mesmo tempo, Deus habita quem ama”, escreveu em sua primeira encíclica.

Pontos de vista à parte, toda cultura humana já teve seu Deus. Seus deuses, na maioria dos casos: seres divinos que interagiam entre si em mitologias de enredo farto, recheadas de brigas, lágrimas, reconciliações. Os deuses eram humanos.

Mas isso mudou. A imagem divina que se consolidou é bem diferente. Deus ganhou letra maiúscula na cultura ocidental. Os panteões divinos acabaram. Deus tornou-se único. É o Deus da Bíblia, Javé, o criador da luz e da humanidade. O pai de Jesus. Essa concepção, que hoje parece eterna, de tanto que a conhecemos, não nasceu pronta. Ela é fruto de fatos históricos que aconteceram antes de a Bíblia ter sido escrita. O próprio Javé já foi uma divindade entre muitas. Fez parte de um panteão do qual não era nem o chefe. O fato de ele ter se tornado o Deus supremo, então, é marcante: se fosse entre os deuses gregos, seria como se uma divindade de baixo escalão, como o Cupido, tivesse ascendido a uma posição maior que a de Zeus É essa história que vamos contar aqui. A história de Javé, a figura que começou como um pequeno deus do deserto e depois moldaria a forma como cada um de nós entende a ideia de Deus, não importando quem ou o que Deus seja para você.

Deuses nasceram do pôquer. A crença em divindades provavelmente vem da capacidade humana de detectar as intenções das outras pessoas. Somos muito bons nisso desde que surgimos, há 200 mil anos, e precisamos ser mesmo, porque o Homo sapiens sempre levou a vida social mais complicada do reino animal, sempre em comunidades cheias de intrigas, fingimentos, traições. Saber o que se passa na cabeça do outro era questão de sobrevivência – e até certo ponto ainda é.

Obras de arte de mais de 30 mil anos atrás dão outra pista sobre essa espiri-tualidade primitiva – que podemos chamar de “infância de Deus” (no caso, dos deuses). Elas mostram seres que misturam características humanas e animais – sujeitos com cabeça de leão ou de rena e corpo de gente, por exemplo.

Acredita-se que essas criaturas híbridas representem um tipo de crença que ainda é comum nas tribos indígenas: a de que não haveria separação rígida entre o mundo dos humanos, o dos animais e o dos espíritos. Seria possível transitar entre essas esferas se você possuísse o conhecimento correto, e, em tese, qualquer falecido, seja pessoa, seja bicho, pode ter um papel parecido com o que associamos normalmente a um deus.

Os deuses abandonam de vez as feições animais quando os bichos se tornam menos importantes no nosso cotidiano. Foi precisamente o que aconteceu quando a agricultura foi criada, há 10 mil anos, no Oriente Médio. Graças a ela, montamos as primeiras cidades. E a nossa espiritualidade progrediria junto: acabaria bem mais centrada nas pessoas que na natureza selvagem.

Há sinais de que ancestrais mortos eram as grandes entidades com status divino nessas primeiras cidades. Um exemplo arqueológico vem de escavações em Jericó, uma das mais antigas aglomerações humanas, que hoje fica no território palestino da Cisjordânia. Os habitantes de Jericó enterravam o corpo de seus mortos, mas guardavam o crânio, que era recoberto com camadas de gesso e tinta, simulando o rosto humano. Assim preparada, a caveira talvez servisse de oráculo doméstico – uma espécie de deus particular para cada família.

Os artesãos de crânios de Jericó não tinham escrita – aliás, passariam mais de 5 mil anos até que essa tecnologia fosse inventada. Quando isso finalmente aconteceu, em torno do ano 2000 a.C., os deus ficaram bem mais sofisticados.

Entraram em cena criaturas ao estilo dos habitantes do Olimpo na mitologia grega. Em parte, alguns deles até eram mesmo personificações das forças da natureza, mas agora eles ganhavam personalidades e biografias complexas.

É aí que está a origem do grande personagem desta história: Javé, uma divindade que provavelmente começou como um deus menor, cultuado por nômades. Bem antes de a Bíblia ser escrita.
Ele começou de baixo. Era só mais um deus entre vários outros de sua região. Só que na Bíblia Javé é identificado como o Deus único. Hoje, cogitar a existência de outras divindades que teriam convivido com o Senhor da Bíblia é um absurdo do ponto de vista religioso. Mas não do ponto de vista científico. Pesquisadores de várias áreas – arqueólogos, linguistas, teólogos – estão encontrando pistas sobre uma provável “vida pregressa” de Javé. Uma vida mitológica que ele teve antes de seu nome ir parar na Bíblia como o da entidade que criou tudo.

Onde pesquisar isso? A própria Bíblia é uma fonte. O Livro Sagrado não foi feito de uma vez. Trata-se de uma coleção de textos escritos ao longo de séculos. O Pentateuco, os 5 primeiros livros da Bíblia, foi finalizado por volta de 550 a.C. Mas há textos ali de 1000 a.C., ou de antes. E nada disso foi editado em ordem cronológica – em grande parte, a Bíblia é uma junção de textos independentes, cada um escrito em tempos e realidades diferentes.

Como saber a que tempo e a que realidade cada um pertence? Pela linguagem. Pesquisadores analisam as expressões do texto original, em hebraico, e vão comparando com a de documentos encontrados em escavações arqueológicas, cuja datação é fácil de determinar. Com esse método, chegaram a uma descoberta reveladora. Alguns poemas da Bíblia dão a entender que Javé era uma divindade de lugares chamados Teiman ou Paran – dizendo literalmente que o deus veio dessas regiões. E esses textos estão justamente entre os mais antigos – se a língua do livro fosse o português moderno, eles estariam mais para Camões.Teiman e Paran eram lugares desérticos fora das fronteiras onde viviam os homens que escreveram a Bíblia. Não se sabe exatamente que regiões eram essas, já que os nomes dos territórios vão mudando ao longo dos séculos. “Mas arqueólogos supõem que essa região seja no noroeste da atual Arábia Saudita”, diz Mark Smith, professor de estudos bíblicos da Universidade de Nova York.
Os autores dos primeiros textos da Bíblia viviam na antiga Canaã – uma região do Oriente Médio onde hoje estão Israel, os territórios palestinos e partes da Síria e do Líbano. Ali se formaram algumas das primeiras civilizações da história, há 10 mil anos. E por volta de 1000 a.C. já era um território disputado (como nunca deixou de ser, por sinal). Estava dividido numa miríade de tribos, as dos israelitas, a dos hititas, a dos jebedeus…

Apesar das rivalidades, todas tinham culturas parecidas. Reverenciavam o mesmo panteão de deuses, por exemplo. Mas Javé, pelo jeito, não era um deles. Teria sido importado das áreas mais desérticas do sul.

Uma possibilidade, então, é que nômades do deserto teriam se incorporado às tribos israelitas, trazendo o novo deus com eles. Essa divindade se embrenharia no meio da grande mitologia desse povo: o panteão de deuses cananeus. Mas quem eram essas divindades? As melhores pistas a esse respeito vêm de Ugarit, uma antiga cidade encontrada durante escavações arqueológicas na atual Síria. Ela foi destruída por invasores em 1200 a.C., quando os israelitas ainda eram um povo em formação. As inscrições encontradas ali, então, servem como uma cápsula do tempo. Revelam o contexto cultural em que nasceu a mitologia israelita, mostra como era a mitologia dos antepassados dos escritores da Bíblia. E os deuses em que eles acreditavam seriam fundamentais para a biografia de Javé. O panteão de Ugarit é bem grandinho, mas algumas figuras se destacam. Há o pai dos deuses e dos homens, o idoso, bondoso e barbudo El; sua esposa, Asherah, deusa da vegetação e da fertilidade; a filha dos dois, Anat, feroz deusa do amor; e o filho adotivo do casal, Baal, deus da guerra e da tempestade que morre, ressuscita e derrota as divindades malignas Yamm (o Mar) e Mot (a Morte).

Deus do deserto
Javé pode ter sido uma divindade trazida do deserto por nômades que se embrenharam nas tribos is-raelitas, quando elas ainda estavam em formação na região de Canaã. Aí ele se junta aos deuses cananeus, como Baal e El, o altíssimo.
As ideias de Josias marcariam para sempre a visão que temos de Deus. E mais ainda depois que esse rei acabou morto. Na geração dos filhos do monarca reformista, o reino de Judá seria riscado do mapa e Jerusalém, a capital, acabaria conquistada pela Babilônia. Mas a adversidade do povo teve o efeito oposto em sua fé. No mundo mitológico, Javé se fortalecia como nunca. Com a nação agora indefesa militarmente, era a hora de reafirmar que o deus da nação, ao menos, era todo-poderoso. Nisso os profetas israelistas diziam que só Javé tinha existência, vida e poder; os outros deuses eram meras imagens de pedra, metal ou madeira. Era nada menos que a inauguração do monoteísmo: um momento tão importante na história da espiritualidade quanto a adoção do cristianismo como religião oficial do Império Romano seria bem mais tarde. E era esse Javé único que iria para a Bíblia. E se tornaria a imagem de Deus no mundo ocidental.

Um Deus, agora, não só dos israelitas. Mas da humanidade inteira. O Deus que criou o mundo, que fez o homem à sua imagem e semelhança. E que, de certa forma, era a imagem e semelhança do Javé pré-Bíblia: o Deus guerreiro, militar, que pune com rigidez os erros de seus adoradores. O Velho Testamento está recheado de castigos divinos: dos mais leves, como transformar o fiel Jó, um milionário, em um mendigo, como um teste para sua fé, até o dilúvio universal – praticamente um restart no mundo depois de ter concluído que a humanidade não tinha mais jeito. A justificativa para tal comportamento está na própria história de Israel. A ideia era acreditar que os maus bocados pelos quais a nação passou nas mãos de assírios e babilônios eram provações divinas, que, se o povo mantivesse sua fé, tudo acabaria bem.Mas o caráter divino só se completaria mesmo no século 1. O primeiro século depois de seu filho, quando o Novo Testamento foi escrito. É a metamorfose mais radical do guerreiro Javé. Encarnado na figura de Jesus, Deus apresenta uma nova solução para a humanidade. Em vez de castigar ou destruir os homens mais uma vez, decide purgar os pecados dos mortais com outro sacrifício: o Dele próprio. Morre o corpo do Deus encarnado, não o espírito divino. Este, agora mais sereno, continuou zelando por nós. E assim será. Até o fim dos tempos.
A saga de Javé é só um dos reflexos de uma epopeia maior: a da humanidade buscando um sentido para a existência. Nesse aspecto, continuamos tão perdidos quanto os antigos que não sabiam por que o trovão trovejava ou o que as estrelas faziam pregadas no céu. Ainda não sabemos por que estamos aqui. E a única certeza é que vamos continuar buscando respostas.

3006 – Acredite se Quiser – Alguns países pretendem importar icebergs


O transporte de icebergs já atraiu a atenção de vários pesquisadores. A Sociedade Glaciológica Internacional, o Scott Polar Research Institute, na Inglaterra, e o Laboratório de Engenharia e Pesquisa de Regiões Frias, do Exército dos Estados Unidos, fizeram diversos estudos. Os países árabes do Golfo Pérsico financiaram projetos. Mas ninguém, até hoje, tentou, de fato, levar uma montanha gelada para acabar com a falta d’água em alguma região seca da Terra.
Na maioria das pesquisas, sugere-se capturar icebergs nos mares de Weddell e Ross, na Antártida, e rebocá-los, aproveitando-se as correntes marítimas, primeiro até as Ilhas Falkland, no sul da Argentina. Apesar desse impulso natural, o começo da viagem é o mais perigoso. O mar que vai do Pólo Sul até a altura das Falkland é um dos mais ferozes e conturbados do planeta.
O imenso bloco de gelo deve ser muito bem amarrado por um vasto sistema de redes e cabos e preso a um comboio de rebocadores. A velocidade de tração terá que ser lenta para não aumentar o degelo com a fricção produzida pelo deslocamento: menos de 4 quilômetros por hora. Como o iceberg é formado por sucessivas capas espessas de neve, corre o risco de se partir a qualquer momento.
A glaciologista norte-americana Jeeny Wood, autora do livro The Icebergs, propôs a instalação de uma tripulação de três pessoas em uma cabine de metal à prova de tempestades, encravada na superfície do bloco gelado. Caberia a esses gelonautas testar as âncoras das amarras, ler os instrumentos que medem as tensões do gelo e transmitir dados via satélite. Um helicóptero garantiria a retirada de emergência dos tripulantes se o colosso ameaçasse romper-se.
Para atravessar as águas mais quentes dos oceanos Atlântico e Índico, as esquinas da montanha teriam que ser cobertas com um produto que as protegesse do sol para evitar o derretimento, ou ao menos mantê-lo dentro de limites aceitáveis. Os técnicos calculam que essa cobertura seria necessária, mas não sabem do que ela seria feita.
Com o calor, o degelo formaria um lago em cima do gigante. Mas se supertanques fossem usados como rebocadores, a água poderia ser absorvida por mangueiras. Se o derretimento ameaçasse a estabilidade do bloco, uma instalação de alarme informatizada libe-raria as amarras automaticamente.
Naturalmente, isso aumentaria o custo do transporte. “Tudo depende do quanto se está disposto a investir”, diz o glaciologista Jefferson Cardia Simões, da Universidade Federal do Rio Grande do Sul e do Programa Antártico Brasileiro. “Embora cara, a dessalinização da água do mar é bem mais barata do que a captura de icebergs. Mas se não soubermos preservar as fontes d’água que estão acabando mesmo, os icebergs terão de ser considerados no futuro”.
Para o transporte, a forma é fundamental. Os icebergs da Antártida , onde é comum a configuração tabular (retangular, como tábuas), são mais apropriados do que os do Ártico (Pólo Norte), de estrutura irregular e difíceis de rebocar. Além disso, o Ártico é um mar com uma capa gelada de 2 a 4 metros de espessura, enquanto que a Antártida é um continente, com uma vez e meia o tamanho do Brasil, e uma cobertura de 1 500 a 5 000 mil metros, feita de neve acumulada até há 1 milhão de anos, onde concentra-se 90% do gelo do planeta.
Mesmo descartado o Pólo Norte, a Antártida pode abastecer os 232 milhões de habitantes de 26 países flagelados pela seca. Mas a água é um recurso mineral e o Protocolo de Madrid decretou, em 1991, uma moratória de 50 anos na exploração do continente. Todos os países signatários do Tratado Antártico estão proibidos de agir até o ano 2041.
Enquanto isso, os icebergs passeiam como senhores dos mares antárticos. Todo ano, surgem cinco mil novos, na periferia do continente, com 1 450 a 1 800 quilômetros cúbicos de água. Eles se formam porque “a partir dos sessenta metros de espessura, o gelo antártico começa a fluir pela ação do seu próprio peso”, explica Cardia Simões. “Esse processo ocorre devido à deformação interna causada pelo deslizamento dos cristais. Como o gelo é mais espesso no centro do continente, ele flui para a periferia constantemente”. Quando chega à costa ele flutua e é quebrado pelas marés.
Regiões secas do Hemisfério Sul, como o norte do Chile, o oeste da Austrália e o oeste da África, poderiam ser beneficiadas com maior facilidade por essas montanhas flu-tuantes. Jeeny Wood calcula que um iceberg de 1 000 metros de comprimento (dez quarteirões) por 500 metros de largura levaria seis meses para chegar até a árida cidade de Perth, na Austrália. Chegaria com a metade do tamanho. Mas o restante bastaria para suprir l milhão de pessoas, durante um ano. Para levá-lo até o Hemisfério Norte os problemas são mais complicados. Para o Brasil, apesar da seca do Nordeste, a medida é totalmente dispensável. O país tem uma das maiores ofertas de água do mundo

3005 – Avanços do Século 20 – Capítulo 2


A válvula eletrônica, invenção do início do século 20, obsoleta para uso geral, porém, ainda imbatível em alta fidelidade para amplificadores de som

Na Medicina
Insulina artificial para o tratamento do diabetes, descoberta dos glóbulos brancos do sangue, utilizado extrato de fígado para tratar a anemia, Sir Alexander Fleming (1881-1955) descobriu a penilicina em 1928. Isolada a estrona e desenvolvida a vacina contra a febre amarela. Em 1921 foi inaugurada a peleontologia geneticamente orientada. Isolada a vitamina B e descoberta a vitamina K em 1929.
Desenvolvimento tecnológico
O relógio de pulso automático foi inventado em 1922 por John Harwood. Lee de Forest, o criador da válvula, criou também o processo de sonorização do cinema em 1923. Vladimir Kosmazworrikin, um americano de origem russa, nascido em 1889, construiu o iconoscópio, o antecessor do tubo de imagens da TV, em 1924. Ainda nesse ano, foram fabricados nos EUA, os 1°s inseticidas a base de rotenona, um pó encontrado nas raízes de Nikoe, planta originária do Suriname. A Kodak produziu na Alemanha a 1ª película de 16mm em 1926 e Albert Hell aperfeiçoou a lâmpada fluorescente e Baird fazia a primeira demonstração de sua TV em cores em 1928.
George Eastman (1854-1932) exibia o primeiro filme em cores e foi instalado no Times Building de NYC o primeiro anúncio luminoso em movimento. Fritz, um alemão criou ainda em 1928, baseado em pesquisas de um cientista inglês Oberlin Smith, a fita magnética e conseguiu que a AEG Telefunken e a Basf desenvolvessem o projeto. O primeiro relógio a quartzo foi construído em 1929.
Em 1932 foi construído o primeiro microscópio eletrônico. A indústria Marconi Phone construiu o primeiro rádio com válvulas totalmente metálicas. Robert Watson Watt (1892 – 1973) construiu o primeiro radar e no salão do rádio em Berlim a Telefunken e a Basf expuseram o primeiro gravador de rolo. Frank Wittle projetou e construiu o primeiro motor a jato. Igor Sikorski (EUA, 1889 – 1972) constuia o 1° helicóptero em 1939 e no ano seguinte foi inventado o processo de transmissão em FM.
Física
Em 1936 foi observada a subpartícula méson e em 1938, foi descoberta a fissão nuclear por Otto Halan e Fritz Strasmann; foi obtido isótopos de bário bombardeando urânio com nêutrons. Em 1940, a Universidade da Califórnia construiu um gigantesco cicloton para produzir mésons a partir do núcleo atômico.
Química Terapeutica
Em 1934 foi isolada a androsterona, o hormônio masculino; 1935 foi criado o prontosil, a 1ª droga da linha das sulfas para o tratamento de infecções estreptococicas. Alexis Carrel desenvolveu o primeiro coração artificial; Sir Howard Florey (australiano, 1898 – 1968) converteu em 1940 a penilicina em um antibiótico de uso prático. Um suíço isolou a vitamina A em 1931, Harold Hurey (EUA, 1893 -1981) descobria no mesmo ano o hidrogênio pesado (deutério), descoberta a riboflavina; em 1932 foi a vez da sulfonamida ser descoberta e o suiço Reichstein sintetizou a vitamina C.
Com a sintetetização do DDT em 1939, ficaram obsoletos os outros inseticidas a base de rotenona.
Mais Tecnologia
Descoberto o DNA como material genético em 1944; a primeira bomba atômica foi detonada pelos EUA em Alamogordo, Novo México, em 16/07/1945 e pouco depois em agosto, seriam lançadas em Hiroxima e Nagasaki. Em 1946 a bomba foi testada no Atol de Biquini e a URSS testava a sua 1ª bomba atômica em 1949.

Transístor, sem ele não seria possível os rádios à pilha, computadores e muito menos viagens espaciais

O Transístor
Bardeen, Bratain e Shockey, todos americanos, construíram os primeiros modelos de transístores, revolucionando a eletrônica. Com eles foi possível diminuir consideravelmente o tamanho e consumo de energia dos dispositivos eletrônicos.
O transistor foi inventado nos Laboratórios da Beel Telephone em dezembro de 1947 ( e não em 1948 como é freqüentemente dito) por Bardeen e Brattain.
Descoberto por assim dizer, ( visto que eles estavam procurando um dispositivo de estado sólido equivalente à válvula eletrônica ), acidentalmente durante os estudos de superfícies em torno de um diodo de ponto de contato.
Os transistores eram portanto do tipo “point-contact”, e existe evidência que Shockley, o teorista que chefiava as pesquisas estava chateado porque esse dispositivo não era o que estava procurando. Na época, êle estava procurando um amplificador semicondutor similar ao que hoje chamamos de “junção FET”.
O nome transistor foi derivado de suas propriedades intrínsecas “resistor de transferência”, em inglês: (TRANsfer reSISTOR). Os Laboratórios Bell mantiveram essa descoberta em segredo até junho de 1948 ( daí a confusão com as datas de descobrimento ).
Com uma estrodosa publicidade, eles anunciaram ao público suas descobertas, porem poucas pessoas se deram conta do significado e importancia dessa publicação, apesar de ter saido nas primeiras páginas dos jornais.
Embora fosse uma realização científica formidável, o transistor não alcançou, de imediato, a supremacia comercial. As dificuldades de fabricação somadas ao alto preço do germânio, um elemento raro, mantinham o preço muito alto. Os melhores transistores custavam 8 dólares numa época em que o preço de uma válvula era de apenas 75 cents.
O primeiro transistor de junção fabricado comercialmente era primitivo em comparação aos modernos dispositivos, com uma tensão máxima entre coletor-emissor de 6 volts, e uma corrente máxima de poucos miliamperes.
Particularmente notável, foi o transistor CK722 da Raytheon de 1953, o primeiro dispositivo eletrônico de estádo sólido produzido em massa disponível ao construtor amador. Vários tipos de transistor foram desenvolvidos, aumentando a resposta de freqüência diminuindo os níveis de ruido e aumentando sua capacidade de potência.
Na Inglaterra, duas empresas mantiveram laboratórios de pesquisa não tão adiantadas quanto na américa: Standard Telephones and Cables (STC) e a General Electric Company of England “GEC”, ( não tem telação com a GE americana).
Foram feitas pesquisas na França e Alemanha sem efeitos comerciais.
Em 1950, um tubarão entra nessa pequena lagoa: a PHILIPS holandesa através da Mullard, sua subsidiaria inglesa, com uma planta completa para industrializar o transistor.
A meta da Philips era dominar 95% do mercado europeu, alcançando esse objetivo em poucos anos. A série “OC” de transistor dominou a europa por mais de 20 anos.
Os antigos transistores eram feitos de germânio, um semicondutor metálico, porem logo se descobriu que o silício oferecia uma série de vantagens sobre o germânio. O silício era mais difícil de refinar devido ao seu alto ponto de fusão, porem em 1955 o primeiro transistor de silício já era comercializado.

3004 – Mega Byte – O Be a Bá da Informática – O que são pen drives?


Aqui neste espaço você coloca todas as suas fotos, sua coleção de músicas e a cópia dos seus documentos

Com a chegada deles, os CDs, CRrs e DVDs ficaram com uma hegemonia seriamente ameaçada.
USB flash drive ou Memória USB Flash Drive, comumente conhecido como pen drive, disco removível ou chaveiro de memória, é um dispositivo de armazenamento constituído por uma memória flash tendo aparência semelhante à de um isqueiro ou chaveiro e uma ligação USB tipo A permitindo a sua conexão a uma porta USB de um computador ou outro equipamento com uma entrada USB. As capacidades atuais de armazenamento são variadas, existindo pen drives com capacidade de até 256GB. A velocidade de transferência de dados pode variar dependendo do tipo de entrada, sendo a mais comum a USB 2.0 e a mais recente a USB 3.0.
Eles oferecem vantagens potenciais com relação a outros dispositivos de armazenamento portáteis, particularmente disquetes, dispositivo praticamente extinto pelo desuso após a popularização dos pen drives. São mais compactos, rápidos, têm maior capacidade de armazenamento, são mais resistentes devido a ausência de peças móveis. Adicionalmente, tornou-se comum computadores sem drives de disquete, portas USB por outro lado, estão disponíveis em praticamente todos os computadores e notebooks. Os drives flash utilizam o padrão USB mass storage (“armazenamento de massa USB” em português), nativamente compatível com os principais sistemas operacionais, como o Windows, o Mac OS X, o Linux, entre outros. Em condições ideais, as memórias flash podem armazenar informação durante dez anos.
Primeiro produto comercial Flash drive com conector USB retrátil
A Trek Technologies da IBM começou a vender as primeiras unidades flash USB comercialmente em 2000. Trek Technologies, uma empresa de Cingapura, vendeu um modelo apelidado o “ThumbDrive”, e a IBM comercializou a primeira dessas unidades na América do Norte, com o seu produto “DiskOnKey” (que foi fabricado pela M-Systems). O USB flash drive da IBM foi disponibilizado em 15 de dezembro de 2000, e tinha uma capacidade de armazenamento de 8 MB, mais de cinco vezes a capacidade do, na época, comumente utilizado disquete.
Em 2000 foi introduzido o Lexar Compact Flash (CF), cartão com uma conexão USB, e um companheiro cartão leitura/escritor e cabo USB que eliminou a necessidade de um hub USB.
Em 2004, a Trek Technologies moveu várias ações judiciais contra outros fabricantes e distribuidores de USB flash drive, em uma tentativa de fazer valer os seus direitos de patente para a unidade flash USB. Um tribunal de Cingapura ordenou os concorrentes a parar de vender produtos similares que poderiam ser abrangidos pela patente da Trek, mas um tribunal do Reino Unido revogou uma das patentes da Trek naquele país.
Em 2009, a Kingston lançou um pendrive com capacidade de 256 GB, o Kingston 300, o maior até aquele ano com as seguintes dimensões: 70,68 mm x 22,37 mm x 16,45 mm, leitura a 20 MBps e gravação a 10 MBps.
Segunda geração
Toshiba TransMemory Flash Drive vem pré-instalado com o U3, permitindo que os usuários tomem as suas aplicações, totalmente instalado e operacional, para qualquer área de trabalho. Modern flash drives têm conectividade USB 2.0.1000 GB No entanto, eles não utilizam atualmente o pleno 480 Mbits (60M Bytes/s), a Hi-Speed USB 2.0 suporta especificação devido a limitações técnicas inerentes flash NAND. Típico arquivo transferência global de velocidades variam consideravelmente, e deve ser verificada antes da compra; velocidades poderão ser dadas em megabytes ou megabits por segundo. Típico fast drives de ler a alegação de até 30 megabytes (MB/s) e escrever em cerca de metade disso. Antigas “USB plena velocidade” 12 mebibyts/s dispositivos são limitados a um máximo de cerca de 1 MB/s.
Tecnologia
Memória não flash combina uma série de tecnologias mais antigas, com o baixo custo, baixo consumo de energia e tamanho reduzido possibilitadas pelos recentes avanços na tecnologia microprocessador. A memória de armazenamento é baseada em anteriores EPROM EEPROM e tecnologias. Estes tinham capacidade muito limitada, eram muito lentos para ambos leitura e escrita, exigida complexa unidade circuitos de alta tensão, e só poderia ser re-escrita depois de apagar todo o conteúdo do chip.
O desenvolvimento da alta velocidade, tais como interfaces seriais dados USB pela primeira vez feita com sistemas de memória de armazenamento viável seriadamente acessados, e, simultaneamente ao desenvolvimento de pequenas e de alta velocidade e baixa potência sistemas de microprocessadores permitiu esta a ser incorporadas nos sistemas extremamente compacto . Serial acesso também reduziu grandemente o número de conexões elétricas exigidas para a chips de memória, o que tem permitido o sucesso fabricação de capacidades multi-(gigabyte). (Todas as ligações eléctricas externas é uma fonte potencial de produção falha, e com o fabrico tradicional, um ponto onde é rapidamente alcançado o sucesso abordagens rendimento zero).
Acessar computadores modernos sistemas de memória flash muito bem como unidades de disco rígido, quando o responsável pelo sistema tem total controle sobre as informações na verdade estão armazenadas. O real EEPROM escrita e apagamento processos são, no entanto, ainda muito semelhantes aos anteriores sistemas descritos acima.
Muitos de baixo custo MP3 Players basta adicionar um software extra para um padrão de memória flash controle microprocessador para que ele também pode servir como um decodificador ouvir música. A maior parte destes jogadores também pode ser usado como um flash drive convencional.
Para ter acesso aos dados armazenados no drive flash, este deve estar conectado ao computador, tanto diretamente quanto através de um hub USB. O drive fica ativo apenas quando ligado à porta USB e obtém toda a energia necessária através da corrente elétrica fornecida pela conexão. Alguns drives no entanto, especialmente os modelos de velocidade mais alta, podem necessitar de mais energia que a fornecida pelo hub USB, como os disponíveis em teclados e monitores (ecrãs em Portugal).
Em computadores com sistema operacional Windows 7, Windows Vista, Windows XP ou com as versões recentes do Linux ou MacOS, os flash drives são reconhecidos automaticamente como dispositivos de armazenamento removível. Em sistemas operacionais mais antigos (como o Microsoft Windows 98), é necessário instalar um pacote de software denominado “driver”, específico para o dispositivo utilizado, que permite seu reconhecimento pelo sistema operacional. Há alguns “drivers” anunciados como genéricos ou universais para Windows 98, mas nem sempre funcionam perfeitamente com qualquer dispositivo.
Alguns modelos podem reproduzir música MP3 e sintonizar Rádio FM. Em contrapartida, são um pouco mais caros, volumosos e pesados, por utilizar uma pilha (geralmente no tamanho AAA), ou bateria interna. Vale salientar que esses modelos já podem ser “classificados” como MP3 Player ou S1 MP3 Player.

Tudo num único chip. Sem a microeletrônica, essa façanha seria impossível.

3003 – Galáxia abrigaria até 2 bilhões de “Terras”


Corot 7B: Planeta rochoso localizado fora do Sistema Solar

Folha Ciência

Apenas na nossa galáxia, a Via Láctea, podem existir até 2 bilhões de planetas de tamanho semelhante ao da Terra. E isso é apenas a ponta do iceberg estelar. Cientistas estimam que existam mais de 50 bilhões de outras galáxias no Universo.
Os primeiros dados do telescópio Kepler, divulgados em fevereiro, mas reunidos agora em um novo estudo de pesquisadores do Laboratório de Propulsão a Jato da Nasa, na Califórnia, sugerem que entre 1,4% e 2,7% das estrelas parecidas com o Sol possam ter planetas com tamanho entre 0,8 e 2 vezes o da Terra.
A maioria deve estar na chamada zona habitável –a distância da estrela que permite a presença de água líquida, considerada condição essencial à vida.
Esse detalhe animou os cientistas. “Com um número assim tão grande [de planetas com tamanho parecido com o da Terra, há uma boa chance de existir vida, talvez até inteligente, em alguns deles”, disse ao site Space.com o astrônomo da Nasa José Catanzarite, um dos responsáveis pela pesquisa.
Ainda assim, nas cem estrelas semelhantes ao Sol mais próximas da Terra (a até umas poucas dezenas de anos-luz daqui), deve haver apenas duas com planetas do tamanho do nosso.
Mas, segundo os autores do trabalho publicado no “Astrophysical Journal”, a quantidade de “gêmeas” nas redondezas pode aumentar. Catanzarite notou que outro tipo de estrela –as gigantes vermelhas– também pode abrigar planetas desse tipo.
Nesses astros, que são mais antigos e já esgotaram o suprimento de gás hidrogênio, a detecção é mais complexa. Os cientistas pretendem localizar os planetas pela força gravitacional que eles exercem, e não por alterações no brilho da estrela, como no telescópio Kepler.
Como estrelas desse tipo são bem mais comuns do que as do tipo do Sol, é muito provável que possam existir ainda mais “Terras” por aí.