11.127 – A Bioquímica


bioquímica

Estuda, basicamente, as reações químicas de processos biológicos que ocorrem nos organismos vivos. Para isso, a estrutura e a função das biomoléculas – aminoácidos, peptídeos, enzimas, proteínas, carboidratos, lipídeos, ácidos nucleicos, hormônios, vitaminas, dentre outros – são trabalhadas nessa disciplina. Também é destaque a importância biológica e propriedades físico-químicas da água, além dos sistemas-tampão e pH.
Quanto ao metabolismo, o enfoque é dado no que se diz respeito à produção e utilização de energia pelos seres vivos: glicólise, ciclo de Krebs, síntese e oxidação de ácidos graxos, metabolismo de compostos nitrogenados, cadeia transportadora de elétrons e fosforilação oxidativa.
As vitaminas não constituem um grupo molecular específico, mas qualquer substância orgânica em quantidades suficientes às necessidades de um organismo. Formando, portanto, um grupo de substâncias heterogêneas com origens distintas.
Algumas podem atuar como cofatores na ativação de reações enzimáticas, sendo muito importantes para o equilíbrio homeostático. Sua ausência acarreta deficiências irreversíveis: insuficiência cardíaca e distúrbio mental (carência de vitamina B1), distúrbios nervosos (carência de vitamina B2), raquitismo (carência de vitamina D), anemia e esterilidade (carência de vitamina E), ausência ou dificuldade de coagulação sanguínea (carência de vitamina K) e problemas de visão, xeroftalmia (carência de vitamina A).
Para o bom funcionamento do corpo, prevenindo numerosas doenças, é necessário adquirir esses nutrientes por meio da alimentação. Assim, a falta de vitaminas, um estado de avitaminose, pode ser prejudicial. Como também a ingestão demasiada, estado de hipervitaminose, não é recomendada. Uma alimentação variada complementa a demanda orgânica diária de vitaminas.
As vitaminas são classificadas em dois grupos, de acordo com a solubilidade:
Vitaminas hidrossolúveis: quando solúveis em água, por exemplo, as vitaminas do complexo B e vitamina C. O fato da não acumulação dessas vitaminas no organismo, consequente eliminação na urina, requer ingestão diária para reposição contínua.
Vitaminas lipossolúveis: quando solúveis em lipídios, sendo acumuladas e absorvidas em conjunto com as gorduras. São exemplos de vitaminas lipossolúveis: D, E, K e A.
Um interessante aspecto envolvendo esses nutrientes ocorreu no período das grandes navegações, quando perceberam que doenças específicas, escorbuto e beribéri, estavam acometendo os marinheiros e tripulantes.
A alimentação inadequada dos marinheiros, dieta baseada em biscoitos e carne salgada, carente em frutas e legumes, provocava sintomas específicos: fraqueza, hemorragias nasais, desatenção e até a morte. Quando em terra firme, retornando os hábitos alimentares, os sintomas desapareciam.
Por esse problema, a Marinha Inglesa chegou a instituir uma lei determinando a inclusão de frutas (laranja e limão) e verduras na dieta alimentar dos marinheiros.
Apesar de precisarem ser consumidas em pequenas quantidades, se houver deficiência de algumas vitaminas, essas podem provocar doenças específicas, como: beribéri, escorbuto, raquitismo e xeroftalmia.

vitaminas

11.120 – ☻Mega Bloco – Biologia, a Ciência da Vida


biologia-a-cincia-da-vida-1-728

Uma ciência que, em rápida expansão atinge proporções que começa a se subdividir em em numerosas ciências derivadas.
Da Zoologia e da Botânica sistemática, todos podemos colher uma visão geral das diferentes espécies de seres vivos e das múltiolas relaçlões entre eles. Da Anatomia e da Fisiologia, uma compreensão clara do nosso próprio corpo. Do estudo da Embriologia e da Reprodução temos a percepção do lugar que ocupamos na escala da vida. a Genética, cada vez mais explorada, emergiu de discussões e controvérsias, mas que apresenta princípios exatos na hereditariedade.
A Ecologia ocupa-se das diversas espécies vivas como partes interdependentes numa única cadeia. A Medicina que era o estudo das doenças, vem se tornando o estudo da Saúde. a Psicologia aborda os mais fascinantes problemas e tem o trabalho de explicar como se desenvolveu a mente, desde as suas nebulosas origens até o aspecto que reveste a espécie humana.

Você vai mergulhar em mais um ☻Mega Bloco.

Agricultura biodinâmica
Anatomia
Astrobiologia
Bioquímica
Bioinformática
Biologia
Biologia da conservação
Biomaterial
Biomecânica
Biofísica
Biopolímeros
Biotecnologia
Botânica
Biologia celular
Biologia do desenvolvimento
Biologia evolutiva
Biologia estrutural
Biologia molecular
Biologia marinha
Biologia sistémica
Bromatologia
Ciências do ambiente
Ciências da saúde
Controlo biológico
Dinâmica populacional
Ecologia
Etologia
Farmacogenética
Farmacologia
Fisiologia
Genética
Genómica
Imunogenética
Imunologia
Imunoterapia
Imagiologia médica
Microbiologia
Neurociência
Neurociência cognitiva
Neurociência computacional
Neuroetologia
Nutrição
Oncologia
Optometria
Parasitologia
Patologia
Proteómica
Zoologia

Vida_Ciencia_Biologia_Vol2_8ed

6960 – Mega Bloco Ciências Biológicas – Sem água é impossível a vida nos planetas


Como matéria constitutiva do organismo, a água adquire grande importância pelo fato de formar parte do protoplasma
em quantidade respeitável.
O corpo dos vegetais e animais contém uma elevada porcentagem de água, que pode alcançar até 90%.
Sua intervenção é indispensável nas reações fotossintéticas mediante as quais os organismos podem dispor direta ou indiretamente de energia. É necessária também como solvente das substâncias nutritivas e como agente para as transformações químicas das substâncias dentro do corpo. As plantas podem absorver unicamente as substâncias nutritivas minerais do solo em dissolução aquosa e apesar da maioria dos animais comer alimentos sólidos, a comida deve ser dissolvida antes de ser absorvida pelo sangue e tecidos.

A água atua como meio de transporte e de circulação no interior do organismo.
A água atua como agente regulador da temperatura dos vegetais e animais.
É necessária para a realização de importantes funções vitais.
Assim, o homem pode perder até 40% do peso do corpo, mas a perde de 10% de água já provoca graves transtornos e se for de 20% a pessoa sucumbe.

Em mil partes de um litro de água do mar, há 35 partes de sais e assim para os outros 2 tipos.
Na água do mar o cloro e o sódio são os ions mais abundantes.
Na água doce parada, os mais abundantes são os carbonatos e os íons de cálcio. Na água doce corrente são são os íons de cálcio e cloro.
A salinidade varia.

Água em Marte
A água em Marte é muito menos abundante que na Terra, encontrando-se no entanto presente nos três estados da matéria. A maior parte da água encontra-se aprisionada na criosfera (Permafrost e calotas polares), não estando portanto confirmada a existência de massas líquidas capazes de criar uma hidrosfera. Apenas uma pequena quantidade de vapor de água se encontra na atmosfera.
As condições atuais sobre a superfície do planeta não parecem suportar a existência, por grandes períodos, de água em estado líquido. A média da pressão e temperatura é muito baixa, levando ao imediato congelamento e consequente sublimação. Apesar disso, a pesquisa sugere que, no passado teria existido água em estado líquido suficiente para fluir sobre a superfície dando lugar ao aparecimento de grandes áreas semelhantes aos oceanos terrestres. No entanto, a grande questão permanece de saber como e onde a água se terá depositado.

Existem provas diretas da presença de água sobre ou sob a superfície, por exemplo, leitos, calotas polares, bem como as medições de espectroscópica, erosão de crateras ou minerais que apontaram para a existência de água líquida (exemplo, goethita). Conforme um artigo publicado no Journal of Geophysical Research, os cientistas estudaram o Lago Vostok na Antártica, concluindo que os mesmos fenómenos podem contribuir para demonstrar a existência de água líquida em Marte. Através de suas pesquisas, chegaram à formulação da hipótese de que se a existência do Lago Vostok antecedeu a glaciação perene, há uma elevada probabilidade de que este não possa congelar em toda a profundidade. Por tal motivo os cientistas estimam que se a água existia antes da formação das calotas polares de Marte, é provável que ainda se mantenha no estado líquido por baixo. Entretanto a NASA através da revista Science divulgou recentes descobertas de Fluxos de água em encostas quentes marcianas supostamente de alto teor salino, fator que impediria a congelação. Recentemente o robô Curiosity detectou indícios de água em marte.

☻Mega Humor

6801 – Biologia – A Osteologia


Estudo dos ossos, mas também das cartilagens. Os tubarões apresentam cartilagens no lugar dos ossos propriamente ditos.
Então podemos chamar de esqueleto, toda estrutura que der forma a um componente do corpo, como o esqueleto fibroso que sustenta o fígado, o esqueleto ósseo que sustenta a musculatura para dar movimentos, o esqueleto cartilaginoso que forma a laringe, dá forma ao pavilhão auricular.

Proteção

Órgãos mais frágeis situados nas cavidades são protegidos por estruturas ósseas como por exemplo: medula neural, coração e pulmões. A figura representa uma estrutura mais rústica protegendo uma muito mais frágil. Podemos considerar os ossos como essa estrutura mais rústica e o neném os frágeis, fundamentais à vida…

Sustentação
Assim como os prédios, os corpos dos animais também precisam de fortes bases estruturais de sustentação…
Senão, onde estariam os monumentos tão antigos que perduram até os dias de hoje?
Assim é com os animais… cada um tem um esqueleto diferente para adaptar-se ao meio e sustentar, como nas girafas, a cabeça, para a boca ficar o mais próximo possível de brotos de árvores.

Dar formato ao corpo
Se não fosse esse formato promovido pelo esqueleto, suínos não teriam tanta mobilidade do fucinho…devido ao osso rostral.

Armazena minerais e íons
Durante a vida e manutenção da mesma, os animais necessitam de mobilizar minerais, que se encontram nos ossos. Uma lactação por exemplo, expolia muito a fêmea quanto aos minerais cálcio e fósforo, pois o leite é muito rico nestes. Como o osso tem muito desses minerais, a retirada é expressiva, retornando depois conforme o filhote for sendo desmamado.
Outro fator é a contração muscular, que demanda Cálcio para ocorrer, pois encontra-se circulante no sangue.

Funciona como alavanca para a movimentação
Age como componente passivo de um movimento, sendo os músculos a parte ativa.
Produz células sanguíneas (hematopoiese)
As extremidades dos ossos mais longos produz sangue. Lá a osteoarquitetura é trabeculada, onde células pluripotenciais (stem cells) se inserem e acabam povoando o osso para produzirem células sanguíneas.

Auto – remodelamento
Os ossos também têma a capacidade do auto-remodelamento, para que seja possível a adaptação da postura ao meio que é exigido. Mulheres por exemplo, ao usarem por muito tempo salto baixo, vão em uma festa com salto alto, não demora muito, começam a sentir dores nas pernas. Esse é um sinal de que seu aprumo não está correto, ou seja, os ossos não se adaptaram ainda e não se remodelaram para uma melhor distribuição de peso. O mesmo ocorre no inverso. Outro exemplo são os desvios de coluna, por vícios de posição e postura, causando a escoliose, lordose ou cifose.

Zoologia
Quanto à zoologia e cronologia evolutiva, os animais podem ser invertebrados ou vertebrados. Entre os invertebrados podemos Ter alguns animais com tecido rico em queratina, como os besouros, formando assim o exoesqueleto.
O besouro Hypocephalus sp. é um invertebrado com exoesqueleto.
O polvo é um invertebrado sem exoesqueleto.
Entre os vertebrados, temos alguns animais com exoesqueleto também, associado com o endoesqueleto, como por exemplo o tatu, jacaré e a tartaruga. Outros vertebrados apresentam somente o endoesqueleto, como os mamíferos de forma geral.

Divisão do esqueleto ósseo:
1. esqueleto axial = representado pela coluna vertebral, cabeça e tórax;

2. apendicular = representado pelos membros torácico e pélvico;

3. visceral = representado por ossos situados em vísceras, como o osso do clítoris da cadela, osso peniano do cão e osso cardíaco do bovino.

Número de ossos:
Varia conforme a idade, devido à fusão de certas junções, as vértebras lombares e caudais variam muito em algumas espécies. Há autores que desconsideram os ossos sesamóides como partes constituintes do esqueleto ósseo, assim como não contam os ossos do orelha interno (martelo, bigorna e estribo).

A patela é considerada um osso sesamóide, notamos na primeira figura; na figura do meio, uma pelve de filhote, notam-se áreas mais escuras sobre o acetábulo. É onde os ossos se juntam, constituindo um único osso no adulto. A terceira figura apresenta o crânio de um filhote de cão, onde as junturas ainda não se consolidaram.

Classificação dos ossos:
Os ossos apresentam variações no seu formato, dependendo da sua função. Assim, podemos compará-los a formas geométricas e classificá-los:

Longos – ossos que apresentam um comprimento sobressaindo sob as outras medidas, apresenta também uma câmara medular. Forma geométrica similar a um paralelepípedo. Exemplo: tíbia, fêmur, rádio, úmero, metatarsos e metacarpos.

Curtos – ossos que apresentam o comprimento, largura e espessura mais ou menos homogêneos, não sobressaindo nenhuma medida sobre as outras, não apresenta uma câmara medular. Forma geométrica similar a um cubo. Exemplo: carpos, tarsos, falange média e proximal.

Planos – ossos que apresentam um comprimento e uma largura sobressaindo sobre a espessura, pode apresentar uma parte totalmente maciça, onde as camadas ósseas compactas se encontram. Forma geométrica similar a uma tábua, é laminar. Exemplo: Escápula, ossos planos do crânio, pelve. Há um tipo de osso plano, ossos do crânio, que não apresentam o periósteo em uma de suas faces, sendo substituido diretamente pela dura máter.

Pneumáticos – ossos que estão localizados na cabeça dos mamíferos e no corpo das aves. É caracterizado, não por um formato geométrico, mas sim por ser oco e apresentar câmaras de ar internamente. Isso tem a função de dar leveza à cabeça ao mesmo tempo de proteção e aumentar a área de inserção dos músculos faciais. Esse espaço preenchido por ar denomina-se seio paranasal, pois estes ossos tem comunicação com o aparelho respiratório. Exemplo: osso frontal, maxilar, nasal.

Irregulares – ossos que não se encaixam em nenhuma descrição anterior, com vários processos (pontas) para fixar ligamentos, fáscias e músculos. Não possuem forma definida. Exemplo: ossos da coluna vertebral, falange distal.

Constituição básica de um osso longo:
Os ossos longos apresentam duas extremidades chamadas epífises. Unindo as epífises encontramos a diáfise. Entre a diáfise e as epífises, há uma região de crescimento ósseo, formada por tecido cartilaginoso nos jovens. Essa região apresenta-se como uma linha denominada metáfise.
O osso longo apresenta ainda uma cavidade, chamada cavidade ou câmara medular. É nessa câmara que encontra-se a Medula óssea vermelha e medula óssea amarela.
A medula óssea amarela apresenta um espaço mais livre, preenchido com tecido adiposo, delimitado nas paredes pela camada óssea compacta. Já a medula óssea vermelha apresenta as chamadas trabéculas ósseas, constituindo a camada óssea esponjosa. É nessa camada esponjosa que há a formação de células sanguíneas.
Essa cavidade onde se encontra a medula óssea amarela, apresenta o endósteo, que nada mais é do que uma lâmina fibrosa com células de crescimento ou reabsorção óssea interna. A estas células denominamos: osteócitos, osteoclastos e osteoblastos.

Externamente, há ainda uma lâmina denominada periósteo, com dois folhetos:

1ª) folheto fibroso, composta por fibras de colágeno (tecido fibroso), células nervosas e vasos sanguíneos.

2ª) folheto osteogênico ou celular, composto por osteócitos, osteoclastos e osteoblastos.

6550 – Biologia – O que é a HOMEOSTASE?


Uma das principais características dos organismos vivos é a capacidade de alteração de seu estado orgânico como forma de reação fisiológica a mudanças do meio ambiente.
Homeostase é um processo de auto-regulação por meio do qual sistemas biológicos tendem a manter sua estabilidade para se ajustarem a condições ótimas de sobrevivência. Todos os processos de integração e coordenação de funções, mediados por circuitos mecânicos ou por sistemas hormonais e nervosos, são exemplos de regulação homeostática. A estabilidade alcançada é, na verdade, um equilíbrio dinâmico em que ocorrem mudanças contínuas, embora prevaleçam condições relativamente uniformes. Qualquer sistema em equilíbrio dinâmico — um gato, uma comunidade ou um computador — tende para uma situação estável, um equilíbrio que resista a forças externas de mudança. Quando um sistema desses é perturbado (o gato tem fome, uma floresta é queimada ou um computador é ativado), mecanismos reguladores respondem aos desvios para estabelecer um novo equilíbrio (o gato come, plantas restauram a floresta e o computador exibe uma solução).
Um dos segredos da sobrevivência num mundo em constante mudança consiste em diminuir ao máximo o impacto das alterações externas de tal forma que não ocorram lesões irreversíveis. Isso implica a manutenção relativa do equilíbrio das funções vitais, metabólicas e fisiológicas, com a finalidade de permitir o bom funcionamento do organismo. Entre os mecanismos homeostáticos mais importantes de recuperação do equilíbrio temporariamente perdido está a termorregulação, graças à qual a temperatura corporal de alguns animais superiores, como as aves e os mamíferos, varia entre limites estreitos. Diante de baixas temperaturas, os mamíferos reagem ativando mecanismos que tendem a reduzir as perdas de calor — diminuem, por exemplo, o diâmetro dos vasos sangüíneos cutâneos, fenômeno conhecido como vasoconstrição — e a aumentar a temperatura corporal mediante contrações musculares. Se a temperatura sobe, o animal dilata os vasos sangüíneos para que o sangue, ao fluir em maior profusão para os tecidos da pele, possibilite a perda de calor corporal.
Outro mecanismo homeostático comum é o aumento da produção de suor, que, ao evaporar, provoca a diminuição da temperatura. Também apresenta função homeostática a regulação da pressão sangüínea, dos líquidos corporais e do ritmo respiratório. No processo intervêm os hormônios, que desencadeiam uma série de respostas em diferentes órgãos do corpo quando são lançados na circulação, em resposta a determinados estímulos.

6038 – Biologia – Uma bactéria feminista


Nome científico – Gênero Wolbachia

Tamanho – 0,00015 mm

Onde vive – mundo todo

As bactérias do gênero Wolbachia atacam 60% dos insetos existentes na Terra. E odeiam machos. Odeiam tanto que os matam quando ainda são embriões. Se o macho nascer, é transformado em fêmea ao longo da vida. A Wolbachia também ajuda as fêmeas a se reproduzirem de forma assexuada. É que ela só se propaga por meio de óvulos.

6037 – Biologia – Uma vespa muito louca


Nome científico – família Braconidae

Tamanho – 1 mm a 4 cm

Onde vive – mundo todo

Esta vespa injeta veneno suficiente para paralisar, mas não matar, uma lagarta. Aí, as larvas da vespa nascem e se alimentam da lagarta viva. Mas o parasita tem um requinte de crueldade: junto com o veneno, ele injeta uma espécie de vírus que modifica o DNA da lagarta, tornando seu sistema imunológico incapaz de destruir as larvas.

6035 – Biologia Marinha – Um Comedor de ossos


Nome científico – várias espécies do gênero Osedax

Tamanho – 1 cm

Onde vive – Fundo do mar

Quando uma baleia morre, diversas criaturas ficam até 2 anos comendo seu cadáver. Só depois chega a mais nojenta: um verme cujas larvas se instalam nos ossos, criando filamentos que crescem para dentro. Eles podem viver décadas devorando os ossos, e só as fêmeas são visíveis – os machos são larvas microscópicas que infestam o corpo da própria fêmea.

Um pouco +
O verme vive há 30 milhões de anos
Cientistas encontraram traços de Osedax, um verme que se alimenta de ossos, em fóssil de baleia de 30 milhões de anos. Ele já era conhecido desde que foi primeiramente encontrado em uma carcaça de baleia a uma profundidade de 2891 metros na baía de Monterey na Califórnia em 2002. Mas o que não se sabia era sua idade geológica.

Um fóssil de baleia datado de 30 milhões de anos encontrado em uma região muito profunda do mar é o primeiro a apresentar evidências de perfurações feitas por Osedax. O achado levou a equipe internacional de cientistas liderada pelo paleontologista Steffen Kiel na Universidade de Kiel, na Alemanha, a concluir que esses vermes são, pelo menos, tão antigos quanto o fóssil. Este resultado foi publicado na edição atual da revista científica Proceedings da Academia Nacional de Ciências dos EUA em 19 de abril de 2010.
O mais surpreendente da descoberta é que o Osedax ainda é encontrado vivo com a mesma forma e tamanho de milhões de anos atrás. As provas dos furos e cavidades feitas pelos vermes vivos foram fornecidas por Greg Rouse (Scripps Institution of Oceanography), um dos descobridores do Osedax.

Os ossos fossilizados foram “escaneados” para produzir imagens precisas das escavações feitas pelo Osedax. Esses ossos pertencem aos antepassados de nossas baleias modernas e sua idade foi determinada usando o índice de co-ocorrência para fósseis. Steffen Kiel, que tem trabalhado na história de fósseis e de suas evoluções nos ecossistemas de regiões profundas do oceano por muitos anos, explica que a idade desses fósseis coincide com o momento em que as baleias começaram a habitar o mar aberto. Somente em mar aberto é que as baleias mortas podem afundar tão profundamente e servir como alimento para os vermes de ossos. “O alimento é extremamente raro nas vastas profundezas do mar e o aparecimento simultâneo de baleias e de Osedax mostra que mesmo sendo duros, os ossos de baleia foram rapidamente utilizados como fonte de alimento”.

6034 – Um fungo que ataca formigas


Chifres onde não deveriam estar

Nome científico – Cordyceps unilateralis

Onde vive – Brasil

Este fungo entra pelas vias respiratórias e come as partes não vitais da vítima, enquanto cresce e estende seus filamentos por dentro até chegar à cabeça, onde faz crescer um horrendo chifre alienígena – na verdade, um cogumelo, que lança pelo ar esporos infecciosos para contaminar novas vítimas. Felizmente, só ataca formigas.

5166 – Mega Bloco – A Genética e a Bioquímica


Demonstrou que todo o ser vivo é caracterizado por seu patrimônio hereditário, adquirido durante uma longa evolução e transmitida aos ascendentes. Cada órgão foi utilizado, exercitado e aperfeiçoado durante milhões de anos, por um número incontável de espécies, antes de nos ser transmitido. A Embriogênese é uma recapitulação abreviada da Filogênese. Dubois, em 1914, em sua obra “Vida e Luz”, fez notar que em parte nenhuma da Natureza pode surgir corpos tão simples como o ácido tartárico, por exemplo. As exalações vulcânicas são queimadas pelo oxigênio e o ozônio atmosféricos. Os raros oxalatos de ferro e de cálcio e os melatos de alumínio e de cálcio resultam, é evidente, da ação do ácido mélico dos linhotos. Se misturarmos em um tubo fechado 50 cm³ de hidrogênio com 50 cm³ de gás carbônico, Boltzman calculou que deveríamos esperar 10 elevado a 10 séculos para se ter a chance de observar uma separação espontânea. Na escala cósmica, a unidade geológica é apenas o Bilhão de anos. Outra teoria, proposta por Winogradky era a de aparição espontânea da clorofila e das bactérias autótrofas. A clorofila é uma molécula muito complexa, que não pode ser elaborada sem um substrato vivo e que isolada perde todo o seu poder de síntese. As bactérias autótrofas, tais como as sulfobactérias e as ferrobactérias, não podem ser primitivas,pois utilizam resíduos vitais.

5133 – ☻Mega Bloco – Biologia – O Desenvolvimento Humano


Exclusivo

Os primeiros mamíferos só surgiram há uns 160 milhões de anos e
sofreram sua grande mutação evolutiva há 60 milhões de anos. Já o primeiro homem, ainda bem primitivo, demorou aproximadamente 1 milhão de anos para se desenvolver e receber o fogo sagrado que Prometeu roubara do céu, iniciando a história do homo sapiens.
A magia e o culto apareceram há uns 25 mil anos e as remotas obras de arte e pinturas das cavernas. Após 3 fases da Idade da Pedra, chegamos a inveção da roda, há cerca de 6 mil anos. Muito tempo decorreu entre o mais antigo uso do fogo e a 1ª manifestação de cultura organizada. Apenas no século 15, surgiram os grandes e abnegados incrementadores do desenvolvimento técnico. A partir da arte de imprimir, que foi a primeira grande forma de se transmitir informações a um grande número de pessoas ao mesmo tempo; tornaram-se frequentes as descobertas revolucionárias.

3016 – Mega Byte – ☻Mega Bloco: A Odisséia Digital


Eniac, o pioneiro

A aventura do conhecimento humano, do dedo ao computador
A primeira comunidade de homens e mulheres que acrescentou à História uma herança hoje reconhecida como intelectual foi a dos sumérios, um povo que viveu na região onde hoje fica o Iraque, nos campos férteis entre os rios Tigre e Eufrates, conhecida como Mesopotâmia. Intelectualidade é aquela capacidade que só os humanos têm de perceber coisas fora do alcance de seus cinco sentidos, o chamado pensamento abstrato. Os sumérios foram os responsáveis por algumas abstrações notáveis, que turbinaram a marcha da humanidade e influenciaram para sempre o modo como as pessoas pensam, agem e se comunicam – dos babilônios e egípcios, que vieram logo em seguida, até nós, aqui nesse mundinho, 50 séculos depois.
Foi deles, há 5 mil anos, a idéia de criar símbolos que pudessem representar os sons vocais, através de uma escrita chamada cuneiforme. O nome pode ser complicado, mas na prática a coisa era simples: marcas feitas em tabletes úmidos de barro, que depois eram secados ao sol. Os estiletes de madeira usados para marcar os símbolos no barro tinham a ponta em forma de cunha, ou, como se diz em eruditês, eram cuneiformes.
Hoje, pode parecer que passar da palavra escrita à invenção dos algarismos numéricos foi só um pulinho, quase uma conseqüência natural, mas entre os dois fatos atravessamos um abismo de alguns séculos. Muita gente pode não ter essa impressão, mas aprender a escrever é muito, muito mais simples do que aprender a calcular. Tanto que, enquanto a escrita se desenvolvia através de diferentes símbolos para diferentes sílabas, as contagens continuavam a ser feitas com base no conceito 1. Um evento, igual a um risquinho, numa pedra, numa árvore ou num osso.
A primeira maneira que os seres humanos encontraram para mostrar a que quantidade estavam se referindo foi o uso dos dedos das mãos. Hoje isso pode parecer brincadeira, mas 5 mil anos atrás para contar até 20 eram necessários dois homens, porque tinham que ser usadas quatro mãos. Demorou alguns séculos até que caísse a ficha e alguém dissesse: “Olha, pessoal, já acumulei o resultado de duas mãos e agora vou continuar, voltando à primeira mão”.
Através dos tempos, as mãos foram sendo substituídas por equipamentos mais sofisticados, mas a palavra em latim para dedo, digitus, sobrevive até hoje, tanto na palavra dígito – um algarismo – quanto no verbo digitar – escrever com os dedos (sendo que seu verbo gêmeo, datilografar, vem da mesma palavra para dedo, só que a grega – datilos). Os dez dedos são também a origem do sistema numérico com base decimal.
Mas mostrar os dedos era uma coisa e saber contar era outra. A maioria dos povos da Idade do Dedo sabia contar apenas até três; do quatro em diante a coisa já entrava numa dimensão meio fantástica. Em praticamente todos os idiomas, as palavras para os três primeiros algarismos se parecem, porque todas elas derivam de uma língua antiquíssima e já extinta, o sânscrito: an, dve, dri. Já a noção de quatro é tão posterior que cada povo desenvolveu sua própria palavra para expressá-la: catvarah em sânscrito, tessares em grego, quattuor em latim, feower em inglês antigo.
Quando a humanidade aprendeu a fazer contas?
Há cerca de 4 mil anos. Foi quando os mercadores da Mesopotâmia desenvolveram o primeiro sistema científico para contar e acumular grandes quantias. Primeiro, eles faziam um sulco na areia e iam colocando nele sementes secas (ou contas) até chegar a dez. Aí, faziam um segundo sulco, onde colocavam uma só conta – que equivalia a 10 -, esvaziavam o primeiro sulco e iam repetindo a operação: cada dez contas no primeiro sulco valia uma conta no segundo sulco. Quando o segundo sulco completava dez contas, um terceiro sulco era feito e nele era colocada uma conta que equivalia a 100. Assim, uma quantia enorme como 732 só precisava de 12 continhas para ser expressa.
Tal engenhosidade daria origem à nossa palavra contar – a partir das primitivas contas que enchiam os sulcos.
O conceito errar é humano deve ser tão antigo quanto a preocupação de inventar algum aparelho para auxiliar na contagem e reduzir a margem de erro. Apesar da fama dos árabes e dos chineses, a contribuição mais importante para a abstração matemática foi um trabalho dos hindus. Sem eles não haveria o zero e, portanto, toda a base da abstração que, junto com o 1, deu origem a tudo o que conhecemos hoje como ciências matemáticas.
A primeira tentativa bem-sucedida de criar uma máquina de contar foi o ábaco. O nome tem origem numa palavra hebraica abaq (pó), em memória a antiqüíssimos tabletes de pedra, aspergidos com areia, onde os antigos mestres desenhavam figuras com o dedo para educar seus discípulos.
Os inventores do ábaco de calcular, aparentemente, foram os chineses, que deram ao aparelhinho o nome de suan pan. Mas há controvérsias: os japoneses também reivindicam a invenção – no Japão o ábaco chama-se soroban -, para não falar dos russos: o deles é conhecido como tschoty. Feito com fios verticais paralelos pelos quais seus operadores podiam fazer deslizar sementes secas, o ábaco chinês era incrivelmente eficiente. E rápido: um operador com prática podia, por exemplo, multiplicar dois números de cinco algarismos cada um com a mesma velocidade com que alguém hoje faria a mesma conta numa calculadora digital. Quase 3 mil anos depois de ter sido inventado, o ábaco ainda é usado em muitas regiões da Ásia por pequenos comerciantes.
Quando surgiram os algarismos atuais?
Essa seqüência que conhecemos hoje por algarismos arábicos tem pouco mais de mil anos. A bem da verdade, os algarismos arábicos não são arábicos: foram criados pelos hindus. Os árabes ficaram com a fama porque foi através deles que os números escritos se espalharam pelo mundo.
A própria palavra algarismo é uma homenagem a um renomado matemático árabe do século 9 d.C., al-Huarizmi.
Os algarismos arábicos foram trazidos da Índia para o Ocidente por volta do ano 770 da era cristã, mas não foram adotados de imediato, porque outros povos já estavam acostumados com suas próprias maneiras de representar os numerais, por mais complicadas que elas parecessem. As três principais correntes eram as formas romana, grega e egípcia. Que na verdade nem eram algarismos numéricos, mas letras que assumiam funções de números.
O número 323, por exemplo, era escrito da seguinte forma:
Em algarismos romanos: CCCXXIII
Em caracteres gregos: HHHAEAEIII
Em sinais egípcios:
Mas os romanos não se atrapalhavam na hora de somar C com X?
Pelo jeito, não. Quem se acostuma com um sistema, só enxerga complicação no sistema dos outros. Ainda nos dias de hoje, a gente fica se perguntando:
Não seria mais fácil raciocinar em metros do que em pés? Entender o peso em quilos não seria mais simples do que pesar em onças? Não é mais fácil visualizar 8 milímetros do que 1/32 de polegada? Não senhor, é tudo uma questão de costume. Como somos um povo que mede seu grau de aquecimento específico, inclusive da cerveja, com graus centígrados, achamos que o sistema de graus Fahrenheit é coisa de doido, a começar pelo nome esquisito; depois porque para transformá-lo em graus centígrados é preciso subtrair 32, dividir por 9 e multiplicar por 5. Mas quem usa o sistema Fahrenheit, e que em geral bebe cerveja quente, tem que fazer o cálculo inverso para chegar aos graus centígrados: dividir por 5, multiplicar por 9 e somar 32. Logo, eles acham que os complicados somos nós, porque para eles é tudo muito simples: 95 graus é quente pra burro e 35 graus é frio de rachar.
O que fez com que os algarismos arábicos se tornassem o padrão numérico mundial não foi sua simplicidade, foi o poderio militar dos árabes. Durante dois milênios, até 1432, enquanto o Império Romano dominou o mundo, os dominados não se cansavam de elogiar a beleza e a eficiência dos algarismos romanos. Foi somente com a queda de Roma e a ascensão ao poder dos turcos otomanos (mais de 700 anos depois de os algarismos arábicos terem chegado à Europa e menos de 100 anos antes do Brasil ser descoberto) que os algarismos arábicos foram, digamos assim, globalizados. Por pressão, não por precisão. Como sempre, a verdade não é exatamente um conceito, mas um atributo dos vencedores. Napoleão deu ao mundo uma belíssima aula sobre os limites da razão e as razões do poder, ao mandar esculpir em seus canhões a seguinte expressão latina: ultima ratio Regis, ou seja, a última razão do Rei. Mas está faltando alguém muito importante nessa história.Com a socialização dos numerais, a coisa foi ficando cada vez mais sofisticada: da palavra grega para número, arithmos, veio Aritmética. Conceitos muito simples foram ampliados e viraram ciência, como a Trigonometria, que antigamente era só uma continha para medir os lados de um triângulo: trigon, em grego, quer dizer três cantos. E mesmo termos que antes não tinham nada a ver com números foram sendo adaptados à numerologia: do árabe al-jabr, consertar ossos fraturados, derivou Álgebra.
A palavra capital, tão importante para a história moderna de nosso bizarro planeta, tem origem na forma mais primitiva de contar bens e valores: a cabeça de uma rês, ou, em latim, capita. Quanto mais vacas alguém amealhava, melhor era sua posição na sua comunidade. Curiosamente esta palavra está ligada hoje ao conceito de riqueza, de centro do pensamento, de cidade mais importante, além de algumas mais prosaicas, como decapitar, perder a cabeça, encabeçar.
A situação chegou a tal refinamento que extrair uma raiz quadrada começou a levar mais tempo do que extrair um dente. E ambas eram experiências bastante dolorosas. Estava mais que na hora de alguém começar a pensar em alguma coisa para amenizar o sofrimento…
E, pode apostar: com o tempo, alguém acabou pensando…
O que é um computador?
Até meados do século 19, um computador não era uma máquina, mas uma pessoa, que tinha a função de fazer contas e arbitrar conflitos que envolvessem números. Seus descendentes diretos são os atuais contadores, os técnicos em contabilidade que registram os números para fins legais.
A origem da palavra computar é muito antiga e começa com o latim putare (epa!), fixar quantidades, de onde derivaram palavras como disputar, reputar e imputar. O verbo putar não existe em português, mas seu DNA pode ser encontrado na palavra putativo, ainda muito usada na linguagem jurídica: quando perguntamos “Quem é o pai da criança?”, os possíveis suspeitos são chamados de pais putativos. E, para os muito curiosos, a resposta é não: aquela famosa palavrinha de quatro letras não tem nada a ver com tudo isso: ela vem do latim puttus, menino (e em Portugal ainda é usada com esse mesmo sentido; nós, brasileiros, é que a pervertemos…)
Mas, voltando ao computador, no século 17 os franceses criaram o verbo computer (com acento tônico no e), com o sentido de calcular, mas foram os ingleses que transformaram o verbo no substantivo computer (com acento tônico no u), para designar as primitivas máquinas que hoje chamamos de calculadoras.
A aplicação do termo ao moderno computador só aconteceria a partir de 1944, quando o jornal inglês London Times publicou uma então delirantíssima matéria sobre alguns equipamentos inteligentes que no futuro poderiam vir a substituir o esforço humano. O Times chamou uma hipotética máquina pensante de computer. Foi isso, gente.
Curiosamente, apesar de terem usado pela primeira vez a palavra computer, os franceses jamais a aceitaram para definir as engenhocas que hoje chamamos de computadores. Para os franceses, estas caixinhas feias e cheias de fios são ordinateurs de gestion, ou seja, ordenadores de gestão, e nada mais.
Quem inventou o computador?
O computador é uma invenção sem inventor. Ao contrário de muitas novidades, que alguém com nome, sobrenome e atestado de vacina desenvolveu em um laboratório, ou descobriu por acaso, o computador sempre foi um aperfeiçoamento constante de idéias anteriores. Muitas vezes, nada acontecia durante séculos, até alguém dar o passo seguinte; e alguns desses passos foram gigantescos. É só ler o que vem a seguir para perceber que ainda falta muito – mas muito mesmo – para ser inventado no campo da computação.
Nos dias mais recentes, acrescentamos à indústria da invenção a indústria da obsolescência planejada e a criação de uma famosa teoria baseada na idéia de que a capacidade de memória e gestão dos computadores dura apenas 18 meses – e que neste período novas máquinas são inventadas, tornando as anteriores carroças medievais.
Quando apareceu a primeira máquina de computar?
Há pouco menos de 400 anos, o que significa que o ábaco era mesmo uma invenção danada de boa. A única grande desvantagem do ábaco era que o operador não podia errar ou se distrair. Se uma dessas duas coisas acontecesse, ele teria que começar tudo de novo, porque o ábaco não tinha memória.
O primeiro instrumento moderno de calcular – na verdade, uma somadora – foi construído pelo físico, matemático e filósofo francês Blaise Pascal, em 1642. A máquina, com seis rodas dentadas, cada uma contendo algarismos de 0 a 9, permitia somar até três parcelas de cada vez, desde que o total não ultrapassasse 999999. Uma multiplicação, por exemplo, de 28 por 15 era feita somando-se 15 vezes o número 28.
Aliás, soma é uma palavra interessante: em latim antigo, summa significava essência. Daí vieram sumário e súmula, no sentido de resumo, duas palavras anteriores à aplicação do termo soma ao campo da matemática. Soma é, então, uma série de parcelas resumidas em um total.
A somadora original de Pascal ainda existe, ainda funciona e está exposta no Conservatoire des Arts et Metiers, em Paris. Olhando para ela, qualquer pessoa com dois neurônios ativos diria: Mas isso é muito simples. E é mesmo, mas também é verdade que qualquer coisa parece simples depois que alguém já fez. Interessante é que a maquininha não tenha sido criada por nenhum dos grandes cientistas da época: quando a construiu, Pascal tinha só 19 anos. A História vem se cansando de registrar façanhas como essa: de vez em quando, um garoto aparece do nada e muda o mundo.
Como a somadora se transformou em computador?
A máquina de Pascal teve uma vida útil de quase 200 anos e foi sendo aperfeiçoada por diversos inventores. Funcionava cada vez melhor, mas tinha um limite: a entrada de dados dependia da eficiência da pessoa que estivesse batendo os números em suas teclas. E, mesmo que essa tarefa fosse executada por alguém altamente treinado, esse alguém ainda seria um ser humano, e seres humanos têm limites físicos. Assim, o passo seguinte teria que ser necessariamente o aumento na velocidade de alimentação dos dados.
Quem conseguiu encontrar a solução para isso foi um francês, Joseph-Marie Jacquard, depois de passar 20 anos matutando. Curiosamente, ele era de um ramo que não tinha nada a ver com números e calculadoras: a tecelagem. Filho de tecelões – e, ele mesmo, um aprendiz têxtil desde os dez anos de idade -, Jacquard sentiu-se incomodado com a monótona tarefa que lhe fora confiada na adolescência: alimentar os teares com novelos de linhas coloridas para formar os desenhos no pano que estava sendo fiado. Como toda a operação era manual, a tarefa de Jacquard era interminável: a cada segundo, ele tinha que mudar o novelo, seguindo as determinações do contramestre.
Com o tempo, Jacquard foi percebendo que as mudanças eram sempre seqüenciais. E inventou um processo simples: cartões perfurados, onde o contramestre poderia registrar, ponto a ponto, a receita para a confecção de um tecido. Daí, Jacquard construiu um tear automático, capaz de ler os cartões e executar as operações na seqüência programada. A primeira demonstração prática do sistema aconteceu na virada do século 19, em 1801, quando Jacquard tinha 48 anos. Dez anos depois, já havia mais de 10 mil teares de cartões em uso na França.
Os cartões perfurados são a origem do computador?
Sozinhos não, mas foram um passo crucial. Eles eram uma maneira eficiente de alimentar a máquina com milhares de dados em poucos minutos, eliminando a lentidão humana. Faltavam ainda outros dois passos, e quem primeiro conseguiu equacioná-los foi um inglês, Charles Babbage, em 1834.
Babbage chamou seu projeto de aparelho analítico e anteviu os passos que até hoje são a base do funcionamento de um computador:
• Alimentação de dados, através de cartões perfurados.
• Uma unidade de memória, onde os números podiam ser armazenados e reutilizados.
• Programação seqüencial de operações, um procedimento que hoje chamamos de sistema operacional.
Infelizmente, a máquina de Babbage nem chegou a ser construída: professor de Matemática na Universidade de Cambridge, ele não dispunha de recursos para financiá-la, nem encontrou investidores dispostos a ir além de algumas doações ocasionais. Mas seus relatórios e projetos tornaram-se leitura obrigatória – e inspiradora – para todos os cientistas que dali em diante se aventuraram pelo mesmo caminho.
Curiosamente, os planos originais de Babbage ficaram engavetados por 157 anos, até que em 1991 cientistas britânicos do Museu da Ciência, em Kensington, resolveram montar a engenhoca. Que funcionou, com uma fantástica precisão de 31 casas depois da vírgula. Se bem que hoje qualquer coisa é possível… recentemente, um maluco aí pulou no primeiro pára-quedas, projetado há 550 anos por Leonardo da Vinci, e aterrissou inteirinho.
Hollerith?!
Isso mesmo, Herman Hollerith (o nome dele é o apelido que muita gente ainda dá a seu recibo de pagamento). O conceito de Hollerith tinha duas etapas: primeiro, transferir dados numéricos para um cartão duro, perfurando-o em campos predeterminados; depois, transformar os furos em impulsos, através da energia elétrica que passava por eles, ativando dessa forma os contadores mecânicos dentro de uma máquina. O pulo do gato de Hollerith foi o de juntar duas coisas que já existiam: os cartões de Jacquard e o conceito de impulsos elétricos para transmissão de dados, usando um princípio que Samuel Morse havia desenvolvido bem antes, em 1844, quando inventou o telégrafo e transformou letras e números em sinais elétricos.
O cartão perfurado de Hollerith estreou em 1887, em estudos estatísticos sobre mortalidade. Mas foi em 1890, no recenseamento dos Estados Unidos, que o sistema ganhou fama mundial. Pela primeira vez, o pessoal do censo não precisou fazer o estafante trabalho braçal de tabular os milhões de dados que haviam sido coletados pelos pesquisadores. O recenseamento ficou pronto numa fração do tempo que normalmente levaria, gerou uma enorme economia para o governo americano e deu fama instantânea a Hollerith.
Portanto, há mais de 100 anos, no final do século 19, já existiam equipamentos capazes de transferir dados para máquinas, que podiam processá-los e tabulá-los a grande velocidade. E, durante os 40 anos seguintes, isso pareceu coisa de ficção sideral, pelo menos para as pessoas normais – aquelas que ainda estavam discutindo as vantagens do fogão a lenha sobre seu similar a gás. Como se vê, não é de hoje que coexistem esses mundos diferentes, o do progresso e o da manutenção. Em 1918, quase 30 anos depois da proeza futurística de Hollerith, uma epidemia de gripe espanhola assolou o mundo e matou 10% da população do Rio de Janeiro, incluindo o recém-eleito presidente da República, Rodrigues Alves. Holleriths e gripes espanholas são facilmente encontráveis ao mesmo tempo na história da humanidade, como se caminhássemos desajustadamente, um pé sobre a calçada e outro no asfalto, quase todo o tempo. Nada é linear, nem no uso das tecnologias, nem nas ciências, nem no desenvolvimento dos povos.
O que ainda estava faltando para o computador computar?
Uma guerra, talvez. Apesar de serem um dos maiores contra-sensos da humanidade, as guerras têm sido uma espécie de dínamo tecnológico: novidades que demorariam anos para surgir em tempos de paz acabam sendo antecipadas pela urgência da vitória (ou o pavor da derrota). Foi durante a Segunda Guerra Mundial (1938/1945) que a ciência da computação deu seu salto definitivo.
Turing já havia publicado trabalhos teóricos sobre computação de dados antes da guerra e por isso foi recrutado a toque de caixa pelas Forças Armadas. Se suas teorias estivessem corretas, elas levariam à construção de uma máquina capaz de imitar o cérebro humano para explorar – como num jogo de xadrez – todas as alternativas possíveis a partir de uma variável. Como a hipotética máquina de Turing estaria apta a computar e traduzir milhares de caracteres por segundo, bastaria alimentá-la com qualquer mensagem cifrada alemã, para que ela em seguida devolvesse a mesma mensagem escrita em alemão compreensível. Simples… só faltava alguém construir a tal máquina. Batizada de Colossus, a máquina levou um ano para ser montada nos laboratórios dos correios londrinos, pelo cientista Thomas Flowers. Mas, uma vez plugada, programada e alimentada, resolvia qualquer questão de criptografia em poucos minutos. Concluído em 1941, o Colossus ainda não era um modelo bem-acabado de computador, porque só executava uma única e específica tarefa, mas mostrou que a computação poderia resolver rapidamente qualquer problema que pudesse ser transformado em instruções numéricas. Mas, como tudo isso foi mantido em segredo durante e após a guerra (as dez unidades construídas do Colossus foram desmontadas em 1946, para evitar que caíssem em mãos inimigas), a obra de Turing só se tornou pública anos depois, quando outras máquinas mais eficientes já haviam surgido.
Quando apareceu o primeiro computador moderno?
Vários renomados pesquisadores passaram anos disputando a primazia de ter sido o criador. Um deles foi o alemão Konrad Zuse, que aparentemente construiu em 1941 o primeiro computador eletro-mecânico, perfeitamente operacional, controlado por um programa com sistema binário (que Zuse chamava de ja/nein, sim/não, o antecessor do zero/um dos bits). Mas a máquina de Zuse, chamada Z1, foi reduzida a cinzas em um bombardeio dos aliados sobre Berlim, em 1944. Porém, além do próprio Zuse, que sobreviveu ao foguetório para contar sua história, restaram as suas anotações e as plantas de construção, e os princípios do Z1 se mostraram incrivelmente semelhantes a tudo o que viria depois.
Uma ampla e muito bem-feita campanha promocional talvez explique por que hoje se acredita que o primeiro computador tenha sido uma máquina americana, o ENIAC.
O ENIAC é de quando?
Foi ligado na tomada em 1946. Era uma geringonça que funcionava usando 17480 válvulas de rádio, pesava 4 toneladas, media incríveis 30 metros de comprimento por 3 de altura. Ocupava uma área de 180 m2, e era capaz de fazer 5 mil somas por segundo. Foi construído por dois cientistas da Universidade da Pennsylvania, nos Estados Unidos, e seu nome vem das letras iniciais de Electronic Numerical Integrator And Computer – Integrador e Computador Numérico-Eletrônico. Seu desenvolvimento foi financiado pelas Forças Armadas americanas, a um custo, na época, de 500 mil dólares, o que hoje corresponderia a uns 20 milhões de dólares. Por conta da repercussão daquela matéria do London Times, a mídia americana usou a palavra computer para explicar ao povão o que aquele paquiderme era capaz de fazer. Se a escolha recaísse sobre o I de ENIAC, e não sobre o C, hoje poderíamos ter integradores ao invés de computadores.
Como o primeiro computador funcionava?
Hoje, ao clicar o mouse, ou ao teclar um ESC, um usuário não tem a mínima idéia de como as coisas acontecem lá dentro do sistema. Simplesmente, o comando é obedecido, e isso parece a coisa mais natural do mundo. No ENIAC, tudo isso acontecia do lado de fora. Primeiro, um grupo de cientistas desenvolvia equações matemáticas na exata seqüência em que elas tinham que ser digeridas pelo sistema. A seguir, seis especialistas programavam o computador para executá-las, girando botões de sintonia e plugando centenas de fios nas tomadas corretas. Portanto, o que hoje chamamos de sistema operacional era, em 1946, uma operação totalmente manual.
O primeiro teste do ENIAC – uma demonstração feita para generais das Forças Armadas – calculou a trajetória de uma bala de canhão até um alvo predeterminado. Alimentado com as equações, o computador forneceu os dados para que o canhão fosse calibrado. A bala acertou o alvo, mas o que mais impressionou os generais foi o fato de que o tempo que o computador levou para fazer o cálculo foi menor que o tempo real ocorrido entre o disparo do canhão e a chegada da bala ao alvo. O único problema do ENIAC era que, para calcular a trajetória de uma nova bala até um novo alvo, tudo tinha que ser refeito: desde as equações até o reacerto dos fios e dos botõezinhos. É exatamente essa tarefa, a mais complicada de todas, que hoje já vem embutida nos programas – chamados de software.
O Mark I tinha o nome técnico de Calculador Automático Seqüencial Controlado e foi construído entre 1939 e 1944 (praticamente, durante toda a Segunda Guerra Mundial) pelo professor Howard Aiken. Como o próprio nome técnico já indica, o Mark I talvez tenha sido a maior máquina calculadora já construída (20 metros de comprimento por 3 de altura, e 750 mil componentes).
O papel da IBM no desenvolvimento da computação é inegável. Por isso, se as máquinas Mark da Harvard e da IBM eram ou não legítimos computadores, ou apenas enormes calculadoras, é hoje uma questão secundária. O acaso se encarregaria de dar-lhes um lugar de destaque na história da computação, mas por um outro motivo, bem mais prosaico: foi num Mark II que apareceu o primeiro bug.
Um bug?
Não um bug, mas o bug. A palavrinha já vinha sendo usada como gíria para significar complicação desde os primórdios da Revolução Industrial. No século 19, quando as máquinas começaram a substituir o trabalho braçal, elas foram instaladas em galpões abertos, onde havia uma variada frota de insetos voando para lá e para cá, o tempo todo. A possibilidade de um deles pousar no lugar errado e causar estragos era grande, e aí qualquer parada mecânica era, em princípio, atribuída a um bug.
Só que no caso dos computadores foi um bug de verdade: sabe-se lá como, uma mariposa conseguiu entrar num Mark II do Centro Naval de Virgínia, nos Estados Unidos, e travou todo o sistema. O episódio aconteceu em 1945, e está perfeito e hilariamente documentado, porque o técnico que descobriu a mariposa a anexou a seu Relatório de Manutenção, grudando a danadinha com fita adesiva, após explicar tecnicamente: Havia um bug no sistema. Daí em diante, o nome passaria a ser sinônimo de qualquer tipo de falha ou erro, sendo que o mais famoso (e mais caro) de todos os bugs foi o bug do milênio, que iria paralisar o mundo na virada de 1999 para 2000. Calcula-se que, para neutralizá-lo, foram gastos 120 bilhões de dólares, dinheiro suficiente para comprar todo o estoque de inseticidas do mundo!
Desde quando a IBM domina o mercado de grandes computadores?
Desde sempre. Quando foi constituída, em 1911, a empresa fabricava equipamentos para escritórios e se chamava CTR, o que já demonstrava sua simpatia por siglas. E a letra C da sigla era a inicial de computação, embora a palavra ainda não tivesse nada a ver com os atuais computadores, mas com as calculadoras da época. Um dos fundadores da IBM foi Herman Hollerith, o homem dos cartões perfurados, e daí veio o T, de tabulação. O nome IBM, uma sigla para International Business Machines, apareceu em 1924 e daí em diante a empresa só fez crescer e abocanhar mercados.
A entrada da IBM no ramo de computadores ocorreu quase que por inércia, numa época em que a maioria das empresas ainda estava em dúvida sobre a viabilidade comercial da computação, mas não queria correr o risco de ficar de fora. Aliás, esse a maioria aí incluía a própria IBM. Em 1943, seu presidente, Thomas Watson Jr., entrevistado sobre o potencial do novo segmento, declarou: “Eu não acredito que exista um mercado mundial para mais de cinco computadores.”
Previsões sobre computadores têm sido uma das piores armadilhas para quem se arrisca a exercícios de futurologia. Em 1949, a influente revista americana Mecânica Popular profetizou, empolgadíssima: Enquanto atualmente um computador tem 18 mil válvulas e pesa 30 toneladas, no futuro eles terão apenas mil válvulas e pesarão no máximo 1 tonelada e meia. Depois dessa, seu micro não se sentiu um tanto quanto anoréxico? Bom, para não ficarmos apenas na pré-história, que tal essa frase de Bill Gates, em 1981, quando a IBM lançou seu computador pessoal: Não vejo motivos para algum dia alguém querer ter um micro com mais de 64K de memória. 64K???
Sim, houve um tempo em que 64K era uma memória de elefante!
O que é bit?
Bit é uma palavra formada pelas duas primeiras letras de binário e pela última letra de dígito (digit, em inglês). Quem inventou a palavrinha foi um engenheiro belga, Claude Shannon, em sua obra Teoria Matemática da Comunicação, de 1948. Nela, Shannon descrevia um bit como sendo uma unidade de informação.
Por que não bid, que seria mais óbvio? Talvez porque bit, em inglês, quer dizer pequena parte. E bid significa lance, oferta. Pode ser que a formação bit seja menos correta gramaticalmente, mas define com mais perfeição aquela partezinha que dá início a tudo.
Para que serve um bit?
O bit é a base de toda a linguagem usada pelos computadores, o sistema binário, ou de base dois, e graficamente é representado por duas alternativas possíveis: ou o algarismo 0, ou o 1. É como se, lá dentro da máquina, houvesse um sistema de tráfego com duas lâmpadas: a informação entra e, se encontra a lâmpada 1, segue em frente até a lâmpada seguinte. Se dá de cara com a lâmpada 0, muda de direção. São bilhões de informações repetindo essas manobras a cada pentelhésimo de segundo. E, por incrível que pareça, sem congestionamentos.
O que é mesmo um sistema binário?
Num sistema binário usam-se só dois dígitos, o 0 e o 1, para representar qualquer número. Comparado com o sistema de base decimal, a relação é a seguinte:
Sistema Decimal
1
2
3
4
5
6
7
8
9
10
Sistema Binário
0001
0010
0011
0100
0101
0110
0111
1000
1001
1010
E por aí vai, até o infinito: por exemplo, em notação binária, 1000000000000 – 13 algarismos – corresponde ao numeral 4096, de apenas quatro algarismos. Parece complicado, mas a vantagem do sistema binário é sua simplicidade, pelo menos do ponto de vista do computador: se cada um dos dez algarismos arábicos tivesse que ser reconhecido individualmente pelo sistema, os cálculos demorariam muito mais.
Os bits não servem apenas para representar números, mas para qualquer coisa que precise ser informada a um computador. De uma letra ou uma vírgula, até a cor que queremos usar. Cada uma dessas informações é transformada em um código binário e interpretada pelo sistema. Por exemplo, ao ler 01001010 01000001 01000011 01001011, o computador saberia que isso, obviamente, quer dizer JACK.
É bom a gente lembrar que o sistema binário é bem antigo – em relação à televisão, por exemplo, é 100 anos mais velho. Os cartões perfurados do século 19 já o utilizavam: ou uma determinada posição tinha um furo (1) ou não tinha (0). Depois, viriam as fitas perfuradas de papel (mais estreitas que um cartão, e em bobinas, contínuas) e finalmente as fitas magnéticas, tipo fita de áudio. Mas o princípio continuou o mesmo: na fita, ou um espaço estava magnetizado (1) ou não estava (0).
O curioso nessa história toda é que a ciência da computação não foi a primeira a usar o sistema binário. Os papuas, habitantes da Nova Guiné, são uma tribo tão primitiva, mas tão primitiva, que até hoje ainda não aprenderam a contar usando os dedos. Há milênios, eles se utilizam de um rudimentar sistema binário. Há um símbolo para 1, outro para 2 e daí em diante, para qualquer quantidade, emprega-se um grunhido que significa imensamente mais..
Quantos bits tem um byte? Ou é o contrário?
Um byte tem oito bits.
Qual é a diferença entre um bit e um byte?
Um byte é uma informação inteira (por exemplo, um número). E os bits são as oito peças que, colocadas juntas, permitem ao sistema reconhecer que número é aquele. Em linguagem binária, o número 14 é expresso assim: 00001110. Cada um dos oito algarismos é um bit. Todos eles juntos, um byte. E o sistema lê zeros e uns, mas entende 14.
Por que um byte não tem dez bits, já que os sistemas de base decimal são os mais usados no mundo?
São oito bits num byte porque as combinações possíveis de oito dígitos são mais que suficientes para expressar qualquer número, letra ou símbolo (nossas placas de automóveis têm sete caracteres pelo mesmo motivo). Hoje estamos muito acostumados à prevalência das métricas de base 10, mas muitas matemáticas foram construídas tendo como base o 60 – uma herança que recebemos dos babilônios, há 40 séculos – e não o 10. O triunfo do 10, fruto da prosaica vitória de nossas mãos e pés de dez dedos, não impediu no entanto que a base 60 ainda seja amplamente usada – no contar das horas e dos graus, por exemplo – e que conviva com o atual reinado da base decimal. Quem sabe se, num futuro movido a computação, o oito não passará a ser o único padrão?
E o kilobyte?
Como todo mundo já percebeu, todo dia aparece um novo microchip com capacidade para processar o dobro de dados que o chip da véspera tinha (o que faz com que aquele micro zerinho que nós compramos já esteja ultrapassado no momento em que é retirado do caixa). Por isso, as medidas também têm que ir aumentando. O primeiro salto foi o kilobyte.
Um kilobyte são mil bytes, assim como um quilômetro são mil metros e um quilograma são mil gramas?
Kilo é uma palavra grega que significa mil, logo um kilobyte tem mil bytes, certo? Infelizmente, a informática é simples, mas nem tanto. Um kilobyte tem 1 024 bytes. Porque a base de tudo, como já vimos, é o número 2, e a capacidade de processamento dos micros evolui em múltiplos, sempre dobrando em relação à medida anterior: 4K, 8K, 16K, 32K, 64K, 128K, 256K, 512K. O pulo seguinte, para 1024, dá o valor mais próximo de mil. Portanto, esse kilo de bytes aí já vem com um chorinho… Mas, para quem se liga em matemática, a explicação é que o sistema usa como base o logaritmo 2: o número 1024 corresponde a 2 elevado à décima potência.
Logo, a medida seguinte, o megabyte, tem 1024 mil kilobytes, certo?
É duro de acreditar, mas a resposta também é não. Um megabyte tem mil kilobytes, redondinhos. É que a partir do megabyte todas as novas medidas são sempre mil vezes maiores que a anterior. E todas elas derivam de palavras gregas: mega em grego quer dizer grande. Daí derivou, por exemplo megalomania, a chamada mania de grandeza.
Depois do megabyte, vem o terabyte. Pense um pouquinho: que nome você daria a uma medida mil vezes maior que uma megalomania? Monstruosa, talvez? Pois é isso mesmo, tera em grego é monstro. Então, só pra gente não se perder, um terabyte são mil megabytes, ou um milhão de kilobytes, ou 1024 bilhões de bytes, ou 8,192 bilhões de zerinhos ou unzinhos, os bits.
E isso vai longe. As próximas palavras que muito em breve vão aparecer nos anúncios de qualquer jornal de domingo, anunciando uma liquidação de micros no armazém da esquina, são o petabyte, o exabyte, o zettabyte e o yottabyte. Um yottabyte corresponde a um número que talvez nem exista uma palavra para definir: 10 elevado à 24ª potência, ou, de modo mais simples, 1.000.000.000.000.000.000.000.000 de bytes. Parece uma enormidade, mas é bem provável que daqui a uns 20 anos um yottabyte vá valer menos que um bit furado. Felizmente, o dicionário grego é uma fonte inesgotável de palavras novas, e uma sugestão, para quando o número de bytes chegar ao centésimo zero, poderia ser quambyte, já que em grego quam significa cumé quié??
Por que o tamanho dos computadores foi reduzido tão rapidamente?
Porque na década de 1950 apareceu o transistor, circuito integrado para substituir as antigas válvulas. Eram elas, enormes, que ocupavam a maior parte da estrutura física de um computador. Fabricado inicialmente pela Fairchild Semiconductors, o transistor era uma maravilha eletrônica que fazia a mesma coisa que uma válvula – deixar ou não deixar passar uma corrente elétrica – , mas ocupando um espaço muitas vezes menor: enquanto uma válvula mal cabia na palma da mão, um transistor era menor que um dedo mindinho.
Transistor é um desses nomes que parecem ter vindo diretamente de Marte, mas o termo foi inventado por um cientista dos Laboratórios Bell, John Pierce (que nas horas vagas era, claro, escritor de ficção científica) a partir de outras duas palavras: transferir e reter (em inglês, transfer e resistor). O nome batizou a obra de três outros cientistas dos Laboratórios Bell, Bill Schockley, John Bardeen e Walter Brattain, que, em 1945, concluíram os estudos teóricos que anos depois possibilitariam a fabricação em massa do transistor. Em 1956, eles receberiam o Prêmio Nobel por seus trabalhos. Aliás, o que esse povo dos Laboratórios Bell inventou de coisa e ganhou de Prêmio Nobel no século 20 daria para encher um outro livro…
Mas para nós brasileiros, que há 40 anos achávamos que computador era algo que jamais faria parte de nossas vidas, a novidade do transistor se encarnou numa mania instantânea: o radinho de pilha – ou, como era solenemente chamado, o rádio portátil transistorizado que na época desencadeou uma febre consumista: era um tal de levar o radinho à missa, ao cinema, ao escritório, ligá-lo bem alto para todo mundo ouvir, explicar como aquela maravilha funcionava… na verdade, uma epidemia não muito diferente da que acometeria os proprietários dos primeiros telefones celulares nos anos 90.
O microchip é um transistor?
É uma placa minúscula com uma batelada de minúsculos transistores – o Pentium IV, da Intel, tem 42 milhões deles – cada um com a mesma função do transistor original: transferir ou reter a corrente elétrica. A diferença está na dimensão: se o transistor era do tamanho de um dedo, o microchip era menor que uma impressão digital. O que permitiu o aparecimento dos microchips foi a aplicação prática de novos semicondutores de eletricidade, que têm esse semi no nome porque conduzem – ou não – uma carga elétrica. Voltando ao começo da história, o sistema binário funciona através da leitura de um impulso elétrico, e quanto mais rápida for essa leitura maior será a capacidade do computador.
A vantagem do microchip sobre o transistor é o silício, um elemento que faz com que a corrente elétrica seja conduzida muito mais rapidamente de um bit para outro. Daí vem o nome Vale do Silício para a região da Califórnia, nos Estados Unidos, onde está instalado o núcleo das empresas digitais, entre elas a Intel Corporation, que criou o primeiro microchip, em 1971. Tudo em família: tanto o pessoal que fundou a Intel, dos microchips, como o povo que fundou a Fairchild, dos transistores, era gente vinda dos Laboratórios Bell.
Quando foi que os computadores digitais substituíram os analógicos?
Nunca. Essa parece meio difícil de acreditar, mas as palavras analógico e digital convivem desde os primórdios dos computadores. Só que essa noção atual de que analógico é algo arcaico, e que digital é seu sucessor moderno, não só não existia há 60 anos como era exatamente o contrário: o analógico era muito mais avançado que o digital.
Os computadores digitais – que também eram chamados, com otimismo exagerado, de cérebros eletrônicos – custavam bem menos que seus similares analógicos e tinham como principal vantagem a rapidez. Eles operavam com informações numéricas fixas – ou dígitos – e o resultado era uma única e exata solução.
Já os computadores analógicos, muito mais caros, lidavam com dados que requeriam variações contínuas, como por exemplo a alteração da velocidade, a direção do vento ou a posição de um avião numa simulação de aerodinâmica de vôo.
Aliás, as próprias origens das duas palavras já mostram a diferença na sua sofisticação: digital, como já vimos, veio de digitus, dedo. E analógico vem do grego analogos, proporcionalidade, ou, em seu significado original, razão. Hoje, a nova razão da moçada passou a ser o mundo digital, enquanto a geração analógica parece que perdeu a razão de existir.
E então surgiu o microcomputador?
Muita gente vai se surpreender, mas bem antes do microcomputador surgiu o video game. Treze anos antes, para ser mais exato, em 1962. Três sujeitos de 25 anos, que trabalhavam juntos no altamente tecnológico Instituto Ingham, em Massachusetts, nos Estados Unidos, e que eram fanáticos por ficção científica, começaram a juntar protótipos de equipamentos que o instituto estava desenvolvendo. E se puseram a pensar se tudo aquilo não poderia ser transformado em algo útil para matar o tempo entre um projeto e outro. Para seus chefes, eles justificariam o esforço dizendo que estavam trabalhando numa demonstração das potencialidades interativas da computação. O resultado foi o Spacewar, o primeiro game.
Aí por 1960, já existiam dois ou três programinhas que faziam bolinhas pular na tela, ou tijolos ir sendo empilhados. A grande diferença é que o Spacewar permitia que duas pessoas controlassem o que estava acontecendo na tela. Para isso foram criadas duas caixas de controle, com três comandos: uma alavanca que movia para a frente e para trás uma nave espacial (na verdade, um ponto na tela), outra alavanca que acelerava a velocidade e um botão que disparava um torpedo e reduzia a nave inimiga a pó. Game over!
Os três inventores, a quem as indústrias do milionário setor de joguinhos devem pelo menos uma plaquinha de agradecimento na recepção, foram Slug Russel (especialista em inteligência artificial), Wayne Witanen (matemático) e Martin Graetz (nenhuma especialização, mas muita imaginação). O Spacewar mostraria que era possível ao operador escapar da ditadura dos programas quadrados e decidir o que iria acontecer na tela no momento seguinte.
Em 1970, a Xerox Corporation, não querendo perder o bonde do avanço tecnológico, decidiu investigar algumas opções de negócios que poderia vir a ter no futuro, além de fabricar e alugar máquinas copiadoras. Para isso, contratou a nata das cabeças pensantes da época – cientistas, principalmente, mas também gênios recém-saídos de universidades de alta tecnologia e confinou essa turma em seu Centro de Pesquisas em Palo Alto, cidade da Califórnia. Ao fim de quase dois anos espremendo os neurônios, a equipe conseguiu chegar a duas idéias bem interessantes:
A primeira foi um protótipo batizado de Alto, em homenagem à cidade – de uma maquininha desenvolvida para pertencer a um único indivíduo, que poderia, se quisesse, usá-lo até em sua própria casa. O Alto era simplesmente uma tela vertical de televisão, acoplada a um teclado semelhante ao de uma máquina de escrever, e ambos conectados a uma caixa, pouco maior que um nobreak atual, dentro da qual programas com instruções faziam a engenhoca funcionar. O conceito era incrivelmente revolucionário para uma época em que computadores eram equipamentos enormes, pesadões e, principalmente, caríssimos, tanto que só grandes empresas podiam se dar ao luxo de possuir um.
A Xerox tinha inventado o microcomputador?
Inventado talvez não, porque os conceitos estavam voando há algum tempo, e alguns dos técnicos que a Xerox contratara já tinham trabalhado em projetos ligados à computação pessoal. Mas a Xerox foi a primeira a construir um micro que funcionava na prática. Só isso já seria uma história e tanto, mas o Alto tinha outras características ainda mais impressionantes:
• Para abrir os ícones, foi usado um pequeno aparelho, conectado ao micro. Ao movê-lo, o usuário via um pontinho caminhar na tela, reproduzindo o movimento feito com a mão. Era o mouse. Quando o pontinho parava sobre um ícone, tudo o que o usuário tinha a fazer era apertar um dos três botões do mouse para que o programa aparecesse na tela. O mouse não era uma idéia nova (havia sido inventado sete anos antes, em 1965, por um engenheiro, Doug Engelbart, do Instituto de Pesquisas da Universidade de Stanford – e era de madeira!). Mas, ao adaptá-lo ao Alto, o pessoal da Xerox encontrou o uso perfeito e definitivo para ele.
• Ao invés de fazer os caracteres – letras, números e figuras – aparecerem já formados na tela, num processo semelhante ao de uma máquina de escrever, o sistema construía cada um deles, a partir de milhões de pontos isolados (ou pixels), um processo hoje chamado de bit mapping, que é a base de qualquer sistema gráfico.
• Para operacionalizar os comandos do Alto, a Xerox criou uma linguagem com codificação própria, chamada Smalltalk, que permitia a seus programadores desenvolver novos programas e aplicativos compatíveis com o sistema. A diferença era como a de inventar uma palavra nova para um língua já existente, ou ter que criar uma nova língua todos os dias.
Foram construídas 150 unidades do Alto, mas nenhuma chegou a ser colocada à venda – se fosse, seu preço na época teria que ser superior a 30 mil dólares, o que em valores atuais corresponderia a dez vezes mais. Mas o Alto era tão avançado que muitas de suas características não apareceriam nem na primeira geração de microcomputadores da Apple, em 1976, mas só na seguinte, com o Macintosh, em 1984.
De uma tacada só, a Xerox havia antecipado toda a revolução das décadas seguintes, construindo o micro pessoal e antevendo a Internet atual (porque no começo dos 1970 a Arpanet, avó da Internet, não se parecia em nada com a Internet que conhecemos hoje, como se verá na segunda parte deste livro). E, cá entre nós, o nome Ethernet é muito mais bonito: ether, do grego aither, é a região acima das nuvens, onde o sol sempre brilha. Muito melhor que Internet, a rede interativa, teria sido Eternet, a rede do espaço infinito.
Quando o microcomputador finalmente chegou às lojas?
Como a Xerox não colocou o Alto à venda, a honra de lançar o primeiro computador pessoal – em inglês, Personal Computer, ou PC – coube a uma pequena americana de porte médio, a MITS (Micro Instrumentation and Telemetry Systems) em 1975. E não era bem o que hoje reconheceríamos como sendo um micro, mas um kit de partes vendidas separadamente e que tinham que ser montadas pelo próprio usuário. Mas já tinha o cérebro dos micros atuais: um único microprocessador, o chip, fabricado pela – quem mais? – Intel. E as instruções para que ele pudesse funcionar estavam contidas em um programa em linguagem BASIC, escritas por – quem mais? – Bill Gates e seu colega de escola, Paul Allen. Ambos tinham, na época, 18 anos, e estavam apenas entrando na faculdade.
O Altair 8800 custava 395 dólares e tinha 256 bytes de memória. Como cada letra corresponde a um bit, e 256 bytes são 2048 bits, a memória básica do Altair era suficiente apenas para guardar na lembrança o conteúdo de uma página igual a esta…
De apelo comercial limitado – era mais um hobby restrito a um pequeno grupo de entendidos em computação que, entre outras coisas, precisava saber escrever seus próprios programas, já que o Altair não tinha nenhum software -, o bisavô de todos os micros desapareceu logo depois que a Apple entrou no mercado.
Quando apareceu a Apple?
Em 1976, na garagem da casa de Steve Jobs, na Califórnia. A empresa começou no dia 1º de abril e tinha três sócios: Steve Jobs, Stephen Wozniak e Ron Wayne. Quando a Apple surgiu, Jobs e Wayne ainda trabalhavam na Atari, e Wozniak estava na Hewlett Packard, a HP. Na sociedade, Wozniak era o técnico, Jobs, o comercial e Wayne, o administrativo. A idéia do nome Apple foi de Jobs, e outras alternativas consideradas foram Executek e Matrix (esta última, aliás, bem mais apropriada que Apple, tanto sonora quanto tecnologicamente).
A primeira loja a vender o Apple I foi a Byte Shop, da Califórnia, e ao proprietário dela, Paul Terrell, deve-se uma mudança pequena, mas radical, no conceito de como vender micros ao usuário final. A idéia da Apple era competir com o Altair, portanto o Apple I também foi criado para ser vendido na forma de um kit faça você mesmo. Uma caixa, que continha o circuito impresso, mais um saco cheio de pequenas partes, e um manual de montagem de 16 páginas custavam 666 dólares. Terrell prometeu a Jobs comprar 50 unidades a 500 dólares cada uma, desde que os micros já viessem montados e prontos para usar.
Em janeiro de 1977, Ron Wayne decidiu deixar a sociedade e recebeu sua parte: um cheque de 1800 dólares. Se tivesse ficado, teria se tornado milionário menos de três anos depois. A contribuição mais visível de Wayne para a Apple foi o seu primeiro logotipo – uma ilustração mostrando o físico Isaac Newton embaixo de uma macieira – que logo seria substituído pela famosa maçãzinha estilizada, criada por Rob Janov, diretor de arte da agência Regis McKenna (ao que consta, por menos de 500 dólares, uma das maiores barganhas do mercado da propaganda em todos os tempos).
O micro era um grande computador em tamanho menor?
Muito menor, por isso era chamado de pessoal: tinha infinitamente menos memória e menos capacidade de processar dados. A diferença básica é que os grandes computadores (chamados de mainframe, estrutura principal, já que tinham alguns periféricos conectados a eles) possuíam vários microprocessadores e o micro tinha apenas um. Aliás, é desse único microprocessador que surgiu o apelido do micro, e não de uma idéia de tamanho menor. Se fosse assim, o computador pessoal teria sido chamado de míni.
Por que na época nenhuma grande empresa entrou no ramo de micros?
Porque aquilo não parecia ser um grande negócio. O primeiro microcomputador Apple era vendido ao consumidor final por 800 dólares – equivalentes a uns 5 mil dólares, em valores atualizados. Era mais uma mania de fanáticos do que uma utilidade doméstica, como é hoje.
A primeira grande empresa a achar que o negócio de micros não tinha futuro foi a Hewlett Packard. Steve Wozniak ainda trabalhava para a HP, em 1976, quando montou o primeiro protótipo do Apple I e tentou convencer sua empresa a entrar naquele novo ramo. Os diretores da HP fizeram sua obrigação profissional: mandaram memorandos a diversas áreas da empresa, convidando os seus responsáveis para ver uma demonstração prática e em seguida perguntando se aquilo interessava. A resposta, unânime, foi não. Há duas ironias nessa história: a primeira foi que a HP mudou de idéia sete anos depois e lançou sua linha de micros; a segunda é que a própria HP havia sido fundada, décadas antes, por William Hewlett e David Packard, também numa garagem, que ficava a poucos quarteirões da casa de Steve Jobs.
Em 1981, a Apple já faturava 500 milhões de dólares anuais. Nada mal para quem, em 1976, tinha começado o negócio com um capital inicial de 1750 dólares, fruto da venda da calculadora HP de Jobs e da Kombi de Wozniak.
O que os primeiros micros da Apple faziam?
Não muito, se comparados com os de hoje: joguinhos que não ocupassem muita memória e um editor de texto bem simplesinho. O grande salto – que abriria os olhos das corporações para a primeira e real utilidade prática do micro – viria em 1979, com o VisiCalc, a mãe de todas as planilhas eletrônicas de cálculo. Foi o VisiCalc que impulsionou as vendas de um novo modelo que estava sendo lançado, o Apple II, e multiplicou da noite para o dia o valor da Apple como empresa.
Mas… e a IBM?
A IBM demorou para acreditar no mercado de micros e preferiu focar seus esforços nos grandes sistemas, que eram literalmente uma máquina de fazer dinheiro. Foi só em 1979, após o sucesso do VisiCalc, que a IBM acordou. E, aí, pulou da cama com a corda toda.
Em agosto de 1981, o micro da IBM estreou no mercado, vendido a 1565 dólares e com 16K de memória. Mas, quando o IBM-PC chegou às prateleiras, a reação do pessoal da Apple foi de alívio – e de certa arrogância. Steve Jobs diria: A maior empresa de computadores do mundo conseguiu construir um micro pior do que aquele que montamos seis anos atrás numa garagem.
Jobs estava enganado. Com seu sólido nome e sua estrutura de distribuição, já em seu primeiro ano no mercado a IBM vendeu 50 mil micros. E apenas dois anos depois, em 1983, passaria a Apple em vendas.
Quando a IBM entrou no mercado, permitiu que seu sistema operacional – o MS-DOS – fosse usado também por outras companhias. Isso permitia que qualquer empresa de software pudesse desenvolver programas para os micros da IBM e que qualquer empresa de tecnologia pudesse fabricar micros compatíveis com o IBM-PC. A primeira delas foi a Compaq, em 1983, mas logo haveria uma proliferação de marcas famosas no mercado – Toshiba, Dell e HP, entre outras. Já a Apple resolveu trancar a sete chaves seu sistema operacional o Applesoft BASIC e portanto tinha que fazer tudo sozinha.
Rapidamente, as empresas que desenvolviam aplicativos abarrotaram o mercado com programas para os micros da IBM ou seus similares. Além disso, um disquete gravado em um IBM-PC podia rodar em micros de qualquer outra marca, menos num Apple. E um disquete gravado em um Apple só podia rodar em outro Apple. Assim, a IBM estabeleceu um novo padrão para o mercado: ela e o resto de um lado, e a Apple sozinha do outro.
Nessa briga entre a IBM e a Apple, como é que Bill Gates ficou mais rico que as duas?
Ficou por dois motivos: o primeiro foi a sua percepção de que a máquina – ou hardware – se tornaria menos importante que os programas que rodavam nela – os softwares. Gates fundou sua empresa na cidade de Albuquerque, Estado de New Mexico, em 1975, e já a batizou de Micro-Soft (assim mesmo, com hífen e S maiúsculo), uma combinação de software com microcomputador. Era uma aventura, porque o incipiente mercado de micros estava nas mãos de pequenas e desconhecidas empresas com muitas idéias e pouco dinheiro. A própria Apple só seria fundada um ano depois que a Microsoft já existia.
Mas foi o segundo motivo que transformou Gates num bilionário: quando decidiu desenvolver seu micro, a IBM não achou importante criar uma nova linguagem de programação. Em vez disso, resolveu usar um sistema operacional desenvolvido por Gates – o MS-DOS, ou Microsoft Disk Operating System – , mas não o comprou, apenas o alugou, pagando à Microsoft alguns dólares por micro vendido. E, ainda por cima, permitiu que a Microsoft licenciasse o MS-DOS para outras empresas fabricantes de micros. Em pouco tempo, Gates e a Microsoft tinham nas mãos o monopólio do coração de qualquer micro: o sistema que o faz funcionar. Porque o resto era uma caixa de plástico, que qualquer um podia construir.
Por que a gigante IBM simplesmente não comprou a Microsoft?
Ninguém sabe, mas a melhor explicação é que a IBM decidiu que seu negócio não era desenvolver programas, mas sim vender microcomputadores às pencas, o que ela realmente conseguiu fazer. Porém, o próprio Gates também teve lá suas dúvidas sobre o futuro da Microsoft. Em 1979, quando a Microsoft era apenas uma pequena empresa que produzia programas para os nanicos concorrentes da Apple, o milionário texano Ross Perot, duas vezes candidato derrotado à presidência dos Estados Unidos, perguntou se Gates queria vender a empresa. E Gates disse yes! Perot ofereceu algo como 6 milhões de dólares pela Microsoft. Gates pediu 15. Ainda assim, era realmente uma pechincha: aqueles 15 milhões corresponderiam, em valores de hoje, a uns 90 milhões. Só para comparar com uma negociação feita num outro setor, em 1998, a Gessy Lever compraria a brasileiríssima Kibon por quase 900 milhões de dólares, dez vezes mais do que Perot achou que a Microsoft não valia…
O Windows é um sistema operacional ou um aplicativo?
Desde sua versão 95, o Windows é um sistema operacional (o programa básico que faz o micro funcionar). Antes disso, era um aplicativo (que funcionava dentro do sistema MS-DOS). O Windows tem a cara de um prédio cheio de janelas – daí o seu nome – que se abrem para o usuário acessar cada programa, simplesmente clicando nos ícones desejados. Antes do Windows, o usuário de um micro da IBM tinha que digitar uma instrução para abrir um programa, o que requeria memorizar centenas de abreviações em código (do tipo C:>Copy A:*.* ). Um simples sinal trocado já provocava uma mensagem antipática, do tipo Abort, Retry, Fail? e aí a única solução era pegar o manual e ficar procurando a instrução correta. Tudo isso foi substituído por um simples clique do mouse em uma janelinha.
A primeira versão do Windows foi lançada em 1985, não sem alguma confusão, porque ela era parecida demais com as janelas do Macintosh, que já estava no mercado há quase um ano. E havia uma razão para isso: em 1982, Steve Jobs e Bill Gates haviam feito um acordo, pelo qual Gates poderia usar alguns dos recursos visuais do Macintosh, que ainda estava em fase de protótipo, e em troca a Microsoft passaria a desenvolver softwares específicos para os micros da Apple. Antes que algo de prático acontecesse, a Apple voltou atrás, mas Gates decidiu que o acordo continuava válido e tocou o Windows em frente. A Apple processou a Microsoft, e a briga se arrastou até 1993, quando a Justiça deu ganho de causa à Microsoft.
Em 1989, no auge da encrenca, Bill Gates lembrou que as janelas da Apple tinham sido, na verdade, inventadas pela Xerox, no projeto do Alto.
Quem fez o primeiro notebook, a IBM ou a Apple?
Por incrível que pareça, nenhuma das duas. E, mais incrível ainda, não foi nenhuma das grandes empresas de tecnologia. O micro portátil foi lançado em 1981, por uma empresinha desconhecida, a Osborne Computers. O Osborne I pesava 12 quilos, mas apesar de ser um peso-pesado se tornou um sucesso instantâneo. Tinha tudo o que um micro tinha e era uma pechincha: custava 1800 dólares, só 15% a mais que o micrão da IBM.
Adam Osborne, o dono da empresa, deu a seu micro portátil o nome de laptop, algo como nas coxas, só que no bom sentido: é que, quando os computadores pessoais foram lançados, eles ganharam o apelido de desktop, ou em cima da mesa, para diferenciá-los dos enormes computadores das empresas, que ficavam no chão. Daí, o micro portátil virou laptop, no colo. E, mais recentemente, apareceu o palmtop, porque cabe na palma da mão. Do jeito que vai, o próximo passo talvez seja o nailtop, pois deverá caber na unha – e ainda vai sobrar espaço.
Mas foi só o Osborne I aparecer e os grandões caíram de pau. Surpreendido com a enorme demanda, Adam Osborne precisou de tempo e de capital para ampliar suas instalações e sua rede de distribuição. Só que, enquanto se preparava, os concorrentes, muito maiores e mais bem aparelhados, lançaram suas próprias versões de micros portáteis, com tecnologia mais avançada, menos peso e menor tamanho. Vítima de seu sucesso, a Osborne foi à falência menos de dois anos após revolucionar o mercado.
Mas o que realmente mudou nos computadores?
Não é bem o que mudou, é o que está mudando, pois tudo indica que o processo evolutivo ainda está só no começo. Essa mudança está na capacidade de processamento e de armazenagem de dados na memória do computador: quanto mais memória, mais tarefas podem ser executadas, e cada vez com mais sofisticação. Os efeitos especiais que se vêem num filme como O Parque dos Dinossauros, por exemplo, são o resultado prático dessa evolução: eles só não foram feitos antes porque não havia computadores com memória capaz de processar as toneladas de dados necessárias para animar os mastodontes.
Em 1981, quando a IBM lançou seu primeiro micro pessoal, cada kilobyte de memória custava aproximadamente 100 dólares (16K de memória a 1565 dólares). Hoje, um micro com 20 gigabytes de memória custa 4 mil dólares, o que quer dizer que o preço de 1 kilobyte caiu para um valor cem vezes menor que 1 centavo de dólar. Ou seja, o custo para se executar uma mesma operação num micro foi reduzido para 1/10000000 do valor original. Se a velocidade dos aviões a jato comerciais tivesse aumentado na mesma proporção, uma hipotética viagem da Terra à Lua num Boeing, que em 1981 levaria 17 dias, hoje seria feita em menos de 15 milésimos de segundo.
Curiosamente, tem uma coisa que não mudou: o teclado, ou keyboard. É certo que novas teclinhas foram adicionadas a ele – as de função, a de enter e outras – mas as letras continuam na mesma ordem desde 1873, quando a Remington & Sons, de Nova York, colocou no mercado a primeira máquina de escrever que realmente funcionava. Na fase de testes da máquina da Remington, as letras estavam arranjadas em ordem alfabética, mas isso fazia com que as hastes se enganchassem e travassem com irritante freqüência. Então, o inventor da máquina, Christopher Sholes, teve uma idéia: fez uma lista das letras mais usadas na língua inglesa e colocou essas teclas o mais distante possível umas das outras, – o E e o O, por exemplo, as que mais se repetem, estão em setores opostos do teclado. Do arranjo alfabético original, ficaram apenas vagas lembranças: f-g-h vêm em seqüência, assim como j-k-l. Por que, 130 anos depois, ninguém ainda mudou isso? É que a gente se acostumou tanto que já nem percebe…
Quem são a ROM e a RAM?
Embora pareça nome de dupla sertaneja, ROM e RAM são os dois tipos de memória contidas no microprocessador do computador. A diferença básica entre elas é que a ROM trabalha com informações fixas e permanentes e a RAM lida com informações temporárias, que tanto podem ser guardadas ou apagadas quando o computador é desligado. De forma geral, pode-se dizer que a ROM trabalha para o usuário, enquanto que o usuário trabalha com a RAM.
Essas máquinas de café de escritório ou de refrigerante dos postos de gasolina, que parecem um armário, têm um microprocessador. Quando o usuário escolhe sua opção – café com leite, com pouco açúcar, por exemplo – , a máquina executa uma operação, a partir de instruções fixas e seqüenciais: baixa o copinho, mistura os pós de café e de leite e o açúcar, esquenta e despeja a água, e libera o misturador de plástico. Tudo isso é feito a partir de uma memória do tipo ROM, porque o usuário não interfere no processo, nem pode mudar as proporções de pós e água na mistura.
A palavra random tem origem francesa – randir – e antigamente significava galopar sem destino. Depois, foi adotada pela Estatística para definir qualquer fato que acontece ao sabor do acaso, sem método, como os números da Mega Sena, por exemplo. Daí, entrou para o ramo da computação, com o sentido de você decide.
O que é um megahertz?
É a medida da velocidade de operação de um microprocessador. Um megahertz, ou MHz, corresponde a 1 milhão de ciclos por segundo. Na prática, isso quer dizer que um microprocessador de 600 MHz pode fazer 600 milhões de operações aritméticas em 1 segundo.
A palavra é uma homenagem ao físico alemão Heinrich Hertz, que descobriu o fenômeno das vibrações eletromagnéticas no início do século 20. A primeira grande aplicação prática e de alcance popular do invento de Hertz foram as transmissões de rádio (nos anos 40, os locutores das rádios do Interior do Brasil proclamavam, eufóricos: Este é o milagre do rádio, e esta é a sua Rádio Difusora, ZYE 6, mandando para o éter suas ondas artesianas!). É que naqueles tempos pronunciar hertzianas era meio complicado…
Informática não é uma palavra americana?
Não. Não há nada parecido na língua inglesa. O nome foi criado pelos italianos, ainda na era jurássica da computação (período anterior aos anos 70, quando qualquer computador, por mais simplesinho que fosse, pesava mais que um caminhão) e nasceu da junção de informazione com matemática. A palavra é bonita e prática e por isso foi aceita pelos brasileiros e entrou no nosso dicionário. Além dela, os italianos criaram vários outros termos, como sistemística (que não sobreviveu fora da Itália) e telemática (que hoje anda forte e rija pelo mundo afora).
Enquanto isso, aqui no Brasil…
Pois é, nós também temos nossa historinha digital para contar. Na década de 70, quando os micros começaram a ganhar projeção mundial, nosso governo resolveu criar uma reserva de mercado (ou seja, proibir as importações) com a melhor das intenções: permitir que os fabricantes locais desenvolvessem sua própria tecnologia para um dia competir em igualdade de condições com os gigantes alienígenas. Como era praxe na época, foi criada uma agência governamental encarregada de regulamentar todo o processo. Quando o primeiro computador brasileiro foi fabricado, a ditadura fez uma festa. Teve até padre para benzer o bichinho. Como conseqüência, da reserva de mercado, mais que estatizada, nossa microinformática ficou engessada por longos 17 anos.
Na prática, a reserva de mercado – da qual ainda restam resquícios, já que a importação de itens de informática continua limitada ou sobretaxada – atrasou a entrada do Brasil no mundo dos computadores pessoais: algumas privilegiadas empresas nacionais importavam os componentes lá de fora, a preços camaradas e livres de impostos, montavam os micros em Manaus, e faziam pouco mais que grudar neles os seus próprios logotipos. Embora nossa mão-de-obra fosse bem mais barata, e Manaus oferecesse vantagens fiscais para os montadores, os micros eram vendidos a preços cavalares, já que não havia a concorrência externa. Sem falar que nossos micros estavam sempre tecnologicamente desatualizados, já que não havia pressa.

2911 – Extinção imediata


Arisca e desconfiada, a gazela-do-iêmen vivia em regiões montanhosas, afastada dos humanos. Mas não longe o bastante, e agora só restam exemplares empalhados
A gazela-do-iêmen era um animal comum nas montanhas próximas à cidade de Ta’izz, em 1951, quando cinco exemplares foram levados para o Museu de História Natural de Chicago, nos Estados Unidos. Os pesquisadores estrangeiros só voltaram ao local para estudar o comportamento e os hábitos da Gazella bilkis em 1992. Dessa vez, a história era bem diferente. Os cientistas vasculharam todas as planícies e colinas de Ta’izz, mas não encontraram nem rastro do animal. Em 1999, a IUCN (sigla em inglês para União Internacional para a Conservação da Natureza e dos Recursos Naturais) declarou o bicho extinto.
Também chamada de rainha-de-sabá, a gazela-do-iêmen vivia em pequenos grupos, normalmente com um macho e três fêmeas. O lugar preferido eram as montanhas de Ta’izz, com altitudes que variam de 1 230 até 2 150 metros. Os animais nunca foram avistados próximos a áreas cultivadas ou estradas, o que indica que a presença humana não transmitia muita confiança para eles. Como em todos os bichos, o instinto de sobrevivência falava alto. A progressiva degradação do ambiente natural e a caça descontrolada, motivadas pelo homem, reduziram a população de gazelas-do-iêmen. Para a extinção, bastaram os 40 anos nos quais a espécie ficou esquecida nas pesquisas dos cientistas. As únicas gazelas restantes estão empalhadas e são exibidas num museu de Chicago, nos Estados Unidos. A triste imagem imóvel revela um animal elegante, com pêlo marrom e detalhes de branco em volta dos olhos, no pescoço e na barriga. Para se defender dos predadores, a gazela-do-iêmen tinha dois chifres levemente curvados para trás.
O nome da gazela é uma referência à região onde ela vivia. Há 3 000 anos, a rainha de Sabá governava parte da região que é o atual Iêmen. Para os árabes, ela se chamava Belkis, daí o nome científico ser bilkis. A tradição religiosa apresenta a rainha como uma mulher sábia e justa. Exatamente as qualidades que faltaram ao homem antes de exterminar definitivamente a gazela-do-iêmen.
Gazela-do-Iêmen
Nome científico: Gazella bilkis
Ano da extinção: 1999
Habitat: Iêmen

2910 – Animais em extinção: A vida em perigo


O tempo passa e o homem não aprende. Nos últimos cinco séculos, uma espécie de animais sumiu a cada dez meses
Com 4,5 bilhões de anos, a Terra está passando pela pior devastação da vida animal em sua história. Apenas nos últimos 500 anos, 608 animais desapareceram do planeta, 311 deles vertebrados. A maioria foi extinta pela interferência do homem na natureza: destruição de ecossistemas, caça e pesca predatórias, introdução de espécies estranhas aos habitats e substituição de florestas por plantações. Essa triste estatística indica que, a partir da chegada dos colonizadores europeus ao Novo Mundo, uma espécie sumiu a cada dez meses. A taxa de extinção de animais no século 20 é cem vezes maior do que antes do século 15.
A devastação por classes de animais
Proporcionalmente, osmamíferos são os bichosmais ameaçados
Aves
9 932 espécies conhecidas
1194 ameaçadas
129 extintas
Mamíferos
4 842 espécies conhecidas
1 130 ameaçadas
74 extintas
Répteis
8 134 espécies conhecidas
293 ameaçadas
21 extintas
Anfíbios
5 578 espécies conhecidas
157 ameaçadas
7 extintas
Peixes
28 100 espécies conhecidas
750 ameaçadas
80 extintas
Fontes: União Internacional para a Conservação da Natureza e dos Recursos Humanos (IUCN), Worldwatch Institute (WWI) e World Widelife Fund for Nature (WWF)
O estrago por continentes
A América do Norte é a campeã emnúmero de espécies de animais oficialmente extintas. A África vem logo atrás
Europa
892 espécies ameaçadas
19 extintas
América do Norte
356 espécies ameaçadas
245 extintas
América Central
1 074 espécies ameaçadas
76 extintas
América do Sul
1 111 espécies ameaçadas
13 extintas
África
1 949 espécies ameaçadas
234 extintas
Oceania
841 espécies ameaçadas
171 extintas
Ásia
3 207 espécies ameaçadas
33 extintas
*Algumas espécies vivem em mais de um continente. Por isso, a soma por continente é maior do que a soma por classe taxonômica

Anfíbio em extinção: Sumiço relâmpago
Cientistas queriam estudar a gestação da rã eungellagastric-brooding, que choca seus ovos no estômago. Mas não houve tempo de fazer quase nada
Logo após a descoberta da rã Rheobatrachus vitellinus, em janeiro de 1984, no Parque Nacional de Eungella, região centro-leste do Estado de Queensland, na Austrália, foi criado um programa de monitoramento dessa espécie. O objetivo era avaliar até que ponto esse anfíbio corria risco de extinção. Isso porque, três anos antes, um parente próximo, Rheobatrachus silus, havia desaparecido da face da Terra, e os cientistas queriam evitar que a espécie recém-identificada tivesse o mesmo destino. Mas não houve tempo de fazer muita coisa. Pouco mais de um ano depois, em março de 1985, o R. vitellinus deu seu último sinal de vida.
Conhecido pelos nomes populares eungella gastric-brooding frog ou então northern gastric-brooding frog (em português, seria algo como “rã incubadora gástrica do norte”), o R. vitellinus tinha um curioso processo de reprodução, similar ao do R. silus. Ambas as espécies engoliam seus ovos fertilizados, interrompiam o funcionamento do sistema digestivo e chocavam os ovos no estômago. A barriga da rã ficava tão cheia de girinos que mal conseguia inflar os pulmões de ar. Após seis a sete semanas de incubação, a rã regurgitava os filhotes pela boca. Nessa hora, permanecia com a boca bem aberta para facilitar a saída dos rebentos. Na única vez que o espetáculo do nascimento foi testemunhado, durou 34 horas.
O R. vitellinus tinha hábitos noturnos e, por isso, raramente era visto durante o dia. Gostava de ficar submerso na água somente com os olhos para fora. Sua coloração era marrom opaca, com manchas escuras ao longo do corpo. Pareciam pequenos pontos flutuantes, por causa de seu tamanho: a fêmea media de 42 a 58 milímetros e o macho, de 47 a 83 milímetros. Circulava entre as rochas dentro da água. Dali tirava seu alimento, capturando pequenos insetos e larvas.
As causas de sua extinção não são conhecidas. A teoria mais recente aponta o fungo Chytridiomycota como responsável pelo sumiço da rã. O fungo pode ter sido introduzido no habitat por meio de peixes migratórios, pássaros e insetos aquáticos. Alguns cientistas acreditam que a resistência do anfíbio foi sendo minada por mudanças climáticas provocadas pelo efeito estufa e pela contaminação das águas pela atividade da mineração.
Eungella Gastric-Brooding Frog
Nome científico: Rheobatrachus vitellinus
Ano da extinção: 1985
Habitat: centro-leste de Queensland, Austrália

Final do ☻ Mega Bloco, extinção de espécies

2909 – Animais em extinção: As próximas vítimas?


Em 2003, havia 5 483 espécies de animais ameaçadas de extinção, segundo a IUCN (União Internacionalpara a Conservação da Natureza). Veja uma pequena amostra do que a Terra corre o risco de perder
INIMIGOS À SOLTA
Pesando até sete toneladas, o elefante africano (Loxodonta africana) é um dos maiores animais da Terra. Anda sempre em grupos para se proteger dos predadores e, quando os leões não estão por perto, seu mais temido inimigo são – adivinhe quem? – os humanos
DE 65 EM 65…
Nos últimos 65 anos, a população do albatroz-de-sobrancelha (Thalassarche melanophrys), que se concentra nas Ilhas Malvinas, diminuiu 65%. E, nos próximos 65 anos, deve cair pela metade, devido ao impacto da indústria pesqueira
GIGANTE AMEAÇADA
Por causa do seu tamanho – é o maior animal do planeta –, a baleia-azul (Balaenoptera musculus) foi sempre muito caçada pelo homem e, por isso, está ameaçada de extinção. O maior exemplar capturado tinha 33,5 metros e pesava 190 000 quilos
CADÊ COMIDA?
O panda-gigante (Ailuropoda melanoleuca) virou um símbolo dos movimentos ecológicos. A destruição dos bambuzais, de onde retira quase toda a comida, ameaça sua sobrevivência
UM DIA DA CAÇA…
Encontrado na costa brasileira, o peixe-serra (Pristis pectinata) esfola os animais marinhos que tiverem o azar de passar perto de seus dentículos afiados. Por outro lado, ele tem sido vítima da pesca predatória e da degradação do seu habitat
É MELHOR NÃO ACORDAR
O gorila-da-montanha (Gorilla gorilla), aqui tirando uma soneca, é geralmente tímido e afetuoso. Mas, como seus primos humanos, esse mamífero de até 230 quilos é capaz de lutar até a morte para defender seus filhotes

2908 – Animais extintos: Miniatura de morcego


O pequeno morcego comedor de frutas já era uma espécie rara na ilha de Guam. Os caçadores trataram de colocá-lo na lista dos animais extintos
Nativo da Ilha de Guam, um dos territórios dos Estados Unidos no Oceano Pacífico, o pequeno-morcego-de-frutas-mariana desapareceu da Terra devido à intervenção humana e aos rigores da natureza. Os homens atacaram com armas de fogo e destruíram o habitat do morcego, enquanto a natureza mandou impiedosos furacões. Mesmo no auge da sobrevivência, o pequeno-mariana sempre foi um animal raro. Prova disso é que os cientistas coletaram apenas três espécimes desde que os colonizadores espanhóis, japoneses e americanos pisaram na ilha do povo chamorro, a partir do século 16. O último exemplar conhecido data de 1968 – e foi abatido por caçadores. Desde então, outros pequenos-marianas foram procurados na região e na vizinha Ilha Mariana do Norte, mas jamais foram encontrados. Só restou o parente mais próximo, o morcego-de-frutas-mariana (Pteropus marianus marianus), maior em comprimento e em envergadura, que ainda sobrevoa as matas de Guam.
O pequeno morcego media cerca de 15 centímetros da cabeça ao rabo e de 65 a 71 centímetros de uma asa à outra. A cor do abdome e das asas variava do marrom ao marrom-escuro, com alguns pêlos brancos, enquanto o pescoço era coberto por um manto marrom ou dourado. Boa parte dos hábitos do morceguinho é conhecida pela observação do primo mariana. Quando não estava dormindo durante o dia, ele encontrava tempo para interagir com outros morcegos, em busca de reprodução, ou para defender território, pois o macho podia ter várias parceiras. Depois do pôr-do-sol, voava em grupos por várias horas para se alimentar de frutas e flores, como mamões, figos e cocos. Por causa de suas preferências alimentares, o pequeno-mariana tinha um papel relevante na polinização de plantas e distribuição de sementes. Ele também era importante no cardápio dos chamorros, que consideravam a espécie um prato delicioso, o que pode ter acelerado a extinção desses mamíferos voadores. A situação se agravou com o advento das armas de fogo, que tornaram a caça bem mais fácil.
Aquela última fêmea vista por olhos humanos, morta pelos caçadores em 1968, estava acompanhada de um morcego jovem. Era provavelmente um filhote, que conseguiu escapar dos tiros. Não houve tempo de observar se a mãe estava carregando o morceguinho ou se os dois voavam juntos. Segundo os especialistas do Instituto de Administração da Conservação (um centro de estudos ligado à Faculdade de Tecnologia da Virgínia, nos Estados Unidos), isso pode indicar que os cuidados maternos duravam vários meses depois do nascimento. A fim de evitar o mesmo triste destino para os primos sobreviventes, o governo de Guam limitou a caça dos marianas e criou quatro reservas selvagens, totalizando 1 700 hectares. Mesmo assim, a espécie continua ameaçada.
Pequeno-morcego-de-frutas-Mariana
Nome científico: Pteropus tokudae
Ano da extinção: 1968
Habitat: Ilha de Guam

2907 – Animal extinto: Dublê de corpo


Ela parecia um pingüim, mas as duas aves não eram parentes. A alca-gigante teve menos sorte e entrou cedo para a galeria dos animais extintos
Seu dorso era coberto por uma plumagem negra. Tinha o peito branco e duas grandes manchas ovaladas também brancas entre o bico e os olhos, além de pequenos pontos marrons na cabeça e no pescoço. Embora ela fosse alta, suas asas eram pequenas e não lhe permitiam voar. Na água elas funcionavam como excelentes nadadeiras, ajudando-a escapar de seus predadores. Em terra, em posição ereta, sobre as patas, parecia desengonçada. Graças a uma densa capa de gordura subcutânea, vivia sem problema em lugares muito frios. Embora essa descrição lembre muito a aparência e o comportamento dos pingüins, a alca-gigante não tem parentesco direto com as simpáticas aves que até hoje habitam as regiões mais geladas do planeta.
A alca-gigante (great auk, em inglês) é, provavelmente, a mais conhecida das aves extintas nos últimos três séculos. Ficou tão famosa que, à época da Primeira Guerra Mundial, havia um cigarro chamado Great Auk. O nome Great Auk Head também foi marca de vinho. Membro da família alcidae, a alca se destacava pelo tamanho: tinha cerca de 75 centímetros de altura e suas asas atingiam em torno de 16 centímetros. Todas as outras espécies eram bem menores. Assim como os pingüins, alimentava-se de peixes e crustáceos. Quase não emitia sons e, quando o fazia, grunhia baixinho. Para proteger os filhotes, as fêmeas punham os ovos (que tinham o formato de pêra) nas rochas.
A alca-gigante viveu numa vasta área do Atlântico Norte. Por causa de sua pele, ovos, carne e gordura, foi sempre alvo de pescadores e colecionadores. A caça à ave ganhou força com o avanço dos colonizadores europeus. Em 1534, o explorador francês Jacques Cartier descobriu o grande reduto da ave – a Ilha Funk, perto da província canadense de Newfoundland. Logo depois, pescadores de bacalhau e lagosta passaram a usar as alcas como iscas. Nessa época, elas eram tão comuns que as pessoas enchiam um barco inteiro com suas carcaças. No início do século 19, porém, as alcas-gigantes passaram a ser vistas apenas em alguns pontos da costa da Islândia.
O pintor britânico Errol Fuller, autor de vários livros sobre aves extintas, diz que o desaparecimento da alca-gigante é uma prova da ignorância e crueldade humanas. Há relatos de que um dos últimos exemplares capturados vivos foi espancado até a morte, por ter sido considerado um espírito mau, causador de fortes ventos que castigaram a região na noite seguinte à sua captura. A última alca-gigante de que se tem notícia foi abatida em 1844, na Islândia. Da pobre ave restam hoje cerca de 80 peles e 75 ovos em coleções e museus espalhados pelo mundo.
Alca-gigante
Nome científico: Alca impennis ou Pinguinus impennis
Ano da extinção: 1844
Habitat: Atlântico Norte

2906 – Animal marinho extinto: O fim do sossego


A foca-monge-do-caribe viveu sem ser incomodada durante 15 milhões de anos. Em pouco mais de 400 anos, o homem conseguiu estragar tudo
Durante 15 milhões de anos, a foca-monge viveu com tranqüilidade nas águas tropicais do mar do Caribe. Até que, no século 15, os primeiros navegadores europeus chegaram ao Novo Mundo. Em pouco mais de 400 anos, o Monachus tropicalis foi exterminado por pescadores e caçadores, desaparecendo de vez do planeta em 1952. A descrição do pacato animal marinho – o primeiro grande mamífero avistado no continente americano – foi feita pela tripulação de Cristóvão Colombo, em 1494. Quando o líder da expedição mandou matar oito focas-monges para alimentar os marinheiros, sem perceber, estava abrindo o caminho para a extinção da espécie. Nos séculos seguintes, centenas de focas foram mortas pelos colonizadores europeus, que usavam a gordura como combustível, e pela indústria pesqueira, que considerava o bicho um competidor. Colecionadores também dizimaram várias focas-monges-do-caribe, em busca de peles para os seus museus.
Em 1707, o historiador irlandês Hans Sloan descreveu esse mamífero como um animal de fácil aproximação e não-agressivo. Como as ilhas no Caribe estavam superpovoadas pelas focas-monges, os pescadores não tinham dificuldade em matá-las. Assim, no final do século 19, o bicho já era uma raridade. O último exemplar vivo foi observado em Seranilla Bank, um arquipélago de pequenas ilhas de corais entre a Jamaica e Honduras. Em 1996, a foca-monge-do-caribe foi declarada oficialmente extinta.
Não houve tempo de estudar os hábitos desses mamíferos. Sabe-se que os machos mediam de 2,1 a 2,4 metros e as fêmeas eram ligeiramente menores. Os adultos tinham a pele das costas marrom, com alguns tons de cinza, e a barriga e o focinho amarelados. As poucas observações feitas pelo homem sugerem um animal sociável, pois ele raramente apresentava sinais ou feridas de luta, além de ser visto normalmente em grupos de 20 a 40 indivíduos, muitas vezes amontoados uns sobre os outros. Há registros de grupos compostos de até 100 indivíduos.
As focas mais jovens costumavam descansar em piscinas naturais de água, provavelmente para regular a temperatura do corpo. Ao perceberem a aproximação humana, elas reagiam com um som similar a um rosnado ou latido de cão. Apesar de ainda existirem duas subespécies sobreviventes, uma no Mediterrâneo e outra no Havaí, os parentes mais próximos da foca-monge-do-caribe são as focas da Antártica. De que forma a família se espalhou do Pólo Sul para os trópicos continua um mistério.
Foca-Monge-do-Caribe
Nome científico: Monachus tropicalis
Ano da extinção: 1996
Habitat: Mar do Caribe

2905 – Espécie extinta: Não sobrou um pombo


O passenger pigeon foi vítima de uma das maiores matanças de animais da história. Sua extinção estimulou as primeiras leis de proteção à fauna
passenger pigeon (“pombo-viajante”), nativo dos Estados Unidos, já foi considerado a ave mais abundante na Terra. Algumas estimativas dão conta de que, quando os colonizadores europeus chegaram ao Novo Mundo, havia em torno de 5 bilhões desses pombos na América do Norte – quase o mesmo número de todos os pássaros que se calcula existir hoje nos Estados Unidos.
Com apenas 20 centímetros de comprimento, o pombo vivia em enormes colônias, formadas por até 2 milhões de indivíduos. Na época da migração, antes do início do inverno, eles saíam da região de Ontário e dos Grandes Lagos, no Canadá e norte dos Estados Unidos, e voavam em direção ao sul, para os Estados americanos do Texas, Louisiana, Alabama, Geórgia e Flórida, onde passavam os meses mais frios do ano. Migrando sempre em numerosos bandos, os pombos chegavam a obstruir a passagem da luz do sol, formando uma barreira natural, no céu, de quase 300 quilômetros de extensão. Ao chegar aos locais onde passariam o inverno, empoleiravam-se em árvores, ocupando áreas de até 850 quilômetros quadrados.
A estratégia de vida em grupo garantiu a sobrevivência do passenger pigeon por séculos. Mesmo que as aves fossem atacadas por raposas e lobos, seus predadores naturais, isso não chegava a ser significativo para o grupo. Os pombos dispunham de farta alimentação. Seu habitat eram as florestas, ricas em sementes, castanhas e frutas. Quando as matas começaram a ser derrubadas, no início do século 19, a vida ficou mais difícil para o pombo. Mas o que decretou o seu fim foi mesmo a caça indiscriminada. Como os pombos viviam em colônias enormes, era fácil matar centenas deles de uma só vez. Os caçadores vendiam os pássaros nas grandes cidades, como Nova York, por um preço acessível – 50 centavos de dólar a dúzia –, e muita gente passou a servir o pombo no almoço e no jantar. Com tanta matança, a situação logo ficou dramática. Por volta de 1880, já não se viam mais as imensas colônias. Como a fêmea só colocava um ovo por vez, era quase impossível repor o número de pombos necessário para que a ave não desaparecesse. Acostumados a conviver com milhares de companheiros, alguns dos últimos remanescentes do passenger pigeon acabaram morrendo de solidão.
Consta que, em um único dia de 1887, caçadores mataram 50 000 pombos de uma colônia que descansava no Michigan. A chacina comoveu as autoridades americanas, que resolveram criar a primeira lei limitando a caça de uma espécie animal. A restrição seria estendida depois a outras espécies de aves e mamíferos. Foi a primeira vez na história que um país decidiu preservar efetivamente seus animais. Mas a medida chegou tarde demais para o passenger pigeon. Em poucos anos, a ave foi extinta. O último exemplar conhecido, chamado Martha, morreu no Zoológico de Cincinnati, em Ohio, no dia 10 de setembro de 1914. Empalhado, o pombo pode ser observado no Instituto Smithsonian, em Washington. Suas penas coloridas chamam a atenção de quem observa a redoma que guarda o pássaro que já foi a espécie mais popular do mundo.
Passenger Pigeon
Nome científico: Ectopistes migratorius
Ano da extinção: 1914
Habitat: Estados Unidos e Canadá

2904 – Espécies em extinção: Corrida contra a panela


Tão antigas quanto os dinossauros, as tartarugas começam a perder a batalha pela sobrevivência
As primeiras tartarugas já existiam desde a época dos dinossauros, há cerca de 200 milhões de anos. Os dinossauros se foram há muito tempo, enquanto as tartarugas continuam resistindo heroicamente em sua carapaça. Mas a luta pela sobrevivência vem ficando cada vez mais difícil. Prova disso é que, somente no continente asiático, 75% das 90 espécies conhecidas de tartarugas e cágados de água doce estão ameaçadas, segundo a União Internacional para a Conservação da Natureza e dos Recursos Naturais (IUCN). Dessas espécies, 45 são consideradas “criticamente em perigo” e uma já desapareceu para sempre: a Cuora yunnanensis, conhecida pelo nome popular em inglês Yunnan box turtle (literalmente, “tartaruga-caixa-de-yunnan”).
Originária da província de Yunnan, no sul da China, a tartaruga ganhou esse nome porque, ao se encolher, ela conseguia se esconder inteiramente dentro da carapaça, como se estivesse numa caixa. É provável que essa tartaruga tenha desaparecido há várias décadas. A última vez que um exemplar foi observado com vida foi em 1906. Depois disso, apesar das intensas buscas realizadas pelos pesquisadores, ela só pôde ser apreciada em museus. Em 2001, finalmente, a IUCN jogou a toalha e declarou essa espécie oficialmente extinta.
Enquanto muitos répteis desapareceram pelas mãos do homem, a Cuora yunnanensis sumiu literalmente pela boca – principalmente dos chineses, grandes apreciadores da carne desse animal. Os asiáticos acham que a iguaria melhora a circulação sangüínea e faz bem ao fígado e aos rins. Alguns restaurantes chineses cobram mais de 1 000 dólares por um jantar cujo prato principal é a disputada tartaruga-dourada-do-laos. Muitos chineses acreditam que as carapaças da tartaruga possuem propriedades afrodisíacas e melhoram o desempenho sexual. Resultado: a cada ano, cerca de 12 milhões de tartarugas de diversas espécies vão parar nas cozinhas, nos restaurantes ou nos laboratórios medicinais da China.
Yunnan Box Turtle
Nome científico: Cuora yunnanensis
Ano da extinção: 2001
Habitat: Yunnan (província da China)