O Euro Túnel


Consiste em uma gigantesca obra da engenharia que interliga a Inglaterra à França. Como existe uma barreira geográfica entre os dois países, o canal da Mancha, foi preciso que o túnel fosse construído a 40 metros abaixo desse canal. A distância entre os dois países é de 50 km. Essa construção é composta por três túneis paralelos.

O Eurotúnel foi inaugurado em 1994, após oito anos de muito trabalho e um investimento de 16 bilhões de dólares, oriundo da França e da Inglaterra.

Os três túneis paralelos possuem funções distintas, dois possuem compartimentos usados para transportar caminhões, carros e passageiros, e o outro é usado para o sistema de ventilação.

O trajeto entre os dois países, feito em um trem (Eurostar), demora aproximadamente 35 minutos, em uma velocidade média de 160 km/h. O túnel é considerado uma das sete maravilhas do mundo moderno, segundo a Sociedade Americana dos Engenheiros Civis.

A construção desse empreendimento foi sem dúvida um grande passo para a integração no seguimento político-econômico entre França e Inglaterra, além de amenizar o isolamento Britânico em relação ao que se desenvolve na União Européia.

Tecnologia – Google lança sua nova IA


Vídeo mostra habilidades impressionantes do Gemini, algoritmo de inteligência artificial criado para rivalizar com o GPT-4, mas teste real foi um pouco diferente; empresa admite que demo teve edição. 

“Andamos testando as habilidades do Gemini, nosso novo modelo de IA multimodal”, diz uma mensagem logo no início da demonstração, que o Google publicou no YouTube.

“Andamos testando as habilidades do Gemini, nosso novo modelo de IA multimodal”, diz uma mensagem logo no início da demonstração, que o Google publicou no YouTube 

“Me diga o que você está vendo”, pede uma pessoa, enquanto vai fazendo um desenho em um post-it. O Gemini vai falando. 

– Vejo você colocando um pedaço de papel sobre a mesa. 

– Vejo uma linha ondulada

O robô faz observações sobre o animal (“o pato é uma ave aquática da família Anatidae. Os patos são aparentados dos gansos e cisnes), e a pessoa segue desenhando: agora, ela pinta o bicho de azul, para testar a reação do Gemini. 

– O pato parece ser azul. Não é uma cor comum para patos. Contudo, existem algumas espécies de pato azul. Elas não são tão comuns quanto as outras. É mais comum que os patos sejam marrons, pretos ou brancos. 

Aí começa a parte mais impactante: a pessoa pega um patinho de borracha azul, mostra ao Gemini, e coloca o objeto em várias situações – sozinho, sobre um mapa, como parte de um jogo, etc. A conversa ai mudando de tema e o robô sempre entende tudo, instantaneamente, só de olhar. 

Foi uma demonstração sem precedentes de habilidade multimodal, ou seja, envolvendo vários tipos de mídia (texto, voz, imagem) ao mesmo tempo. O GPT-4, algoritmo mais sofisticado da OpenAI, não é nem de longe tão ágil e inteligente. Então o vídeo do Gemini, que já teve 2,1 milhões de visualizações, despertou uma série de previsões maravilhadas para o futuro da IA.  Ele seria capaz, por exemplo, de assistir a uma reunião, entender tudo, e depois resumir para você. Dar aulas, interagindo em tempo real com os alunos.

Ao apresentar o Gemini, o Google divulgou resultados de testes comparando seu algoritmo ao GPT-4: ele teria batido o rival da OpenAI, por uma pequena margem, em 30 dos 32 testes. A nova IA terá três versões: Gemini Nano, que irá rodar localmente nos smartphones Google Pixel, sem precisar de conexão à nuvem; Pro, que já está no ar, alimentando a versão em inglês do chatbot Google Bard; e Ultra, mais pesado e sofisticado, que tem lançamento prometido para 2024. 

Cibernética – O Primeiro Cyborg


Trata- se de Neil Harbisson (Londres, 27 de julho de 1984). Em 2004, se tornou a primeira pessoa reconhecida como ciborgue por um governo. Harbisson tem acromatopsia, uma condição que desde o nascimento o obrigou a ver o mundo em preto e branco. Desde os 20 anos, tem instalado um olho eletrônico chamado eyeborg, que permite ao artista escutar as cores. Em 2010, inaugurou a Fundação Cyborg, uma organização internacional para ajudar os seres humanos a converterem-se em cyborgs e defender os direitos dos cyborgs. O trabalho de arte de Harbisson foi classificado em conjunto com as obras de Yoko Ono e Marina Abramović como uma das 10 performances de arte mais chocantes de todos os tempos. Harbisson mudou-se para a Irlanda em setembro de 2001 para concluir seus estudos de piano na “Walton’s New School of Music”, Dublin. Em 2002, ele se mudou para a Inglaterra, onde estudou composição musical no “Dartington College of Arts”. Em 2016, Harbisson lançou a Cyborg Nest, uma empresa que desenvolve implantes humanos que visam expandir as sensações e os sentidos.

Tecnologia-A Era do Chip


O Chip é um circuito eletrônico miniaturizado (composto principalmente por dispositivos semicondutores) sobre um substrato fino de material semicondutor.
equipamentos eletrônicos usados hoje e revolucionaram o mundo da eletrônica.
Um circuito integrado híbrido é um circuito eletrônico miniaturizado constituído de dispositivos semicondutores individuais, bem como componentes passivos, ligados a um substrato ou placa de circuito.
Os circuitos integrados foram possíveis por descobertas experimentais que mostraram que os dispositivos semicondutores poderiam desempenhar as funções de tubos de vácuo, e desde meados do século XX, pelos avanços da tecnologia na fabricação de dispositivos semicondutores.
A integração de um grande número de pequenos transístores em um chip pequeno foi uma enorme melhoria sobre o manual de montagem de circuitos com componentes eletrônicos discretos. A capacidade do circuito integrado de produção em massa, a confiabilidade e a construção de bloco de abordagem para projeto de circuito assegurou a rápida adaptação de circuitos integrados padronizados no lugar de desenhos utilizando transístores pequenos.
Há duas principais vantagens de circuitos integrados sobre circuitos discretos: custo e desempenho. O custo é baixo porque os chips, com todos os seus componentes, são impressos como uma unidade por fotolitografia: um puro cristal de silício, chamada de substrato, que são colocados em uma câmara. Uma fina camada de dióxido de silício é depositada sobre o substrato, seguida por outra camada química, chamada de fotorresiste. Além disso, muito menos material é usado para construir um circuito como um circuitos integrados do que como um circuito discreto. O desempenho é alto, visto que os componentes alternam rapidamente e consomem pouca energia (em comparação com os seus homólogos discretos) porque os componentes são pequenos e estão próximos. A partir de 2006, as áreas de chips variam de poucos milímetros quadrados para cerca de 350 mm², com até 1 milhão de transístores por mm². Chips feitos de nanotubos de carbono, em vez de silício, podem dar origem a uma nova geração de dispositivos eletrônicos mais rápidos e com maior eficiência energética.
A ideia de um circuito integrado foi levantada por Geoffrey Dummer (1909-2002), um cientista que trabalhava para o Royal Radar Establishment (do Ministério da Defesa britânico). Dummer publicou a ideia em 7 de maio de 1952 no Symposium on Progress in Quality Electronic Components em Washington, D.C.. Ele deu muitas palestras públicas para propagar suas ideias.
O circuito integrado pode ser considerado como sendo inventado por Jack Kilby de Texas Instruments e Robert Noyce, da Fairchild Semiconductor, trabalhando independentemente um do outro. Kilby registrou suas ideias iniciais sobre o circuito integrado em julho de 1958 e demonstrou com sucesso o primeiro circuito integrado em função em 12 de setembro de 1958 Em seu pedido de patente de 6 de fevereiro de 1959, Kilby descreveu o seu novo dispositivo como “a body of semiconductor material … wherein all the components of the electronic circuit are completely integrated.”
Kilby ganhou em 2000 o Prêmio Nobel de Física por sua parte na invenção do circuito integrado.
O chip de Noyce tinha resolvido muitos problemas práticos que o microchip, desenvolvido por Kilby, não tinha. O chip de Noyce, feito em Fairchild, era feito de silício, enquanto o chip de Kilby era feito de germânio.
Marcante evolução do circuito integrado remontam a 1949, quando o engenheiro alemão Werner Jacobi (Siemens AG) entregou uma patente que mostrou o arranjo de cinco transístores em um semicondutor.
Com os componentes de larga escala de integração, (do inglês: Large Scale Integration, LSI), nos anos oitenta, e a integração em muito larga escala, (Very-large-scale integration, VLSI), nos anos noventa, vieram os microprocessadores de alta velocidade de tecnologia MOS, que nada mais são que muitos circuitos integrados numa só mesa epitaxial.
Atualmente a eletrônica está entrando na era da nanotecnologia. Os componentes eletrônicos se comportam de maneiras diferentes do que na eletrônica convencional e microeletrônica, nestes a passagem de corrente elétrica praticamente não altera o seu estado de funcionamento. Nos nanocomponentes, a alteração de seu estado em função da passagem de corrente deve ser controlada, pois existe uma sensibilidade maior às variações de temperatura, e principalmente à variações dimensionais. Estas causam alterações nas medidas físicas do componente de tal forma, que podem vir a danificá-la. Por isso a nanotecnologia é tão sensível sob o ponto de vista de estabilidade de temperatura e pressão.
Nanochipe
Uma tecnologia Nanochipe é um circuito integrado eletrônico tão pequeno que pode ser medido com precisão apenas na escala nanométrica. É um dispositivo semicondutor que aumenta a gama de chips de armazenamento removíveis. Nanochipes também são usados em produtos eletrônicos de consumo, como câmeras digitais, telefones celulares, PDAs, computadores e laptops, entre outros. Nanochipe é um pequeno sistema eletrônico que possui alto poder de processamento e também pode caber em um volume físico assumido com menos necessidade de energia. A tecnologia de nanochipe é benéfica, pois seus chips de armazenamento não dependem dos limites da litografia.
No circuito integrado completo ficam presentes os transístores, condutores de interligação, componentes de polarização, e as camadas e regiões isolantes ou condutoras obedecendo ao seu projeto de arquitetura.

No processo de formação do chip, é fundamental que todos os componentes sejam implantados nas regiões apropriadas da pastilha. É necessário que a isolação seja perfeita, quando for o caso. Isto é obtido por um processo chamado difusão, que se dá entre os componentes formados e as camadas com o material dopado com fósforo, e separadas por um material dopado com boro, e assim por diante.
Após sucessivas interconexões, por boro e fósforo, os componentes formados ainda são interconectados externamente por uma camada extremamente fina de alumínio, depositada sobre a superfície e isolada por uma camada de dióxido de silício.
Rotulagem
Dependendo do tamanho os circuitos integrados apresentam informações de identificação incluindo 4 seções comuns: o nome ou logotipo do fabricante, seu número, número do lote e/ou número serial e um código de 4 dígitos identificando a data da fabricação. A data de fabricação é comumente representada por 2 dígitos do ano, seguido por dois dígitos informando a semana. Exemplo do código 8341: O circuito integrado foi fabricado na semana 41 do ano de 1983, ou aproximadamente em outubro de 83.
Desde que os circuitos integrados foram criados, alguns designers de chips tem usado a superfície de silício para códigos, imagens e palavras não funcionais. Eles são algumas vezes referenciados como chip art, silicon art, silicon graffiti ou silicon doodling.
As técnicas aperfeiçoadas pela indústria de circuitos integrados nas últimas três décadas têm sido usadas para criar máquinas microscópicas, conhecidos como sistemas microeletromecânicos (do inglês: microelectromechanical systems, MEMS, ver também: microtecnologia). Esses dispositivos são usados em uma variedade de aplicações comerciais e militares. Exemplo de aplicações comerciais incluem a tecnologia processamento digital de luz em videoprojetores, impressoras de jato de tinta e acelerômetros usados em airbags de automóveis.

Desde 1998, um grande número de chips de rádios tem sido criado usando CMOS possibilitando avanços tecnológicos como o telefone portátil DECT da Intel ou o chipset 802.11 da empresa Atheros.
As futuras criações tendem a seguir o paradigma dos processadores multinúcleo, já utilizados pelos processadores dual-core da Intel e AMD. A Intel recentemente apresentou um protótipo não comercial, que tem 80 microprocessadores. Cada núcleo é capaz de executar uma tarefa independentemente dos outros. Isso foi em resposta do limite calor vs velocidade no uso de transístores existentes. Esse design traz um novo desafio a programação de chips. X10 é uma nova linguagem open-source criada para ajudar nesta tarefa.

Era do Chip-Pioneirismo na América Latina


FONTE: USP
Em 1971, a Escola Politécnica da USP desenvolveu o primeiro chip da América Latina. A criação pioneira do circuito integrado marca a trajetória do Laboratório de Microeletrônica (LME), fundado em 1968. Posteriormente, com a incorporação do Laboratório de Sistemas Integráveis (LSI), a tecnologia foi aperfeiçoada para incorporar processadores, máquinas de calcular, supercomputadores e realidade virtual.
A história da microeletrônica brasileira é contada por João Antonio Zuffo, professor sênior do Departamento de Engenharia Elétrica da Escola Politécnica da USP e criador do primeiro circuito integrado brasileiro.
Após conquistar o título de doutor pela Poli-USP, Zuffo, juntamente com um grupo de docentes, organizou a fundação do LME em 1968, com investimentos públicos e privados, possibilitando a execução de pesquisas. Na época, Zuffo lecionava cursos na área de circuitos elétricos integrados e logo em 1971 finalizou o considerado primeiro chip do Brasil: “Era um circuito de acoplamento de emissor. Continha seis transistores, três entradas e duas saídas. Fiz a demonstração de operação desses transistores, inclusive, para uma visita que teve do presidente na época. E assim se desenvolveu o Laboratório de Microeletrônica”.
Em 1979, O LME passou a desenvolver circuitos integrados em múltiplas camadas, usando material refratário com componentes, como molibdênio e tungstênio. Assim, os chips se tornaram mais sofisticados. Posteriormente, na década de 1990, a partir de financiamento da Financiadora de Estudos e Projetos (Finep), os pesquisadores investiram na criação de supercomputadores com componentes paralelos, utilizando hipersistemas integrados. Junto a isso, desenvolveram também a realidade virtual.
Futuro da tecnologia
O especialista acredita que há enormes possibilidades na área de tecnologia de comunicação. Os celulares, por exemplo, devem avançar cada vez mais: “Realmente já estão trabalhando na sexta geração de telefonia celular. Isso envolve frequências de 3 a 10 Terahertz. Hoje não se trabalha nessa frequência, mas seria na ordem de cem vezes mais rápido que a quinta geração. Também é possível trabalhar com luz infravermelha na sexta geração”.

A inteligência artificial tende a ser aperfeiçoada: “Vejo muito desenvolvimento na área de inteligência artificial. Isso interligado com a internet de todas as coisas. Vejo possibilidades de desenvolvimento de novas arquiteturas de computação para integrar neurônios e sinapses localmente com memória, fazendo uma espécie de neurocomputação local”, compartilha, e finaliza: “O Brasil tem muitas oportunidades, porque existem áreas que são de baixo custo. Não são precisos laboratórios muito sofisticados, mas cabe inclusive uma grande pressurização da parte eletrônica com a biológica”.

Tecnologia-História do Chip


Chips são componentes eletrônicos que nasceram pela pressão do progresso da nossa sociedade por soluções que oferecessem mais desempenho e eficiência no processamento de dados. Em resumo, você pode resumir um microchip em um minúsculo coletivo de transistores e outros componentes, cuja utilidade é transformar energia elétrica em dados binários, ou informações.
As válvulas eram bem mais rápidas que os relês, até 1 milhão de vezes, mas terrivelmente suscetíveis a quebras. Consistiam em uma câmera de vácuo por onde os elétrons fluíam num filamento, que era o cerne das quebras. Com o tempo, o aquecimento fazia com que ele perdesse a efetividade – assim como as lâmpadas de tungstênio, que com o tempo acabam queimando. Era o fluxo de elétrons na válvula, que podia ser cessado ou intensificado nela, que fechava ou abria o circuito, determinando as posições “ligado e desligado” do sistema binário, presente até hoje na tecnologia.
Quanto maior e mais poderoso o computador, mais válvulas ele tinha. Digamos que um computador da época ocupa-se cinco andares. Todos eles com milhares de válvulas operando. Neste cenário, é uma aposta mais ou menos segura dizer que há grande possibilidade de que, em algum lugar do complexo, ao menos uma válvula quebre por um espaço de minutos. Imaginem o trabalho de percorrer todas as unidades reparando as válvulas queimadas. Tudo isso para processar tarefas que calculadoras embutidas no seu smartphone hoje realizam com muito mais elegância.
Semicondutor
Na escola você deve ter aprendido que metais são excelentes condutores de energia e calor. E que os não-metais são excelentes isolantes de calor e energia. Isso é verdade, mas há exceções: alguns materiais têm um comportamento intermediário, em alguns momentos conduzem energia, e em outros isolam. São os chamados semicondutores, dos quais o silício é, hoje, por larga margem, o mais conhecido e difundido.
Quanto maior e mais poderoso o computador, mais válvulas ele tinha. Digamos que um computador da época ocupa-se cinco andares. Todos eles com milhares de válvulas operando. Neste cenário, é uma aposta mais ou menos segura dizer que há grande possibilidade de que, em algum lugar do complexo, ao menos uma válvula quebre por um espaço de minutos. Imaginem o trabalho de percorrer todas as unidades reparando as válvulas queimadas. Tudo isso para processar tarefas que calculadoras embutidas no seu smartphone hoje realizam com muito mais elegância.
Origem
Antes do aparecimento do transistor, um computador ocupada andares, pesava toneladas e ninguém se arriscava a confiar na sua vida útil, porque independente do recurso técnico utilizado, ela era medida em espaços de tempo muito curtos. Para continuar operando, por exemplo, um computador precisava trocar de válvulas a todo momento. Elas simplesmente queimavam.
Computadores podiam usar relês ou válvulas, ou as duas coisas. Relê consistia em um elemento magnético, cuja movimentação determinava um valor binário: ou 0 ou 1, ou ligado e desligado. O movimento de algo muito parecido com um êmbolo a partir de um pulso elétrico selava ou abria o circuito. Embora mais confiáveis que as válvulas a vácuo, os relês eram clamorosamente mais lentos. Sim, se você se surpreendeu com o fato de que um computador processava informações com partes mecânicas, você entendeu bem a ideia por trás do relê.
O fato do silício poder conduzir ou isolar energia faz com que ele possa ser usado como uma chave, assim como o relê ou a válvula, entre posições binárias. Com a grande vantagem de que permite que os fluxos de elétrons da energia precisem percorrer distâncias bem pequenas no silício, sem a necessidade de filamentos frágeis e partes mecânicas.

Transistor

Um microchip, como um processador, pode ser entendido como um amontoado de transistores trabalhando simultaneamente para alcançar maior desempenho em cálculos – ou ligar e fechar circuitos binários – por segundo. Por exemplo, um processador da arquitetura Bulldozer da AMD pode ter impresso no seu die (entenda esse termo como lâmina ou waffle) de silício até 1,4 bilhão de transistores.

O transistor substitui as válvulas e relês com vantagens evidentes: é minúsculo, consome quantidades dramaticamente inferiores de energia, sua durabilidade atravessa anos – se não mesmo décadas a fio – e os custos de produção de um transistor comum são relativamente baixos.
Se você entendeu para que serviam relês e válvulas, fica fácil entender para que servem transistores. Eles bloqueiam eletricidade, ou a amplificam, dependendo da necessidade. Foi criado por técnicos e cientistas da Bell Telephone Laboratories em 1947. O time foi composto por John Bardeen, Walter Houser Brattain e William Bradford Shockley, que por conta do feito, conquistaram o Nobel de Física.

O que são microchips

Se o transistor foi fruto da necessidade de abandonar os lentos relês e as para lá de problemáticas válvulas, o microchip foi a evolução que nasceu da necessidade de melhorar o desempenho dos transistores. O ano era 1959. Ou 1958, se você considerar Kilby o pai do circuito integrado.

Um microchip resume-se num circuito eletrônico integrado miniaturizado e produzido na superfície de um material semicondutor, como o silício (outros podem ser usados, como germânio e molibdenita).

Mas o que levou a necessidade de condensar transistores e outros elementos no silício de modo a nascer um chip? A resposta é a mesma que explica o por quê da Intel criar uma arquitetura de processadores tridimensionais, ou da ARM passar a criar processadores multicore: a crescente necessidade de desempenho.

O circuito integrado que entendemos como microchip é mais resistente porque seus diversos componentes são formados, impressos, no silício, e não montados, como antigamente. Nesse sentido, possuem uma resistência a choques mecânicos e elétricos consideravelmente maior e sua taxa de defeito de fabricação cai a níveis desconsideráveis, quando leva-se em conta a produção de massa.

Além destas questões, há o óbvio: caso o microchip não existisse, o celular seria possível com uma coleção de transistores, por exemplo. Mas talvez você precisasse de um automóvel para carregá-lo consigo. As principais forças motrizes que empurram a indústria de semicondutores são sempre a miniaturização e a melhora de desempenho, considerando também a redução de custos de produção.
Há muita divergência sobre os inventores do microchip. Diversas pessoas escreveram sobre o assunto, documentaram suas ideias e mesmo registraram patentes de transistores integrados. Mas dois sujeitos tiveram um papel mais destacado no processo e são considerados os dois grandes responsáveis: Jack S. Kilby, da Texas Instruments – que até hoje fabrica microchips – e Robert N. Noyce, recentemente homenageado por um Doodle. Ele trabalhava na Fairchild Semiconductor, de cujas entranhas nasceu a Intel.
Tanto Kilby como Noyce se viam às voltas com a necessidade de condensar os componentes de um circuito em um único die de silício. A solução de Kilby era construir tudo sobre uma base de germânio, e não silício, e interconectar os elementos com pequeninos fios (como você viu na foto que abre este texto). Noyce, cuja técnica evoluiu ao que temos hoje, criou filamentos de ouro e alumínio entre os componentes. Isso permite pastilhas de silício com níveis altíssimos de pureza, mais velocidade e eficiência.

Atualmente, para que servem os microchips

O microchip cresceu em desempenho, utilizações, versões, tipos de componentes e processos de manufatura, mas sempre procurou encolher em tamanho e custo. É a chamada Lei de Moore: “o número de transistores de um chip terá um aumento de 100% a cada 18 meses pelo mesmo custo”.
A Lei ainda se aplica, mas há limites teóricos: estima-se que o silício torna-se impossível enquanto substrato dos microchips depois dos 14 nanômetros (1 nanômetro é 1 milionésimo de milímetro). É um limite teórico que instiga os novos Noyce a criar novas soluções que abandonem os waffles de silício. Ou que evolua a tecnologia a ponto de que o silício seja viável em nível inferior a 14 nm.

Mega Techs – O Robô Humanoide Optimum


O modelo é um protótipo da marca Tesla, que entrou no palco andando sozinho e acenou para a plateia. O objetivo com o androide é utilizar o sistema Autopilot, que permite a autonomia dos carros Tesla, e iniciar uma produção em alta demanda. Segundo o CEO, o robô poderia custar menos de US$ 20 mil (em torno de R$ 108 mil em conversão direta).
em agosto de 2021, no mesmo evento, Musk revelou que a marca tinha planos de construir um robô humanoide e esta é a primeira vez que a marca, conhecida pelos carros autônomos, apresenta o projeto ao público.
O modelo é um protótipo da marca, que entrou no palco andando sozinho e acenou para a plateia. O objetivo com o androide é utilizar o sistema Autopilot, que permite a autonomia dos carros Tesla, e iniciar uma produção em alta demanda. Segundo o CEO, o robô poderia custar menos de US$ 20 mil (em torno de R$ 108 mil em conversão direta).
Em agosto do ano passado, no mesmo evento, Musk revelou que a marca tinha planos de construir um robô humanoide e esta é a primeira vez que a marca, conhecida pelos carros autônomos, apresenta o projeto ao público.
O primeiro modelo do Optimus apresentado no evento foi produzido em aproximadamente seis meses, segundo a equipe. De acordo com os engenheiros, muito da experiência de design de produto dos carros da Tesla está sendo usada na criação do Optimus. Além disso, grande parte da inspiração para o robô vem do corpo humano.
A princípio ele fora anunciado num evento de Inteligência Artificial em 2021.O CEO Elon Musk afirmou durante o evento que a Tesla provavelmente construiria um protótipo até 2022. Musk está registrado tendo dito que acha que a Optimus “tem potencial para ser mais significativo do que o negócio de veículos ao longo do tempo”.
Em 7 de abril de 2022, uma exibição do produto foi apresentada nas instalações de fabricação da Tesla Giga Texas durante o evento Cyber Rodeo. Musk disse que espera ter o robô pronto para produção até 2023 e afirmou que a Optimus acabará sendo capaz de fazer “qualquer coisa que os humanos não queiram fazer”.
O Tesla Bot está planejado para medir 170cm de altura e pesar 57 kg. De acordo com a apresentação feita durante o primeiro evento do AI Day, um Tesla Bot será “controlado pelo mesmo sistema de IA que a Tesla está desenvolvendo para o sistema avançado de assistência ao motorista usado em seus carros” e terá uma capacidade de carga de 20kg. As tarefas propostas para o produto são aquelas que são “perigosas, repetitivas e chatas”, como a assistência à fabricação.
O Washington Post argumentou que “a Tesla tem um histórico de exagerar prazos e prometer demais em seus lançamentos de produtos e apresentações para investidores”.
”a história da Tesla está repleta de ideias fantasiosas que nunca deram certo… Bot se revela como um “pouco bizarro e brilhante de tolice”.
Críticas não faltaram
Carl Berry, professor de engenharia robótica, descreveu a apresentação do Dia da IA como “a propaganda exagerada de sempre”.
Após a exibição do Tesla Bot no evento Cyber Rodeo, o cientista Gary Marcus afirmou que “apostaria que nenhum robô será capaz de realizar todas as tarefas humanas até o final de 2023”.
A Deutsche Welle citou especialistas que o chamaram de “golpe completo e absoluto”, questionaram o quão avançado realmente era e criticaram a escolha de uma forma humanoide.

Mecânica – Como funciona o Chip para aceleradores?


O que é chip de potência?
A instalação de chips foi inicialmente realizada nas décadas de 70 e 80, quando surgiram os primeiros computadores. Mecânicos alteravam os potenciais do veículo por meio de chamados ajustes do módulo de injeção eletrônica (ECU).
O chip de potência, basicamente, tem a função de reprogramar o módulo de injeção eletrônica do motor, fazendo-o adquirir maior rendimento na potência e no torque. Os parâmetros de leitura do módulo de injeção eletrônica são modificados.
Quase todos os veículos existentes tem sua velocidade e potência eletronicamente limitadas. Quando o chip é instalado, a ECU passa a ter capacidade de acessar uma espécie de reserva de força do motor. Ou seja, com a ajuda da tecnologia e de softwares, o motor do veículo é “tunado” e ganha alguns cavalos de potência.
Como se realiza esse tipo de modificação?
Cada veículo conta com particularidades, portanto, a pessoa que instalará o chip de potência deverá ter conhecimentos não só de mecânica, como também de programação.

Por meio de cabos, o responsável pela instalação acessará o módulo de injeção eletrônica do veículo. Esse módulo, geralmente, fica no cofre do motor, mas dependendo do modelo do carro, pode estar em outro local.

Dessa forma, auxiliado por um programa de computador, o profissional faz um estudo e um projeto para o procedimento, e, em seguida, realiza as alterações no motor do veículo.

É fundamental que se procure um profissional responsável, com conhecimento e experiência no assunto, pois a mudança também provocará alterações no câmbio, nos freios e na aceleração. Portanto, todos esses componentes devem ser alterados para garantir eficácia da mudança, segurança do condutor e evitar danos ao carro.

Quais as vantagens dessa modificação?
É fato que a instalação de um chip na unidade de controle do motor provoca ganhos significativos em potência, velocidade e torque. Um carro com motor de 200 cavalos pode ser elevado, por exemplo, para 388 cavalos, medidos em dinamômetro, depois das alterações na oficina.
Aumento da força
Não há dúvida que a potência do motor será aumentada com a instalação do chip. A instalação torna o veículo capaz de acessar reservas de força, que, eletronicamente, não tem acesso permitido na versão de fábrica. O automóvel se torna mais rápido, mais forte e sua aceleração desenvolve-se consideravelmente.
Em um motor sem turbo, consegue-se atingir o aumento de 10% de potência, aproximadamente. Já nos motores turbo, o ganho será de aproximadamente 30%! Na prática, esses aumentos são bastante expressivos.
Torque
O torque é a capacidade do motor produzir a força motriz. É ele que faz o veículo sair da posição inicial e ter a capacidade de subir ladeiras íngremes e arrancar sem que sejam efetuadas muitas trocas de marcha.

Com a instalação do chip de potência, o torque do motor de seu carro se elevará e você terá um carro mais possante, mesmo que em baixas velocidades. Desse modo, o veículo pode desenvolver velocidades maiores por maior período, sem que seja necessário usar de marchas mais fortes, como primeira e segunda.
Melhora da dirigibilidade
Outro benefício observado para quem instala um chip de potência é a melhora na dirigibilidade do veículo. Muitos dos motoristas que usaram a alteração observaram um veículo de direção mais leve e facilitada.

Isso ocorre porque, na alteração em oficinas sérias e confiáveis, outros componentes do veículo também serão trocadas. É óbvio que, com uma ferramenta que aumenta velocidade e outras características de fábrica do veículo, outros elementos também devem ser mudados, como caixa de câmbio, freios etc. Essas alterações provocam sensação de facilidade na condução do automóvel.

Quais as desvantagens da instalação de chips de potência?
Contudo, é nosso dever ressaltar que não existem apenas pontos positivos na instalação do chip de potência no controle do motor. Muitos condutores também observaram aspectos negativos na alteração. E quando a alteração é realizada de forma irresponsável, provoca sérios prejuízos ao veículo e ao motorista.
Aumento no consumo de combustível
O aumento no consumo de combustível é um ponto negativo existente, mas já esperado pelo motorista que faz a instalação do chip de potência. A tendência é que quanto maior a capacidade do motor, mais combustível será gasto por ele.

O aumento no consumo de combustível, no entanto, pode ser atenuado caso as alterações realizadas em outros componentes do veículo acompanhem a alteração do motor. Isso torna o veículo mais equilibrado.
Perda de estabilidade
Muitos veículos são produzidos na fábrica com lataria, conjunto de rodas e pneus, dentre outros, para suportar tipos de exigência determinados previamente. Por isso, alterações que não são autorizadas pelas montadoras podem prejudicar o automóvel e até a segurança dos ocupantes.

Verificou-se nos carros em que foram instalados chips de potência um aumento excessivo da velocidade e do torque. Isso gerou perda de estabilidade e aderência dos pneus. É como se o carro patinasse, sobretudo em velocidades elevadas.

Por isso, as alterações de motor devem ser acompanhadas com mudanças nos freios e nos sistemas de segurança do veículo. Só dessa forma o condutor estará seguro e poderá aproveitar a potência do seu motor sem se preocupar com sua segurança.

Portanto, verificamos que há pontos positivos na instalação de um chip de potência no motor do veículo, principalmente para os amantes da velocidade e de carros tunados. Porém, os pontos negativos também existem e podem causar prejuízos ao dono do carro.

Devem ser balanceadas as vantagens e desvantagens, inclusive pelo investimento financeiro a ser feito. Mas um ponto é unanimidade, caso você decida instalar um chip de potência no motor, escolha uma oficina séria e experiente no assunto, que altere não somente o motor, mas todos os componentes do veículo que devem acompanhar a mudança!

Cibernética – Virou (quase) cyborg pra não morrer de doença terminal


Um cientista britânico conhecido por importantes trabalhos na área da robótica, foi diagnosticado em 2017 com uma doença do neurônio motor (MND, na sigla inglesa), que afeta os neurônios motores e compromete a fala, o caminhar, a respiração, a deglutição e o movimento geral do corpo — como a esclerose lateral amiotrófica. Com esse diagnóstico, os médicos lhe deram apenas mais dois anos de vida.
Recusou-se a aceitar esse destino e, em parceria com a Intel e a DXC Technology, decidiu inventar um projeto de alta tecnologia tratar de casos de deficiência extrema. E assim deve nascer, segundo ele mesmo, “o organismo cibernético humano mais avançado já criado em 13,8 bilhões de anos”. Ele mesmo será a “cobaia”, tornando-se uma mescla de homem com máquina.
O processo incluiu uma série de operações para inserir um tubo de alimentação diretamente no estômago, um cateter na bexiga e uma bolsa de colostomia no cólon, para que ele possa lidar com questões de alimentação e de higiene. Peter também foi submetido a uma laringectomia, para evitar o risco adicional de a saliva entrar nos pulmões — ele disse que, assim, estaria trocando sua voz natural por “potencialmente, décadas de vida”.
O cientista agora possui fala sintética e desenvolveu uma “avatar realista do rosto”, projetado para responder usando linguagem corporal artificialmente inteligente — embora ainda não tenha sido mostrado como isso exatamente funciona.
Peter realizou uma cirurgia ocular a laser, que permite visão perfeita a 70 centímetros da tela do computador. Isso permite que ele possa controlar múltiplos computadores com o movimento dos olhos. Além disso, sua cadeira de rodas é ágil e usa um mecanismo que consegue deixá-lo de pé, sentado ou deitado.
O cientista acredita que esse projeto pode ser o primeiro de vários outros que poderão estender a vida das pessoas. “Com o tempo, mais e mais pessoas diagnosticadas com MND, extrema incapacidade ou que estejam velhas e queiram simplesmente se libertar da ‘camisa de força física’ escolherão ficar ao meu lado. E ficaremos orgulhosos … porque nos recusamos simplesmente a ‘permanecer vivos’.

Astronomia – Limpeza no Espaço


Um satélite chinês foi flagrado enquanto capturava um outro satélite desativado para, mais tarde, abandoná-lo em uma órbita a 300 quilômetros de distância, onde os objetos têm menos chances de colidirem com veículos espaciais.
O evento bastante raro, registrado no final de janeiro, foi apresentado em um seminário online realizado pelo Centro de Estudos Internacionais e Estratégicos e pela Secure World Foundation.
O registro foi feito pela ExoAnalytic Solutions, uma empresa privada americana que rastreia o posicionamento de satélites utilizando uma ampla rede global de telescópios ópticos.
O satélite chinês SJ-21 foi visto em 22 de janeiro ao sair de seu local habitual e se dirigir até o satélite desativado Compass-G2. Alguns dias mais tarde, o SJ-21 se acoplou ao G2 e modificou sua órbita.
Nos dias seguintes, o satélite-rebocador começou a tomar rumo oeste e, em 26 de janeiro, os dois objetos se separaram e o G2 foi abandonado, segundo as imagens de vídeo da ExoAnalytics.
O satélite chinês Compass-G2, ou BeiDou-2 G2 é um instrumento dos sistemas BeiDou-2 de navegação por satélite, mas deixou de funcionar logo após ser lançado ao espaço em 2009. Por mais de dez anos, a carcaça metálica vagou ao redor da Terra junto a outros milhões de objetos.
Tecnologias para coleta de lixo espacial
Vários países também lançaram iniciativas ou desenvolvem tecnologias para recolher lixo espacial.
O Japão lançou em março de 2021 a missão ELSA-d, projetada para testar a captura de detritos e tecnologias de remoção. A Agência Espacial Europeia (ESA) planeja lançar sua própria missão em 2025.
Entretanto, autoridades dos Estados Unidos já expressam preocupação com os satélites chineses capazes de remover objetos no espaço. James Dickinson, que chefia o Comando Espacial dos EUA, disse em abril do ano passado que essas tecnologias “podem ser usadas no futuro em sistemas para capturar outros satélites”.
Um relatório de 2021 da Secure World Foundation afirma que há fortes evidências de que tanto a China quanto a Rússia estariam desenvolvendo tecnologias para destruir sistemas espaciais.

O documento, entretanto, ressalta que as autoridades chinesas permanecem “consistentemente alinhadas aos propósitos pacíficos” das atividades espaciais, e que não há provas de que a China tenha realizado as chamadas “operações contraespaciais”.

Desde o início das atividades espaciais nos anos 1960, mais de 6 mil lançamentos transportaram mais de 50 mil objetos para a órbita terrestre, segundo a Rede de Vigilância Espacial dos EUA.
De acordo com a ESA, mais de 30 mil objetos artificiais orbitam nosso planeta, dos quais apenas 5 mil estão em funcionamento. Esse total corresponde apenas aos objetos suficientemente grandes para serem rastreados.
A agência europeia afirma que aproximadamente 300 milhões de objetos de tamanho menor se deslocam no espaço a velocidades de até 30 mil quilômetros por hora.

Lixo Espacial

Robô Minerador


A Origin Space, uma startup de mineração espacial com sede em Pequim, na China, lançará ao espaço, seu primeiro robô desenvolvido para escavação espacial a bordo de um foguete descartável da família Longa Marcha, cedido pela Academia Chinesa de Tecnologia de Veículos Lançadores.
Batizado de NEO-1, o pequeno robô escavador representará um marco no que a Origin Space está se propondo a fazer. No entanto, nessa viagem de estreia, NEO-1 não vai minerar o solo de nenhum asteroide. Por ora, seu trabalho na órbita da Terra será “verificar e demonstrar funções múltiplas, como manobra orbital da espaçonave, captura simulada de pequenos corpos celestes, identificação e controle da espaçonave inteligente”, segundo explicou Yu Tianhong, cofundador da Origin Space.
O conceito de mineração de recursos espaciais é algo polêmico e controverso. O apelo de muitos cientistas é que o Sistema Solar seja protegido dessas práticas. Ainda assim, superpotências, como China e os Estados Unidos, continuam investigando como extrair esses minérios de outros corpos celestes.

Robô Minerador

Robótica – Robô Coletor de Lixo Espacial


Em uma órbita baixa ao redor da Terra um protótipo de um “robô lixeiro” que pode capturar lixo espacial deixado por missões anteriores usando uma grande rede. Uma vez capturado, o lixo será queimado usando um sistema de propulsão elétrica.
Batizada de NEO-1, a espaçonave foi lançada em um foguete Longa Marcha 6 junto com vários outros satélites de pequeno porte. Ela também irá observar o espaço profundo e estudar pequenos corpos celestes.
Pesando 30 Kg, o robô foi desenvolvido pela Origin Space, uma empresa de Shenzen, e segundo ela irá abrir o caminho para futuras tecnologias para a mineração de asteroides.
À medida em que mais e mais satélites são lançados em órbita, especialmente após o surgimento de constelações como a Starlink, da SpaceX, e a Project Kuiper, da Amazon, o problema do lixo espacial se torna mais grave.
Ele é composto por satélites e espaçonaves desativadas, que esgotaram seu combustível ou fontes de energia, ou pedaços de foguetes e missões antigas, que podem orbitar nosso planeta por décadas.
Viajando a uma velocidade de mais de 28 mil km/h, mesmo um pequeno parafuso pode perfurar uma espaçonave com mais energia do que a bala de um rifle, destruir um satélite (gerando mais lixo espacial), ou causar sérios danos a uma missão tripulada.Recentemente, a tripulação missão da Crew-2 da Nasa e SpaceX passou por um susto quando, horas após chegar à Estação Espacial Internacional, foram ordenados a vestir seus trajes espaciais e retornar à sua cápsula devido ao risco de colisão com um objeto em órbita. Felizmente, tudo não passou de um alarme falso.
Em entrevista à imprensa chinesa a fundadora da Origin Space, Su Meng, afirma que a empresa tem planos para lançar dúzias de telescópios espaciais e mais espaçonaves para conseguir minerar asteroides comercialmente já em 2045.

Startup Launcher cria veículo de transferência orbital universal e plataforma de satélite



Após um processo de financiamento de quase US$12 milhões, o equivalente a mais de R$60,3 milhões, a startup espacial Launcher, de Hawthorne, na Califórnia, criou um veículo de transferência orbital que servirá de plataforma para transporte de pilhas de CubeSats para o espaço.
CubeSats são satélites miniaturizados usados para pesquisas espaciais e comunicações radioamadoras, que, normalmente, apresentam volume de 1 litro e massa de até 1,33 kg.
Chamada Orbiter, a plataforma enviará até 330 libras (150 kg) de massa para a órbita. Inicialmente, será usada para missões rideshare (as missões de carona), que enviam frotas de pequenos satélites com um maior viajando a bordo de um foguete SpaceX Falcon 9. Segundo a Space.com, a missão de estreia do Launcher decolará a bordo de um foguete desse em outubro de 2022.

“Com a Orbiter, os desenvolvedores de pequenas constelações de satélites podem tirar proveito da cadência rápida e do preço sem precedentes do programa de compartilhamento de veículos da SpaceX para construir sua constelação com custo e tempo ideais”, declarou a Launcher em um comunicado à imprensa.
Orbiter também servirá como o terceiro estágio do Launcher Light, um pequeno foguete que a empresa espera colocar na órbita terrestre baixa em 2024. O tamanho comparativamente diminuto do foguete (15 metros) permite dedicação total a uma única missão, ao contrário do Falcon 9 da SpaceX (230 pés ou 70 metros), em que o Orbiter deve voar como um veículo compartilhado.
A plataforma também pode alterar a velocidade orbital dos satélites em cerca de 0,3 milhas (500 metros) por segundo, permitindo que as máquinas subam ou desçam ligeiramente em suas órbitas.
Launcher é iniciante no mercado, mas sonha alto
Max Haot, fundador e gerente executivo da Launcher, disse à SpaceNews, em 2018, que o Launcher Light tem a vantagem de otimizar o desempenho, em vez de solicitar que seus clientes façam alterações em suas cargas úteis.
“Temos uma visão de longo prazo, de 10 a 20 anos”, disse Haot na entrevista. “Não acreditamos que as pessoas que chegaram lá alguns anos antes serão as vencedoras. Acreditamos que pessoas que operam com a maior margem serão as vencedoras”.
No início de junho, a Launcher anunciou que arrecadou US$ 11,7 milhões em uma rodada de financiamento da Série A, liderada por Boost.VC e Haot, que investiu US$ 5 milhões, vendendo seu negócio de câmeras Mevo para a Logitech.
Segundo Haot, o dinheiro extra ajudará a colocar a Launcher Light em órbita, junto com o financiamento da contratação de mais 40 funcionários em 2021. Com o tempo de vôo de três anos a partir de agora, o Launcher planeja ter 150 pessoas na equipe.

Mega Polêmica na Tecnologia – Carro Autônomo é Viável?



Quem vai pagar se bater?

Do ponto de vista legal, a questão ainda sem resposta é: de quem é a culpa e, portanto, quem arcaria com a indenização em acidentes causados pelos veículos autônomos quando forem vendidos comercialmente? Será o proprietário, que estava distraído porque confiava na máquina, ou do fabricante, que criou um equipamento que não soube evitar a colisão? E será que as seguradoras aceitarão a apólice desses automóveis diante de tal limbo jurídico?
Por enquanto, não existe uma legislação de trânsito específica no mundo. O que há são regulamentos para testes de veículos sem motoristas, especialmente nos Estados Unidos, China e Alemanha, países que estão encabeçando essa corrida tecnológica. Mas bastará um acidente fatal para gerar um pesadelo de relações públicas e fazer com que os legisladores pensem duas vezes antes de liberar geral. Foi o que aconteceu com a Uber, que só voltou aos seus testes em vias públicas em fevereiro passado, quase um ano depois que uma ciclista morreu no Arizona ao ser atropelada por um de seus veículos autônomos experimentais.

Outro contratempo que as fabricantes terão de enfrentar, e o mais complicado de resolver, é o custo da nova tecnologia. E isso não pesa só no bolso das empresas, que terão investir bilhões de dólares num novo produto que elas não sabem se o consumidor está pronto para comprar ou mesmo para confiar. Afinal, você apostaria sua vida e a da sua família na decisão de uma máquina? Apenas 12% dos americanos disseram que sim, segundo pesquisa da Associação Automobilística Americana divulgada em março. E ainda nem falamos para esses futuros compradores o quanto eles terão de desembolsar.
O mais próximo que temos hoje de um autônomo à venda são os modelos da Tesla, que oferecem o opcional Autopilot por US$ 7.000 (R$ 38.000) nos EUA. Esse recurso, no entanto, está apenas no nível 3 de autonomia, que acelera, freia e faz curvas sozinho, mas exige a presença do motorista para qualquer situação um pouco mais complexa.

Um carro que leva você ao trabalho sem necessidade de assumir o volante estaria no nível 5. Calcula-se que todo o pacote de sensores, radares e softwares para atingir esse nível varia entre US$ 65.000 e US$ 140.000 (R$ 360.000 a R$ 775.000). Claro que, com o aumento da produção em série, o valor vai cair, mas a questão é quem terá coragem de pagar essa conta no primeiro momento. E, mesmo que caia pela metade, ainda assim é uma conta pesadíssima.
A conta ainda será um pouco mais salgada porque os futuros veículos autônomos também serão elétricos, que custam entre 40% a 80% a mais que modelos equivalentes a gasolina. Isso nos Estados Unidos. Agora faça o cálculo pensando no mercado brasileiro, conhecido por ter um dos automóveis mais caros do mundo quando se compara o preço do veículo com o poder de compra do consumidor.
Bem, se ficou difícil para a pessoa física adquirir um autônomo, será que na pessoa jurídica o negócio faz sentido? Os defensores da nova tecnologia argumentam que o baixo custo de operação compensariam para empresas de compartilhamento de veículos. Pense no caso da Uber, que é uma das empresas que estão liderando os testes nessa área, seguida pela indústria automobilística, que já ensaia seus primeiros passos no mercado de carros de aplicativos.
O maior custo de uma corrida de Uber vai para o bolso do motorista. Imagine, então, o potencial de ganhos da companhia se ela tiver veículos que não precisam de motorista e que podem rodar 24 horas sem pausa. Só não podemos esquecer de um detalhe: a empresa hoje não precisa comprar o veículo nem fazer sua manutenção, que fica a cargo dos motoristas associados. Além disso, o custo da mão de obra em países emergentes como o Brasil é relativamente baixo. Sendo assim, pode até fazer sentido em mercado desenvolvidos gastar uma fábula comprando milhares veículos caríssimos no início para economizar no futuro, mas não no Brasil.
Mesmo no exterior eu não acredito que essa conta feche. Para mim essa estratégia é como comprar um veículo a diesel, que é bem mais caro, pensando apenas na economia que vai ter no consumo de combustível com o passar do tempo. Na prática isso, não funciona, pois muitas vezes leva mais de 10 anos para recuperar o dinheiro investido.
Portanto, se você é daqueles que cansou de ouvir que o carro autônomo está próximo e agora está se sentindo decepcionado, não se preocupe. Você não está sozinho. O jornal inglês The Guardian disse em 2015 que haveria 10 milhões de carros autônomos nas ruas do mundo em 2020. No ano seguinte, o site Business Insider previu o mesmo número para este ano. “Nós superestimamos a chegada dos veículos autônomos”, lamentou Jim Hackett, CEO da Ford, numa palestra no ano passado. Se até eles se enganaram, o que dirá de nós?

Robótica – O Humanoide Mais Avançado Que Existe



Cientistas da Universidade de Tóquio desenvolveram o robô humanoide mais avançado de que se tem notícia. Embora a robótica tenha dado vida a todos os tipos de robôs, com capacidades múltiplas e diversas, o objetivo dos robôs humanoides é imitar os seres humanos ao máximo possível.
Para isso, os especialistas japoneses projetaram peças articuladas muito especiais, que permitem reproduzir o movimento dos seres humanos quase à perfeição.
Kengoro, como foi batizado o robô humanoide, pode realizar todos os tipos de flexões, abdominais e até jogar peteca. Além disso, ao emular o sistema muscular, ele é capaz de suar e dispõe de válvulas para liberar o vapor produzido.

Marte: Ingenuity já tem data para decolar pela primeira vez



O drone transportado pelo rover Perseverance em 2020 está pronto para levantar seu primeiro voo em Marte. A missão da aeronave é provar a possibilidade de voar no planeta vermelho, mesmo com sua atmosfera 100 vezes mais fina que a da Terra. A previsão é de que a pequena máquina, chamada de Ingenuity, levante voo no dia 11 de abril.
O Perseverance, da Nasa, foi lançado em julho de 2020 com intuito de levar a engenhosidade até Marte e acompanhá-la durante os testes. O helicóptero, que chegou no dia 18 de fevereiro deste ano com sucesso, mede meio metro de altura e pesa apenas 1,8 quilo.
Com tecnologia avançada e tamanho pequeno, a nave conta com uma estrutura de dois rotores que giram em direções opostas 40 vezes por segundo fazendo com que ela decole. A velocidade da aeronave é cerca de cinco vezes mais rápida do que os rotores normais de helicópteros comuns na Terra.
“Ele sobreviveu ao lançamento, sobreviveu à jornada através do espaço, ao vácuo e à radiação, sobreviveu à entrada e descida e aterrissagem na superfície do rover Perseverance”, disse Bob Balaram, do Laboratório de Propulsão a Jato da Nasa (JPL) e Engenheiro-chefe da Ingenuity, durante uma coletiva de imprensa.
Devido sua missão fazer parte apenas de provar a possibilidade de voo em Marte, o helicóptero não carrega equipamentos científicos. Por outro lado, ele possui um computador de bordo que o ajuda a navegar e que é cerca de 150 vezes mais rápido do que o do Perseverance, e muito mais poderoso do que qualquer coisa que tenha sido enviada para outro planeta antes.

A Colonização da Lua



Uma recente indicação declarou que a água poderia estar presente em quantidades notáveis nos polos lunares o que renovou o interesse na Lua. Colônias polares poderiam também evitar o problema de longas noites lunares – cerca de 354 horas, um pouco mais de duas semanas- e aproveitar o sol de forma contínua, pelo menos durante o verão local (não há dados para o inverno ainda).
Uma permanente habitação humana em um corpo planetário além da Terra é um dos temas mais prevalentes da ficção científica. Conforme a tecnologia foi avançando, e as preocupações com o futuro da humanidade na Terra tenham aumentado, o argumento de que a colonização do espaço é uma meta alcançável e que vale a pena ganhou impulso. Devido à sua proximidade com a Terra, a Lua tem sido vista como a expansão natural mais evidente depois da Terra.
A noção da localização de uma colônia na Lua se originou antes da Era Espacial. Em 1638, o bispo John Wilkins escreveu Um discurso a respeito de um novo mundo e um outro planeta, em que ele previu uma colônia humana na Lua.
Em 1954, o autor de ficção-científica, Arthur C. Clarke propunha uma base lunar composta de módulos insufláveis cobertos de poeira lunar para o isolamento.
Uma nave espacial, montada em órbita baixa da Terra, seria lançado à Lua, e os astronautas configurariam os módulos semelhantes a de um iglu e um mastro de rádio inflável. Os passos seguintes incluem o estabelecimento de uma cúpula permanente maior; um purificador de ar à base de algas; um reator nuclear para o fornecimento de energia; e canhões eletromagnéticos para lançar cargas e combustível aos navios interplanetários no espaço.
Há diversos projetos a respeito, ainda que, muitos deles sem fundamentos nas grandes companhias da aeronáutica e aeroespacial como a NASA ou a ESA.

Não obstante a maioria dos diversos projetos, representam a localização na Lua de bases lunares compostas por diversas habitações isoladas ou intercomunicadas, cada uma com suas funções (laboratórios, habitações para os astronautas, estufas, granjas, zonas de trabalho, etc) para permitir e favorecer o desenvolvimento geral das comunicações humanas instaladas na Lua.

Um de seus maiores pontos fortes seria a exploração dos minerais ou de fontes energéticas ou de investigação (como o hélio 3) de outros astros prolongando-se no que se chamaria a colonização espacial. Provavelmente, a base será no polo sul lunar.
Pode-se considerar que a colonização lunar iniciou-se com os primeiros satélites orbitais ou de observação lunar. A corrida espacial na guerra fria, trouxe um grande avanço científico para a exploração espacial. Alguns momentos históricos como o projeto Apollo, o pouso da Apollo 11 na Lua, o primeiro homem que pisou na Lua, etc. Estudos em 2014 das agências espaciais projetarão os primeiros instrumentos para a colonização da Lua.

Mega Sampa – O Túnel da 9 de Julho



Túnel 9 de Julho, também designado por Túnel Daher Elias Cutait, é uma via subterrânea do município de São Paulo, que foi o primeiro túnel a ser construído na cidade. O túnel é considerado um marco do urbanismo na cidade, sendo uma obra que liga o Centro à Zona Sul e que levou um ano para ficar pronta, custou cerca de 17.190 mil contos de réis e sua inauguração, em 23 de julho de 1938, contou com a presença do então presidente Getúlio Vargas.
Situa-se na Avenida 9 de Julho, às proximidades dos bairros Bela Vista na região central e Jardins, na zona oeste, fazendo o cruzamento subterrâneo desta avenida com a Avenida Paulista.
Foi construído no local onde existia a antiga Avenida Anhangabaú.
Em 1923, a Câmara Municipal de São Paulo criou a Comissão da Avenida Anhangabaú, com o objetivo de realizar o projeto de construção da Avenida Anhangabaú (atual Avenida 9 de Julho). A comissão, liderada pelo vereador Gofredo da Silva Teles, funcionou de forma intermitente até 1928, quando apresentou seu relatório final recomendando a construção da avenida e apresentando um projeto técnico. Mais tarde, partes desse projeto foram utilizadas para a implantação da Avenida 9 de Julho.
Para a travessia do espigão da Paulista, o engenheiro-chefe da prefeitura, Alcides Martins Barbosa, e o arquiteto Cristiano Stockler das Neves projetaram um túnel de 390 metros de comprimento, 15 metros de largura e desnível de 2,30 metros entre suas bocas. Esse túnel tinha a previsão de ser construído sob o Belvedere Trianon. O projeto seguiu em discussão até a comissão ser dissolvida, por causa da Revolução de 1930, paralisando os trabalhos de construção da Avenida Anhangabaú, iniciados no ano anterior.

O projeto do túnel também foi paralisado por causa disso, somente sendo retomado em 1934.
Túnel 9 de Julho
Para reprojetar o túnel da Avenida Anhangabaú, o prefeito contratou o engenheiro italiano Domingos Marchetti (1893-1975). Trabalhando para a Sociedade Construtora Brasileira, Marchetti projetou o túnel e acompanhou suas obras, iniciadas em 1935, até a inauguração. Apesar de as obras terem sido concluídas em maio de 1938, o túnel só seria inaugurado em 23 de julho, pelo presidente Getúlio Vargas.
A extensão do túnel sob a Avenida Paulista é de 450 metros, e o mirante sobre o túnel foi pouco aproveitado por mais de sete décadas, até ser passado para a iniciativa privada, tornando-se um ponto turístico.
O mirante tem uma área de quatrocentos metros quadrados e foi revitalizado em 2015, sob o comando do consórcio Belvedere. O local conta com cafeteria, bar e galeria subterrânea, além de receber feiras independentes.
Durante a elaboração do projeto do corredor de trólebus Santo Amaro–9 de Julho–Centro, houve uma discussão sobre a implantação no trecho do Túnel 9 de Julho. Por ter apenas duas pistas de rodagem em cada sentido, o Túnel 9 de Julho foi considerado um gargalo, pois a mera implantação do corredor de trólebus iria deixar apenas uma faixa livre para os demais veículos em cada sentido. Após a inauguração parcial do corredor, a gestão Jânio Quadros contratou, em 1986, o escritório de Figueiredo Ferraz para elaborar um projeto capaz de solucionar esse problema.

Ferraz desenvolveu o projeto de um novo túnel, com novecentos metros de extensão, com sentido único (com a ideia de alternar o sentido de funcionamento do túnel novo nos horários de pico de trânsito) sob o Túnel 9 de Julho. Para permitir a realização dos trabalhos sem afetar o funcionamento do túnel antigo e do MASP, Ferraz propôs o emprego do método de construção New Austrian Tunnelling Method. A obra, orçada entre quinze milhões e vinte milhões de dólares, acabou não saindo do papel, e a Prefeitura optou pela reforma do Túnel 9 de julho.

Mega Byte – Adicionar memória RAM sempre vai deixar o meu PC mais rápido?



Ao transitar entre as abas do navegador ou abrir o player de música para avançar a faixa em execução, o computador apresenta um comportamento estranho: leva vários segundos para realizar a ação, até que em um momento ele fica completamente paralisado.
É bem possível que em uma situação como essa muitas pessoas cheguem à imediata conclusão de que a máquina está precisando de mais memória RAM e já comecem a pesquisar o preço de mais um pente com 2 GB ou 4 GB. Mas será que adicionar RAM sempre vai deixar o seu PC mais rápido? É exatamente isso o que vamos tentar desmistificar neste artigo.
Colocar mais e mais memória RAM toda a vez que o computador dá um sinal de lentidão não significa necessariamente que a sua máquina vá apresentar um aumento de desempenho — embora, em alguns casos, um pouco mais de RAM possa ser suficiente para “desafogar” o PC e mantê-lo utilizável.
A memória RAM acessa os dados de forma não sequencial. Qualquer setor livre encontrado é preenchido com a nova informação a ser processada pela CPU, acelerando em muito os procedimentos de leitura e escrita. Outra peculiaridade deste componente é a sua volatilidade, o que significa que todos os dados armazenados nele podem ser perdidos quando o computador é desligado.

Assim, basicamente, a RAM funciona como um mecanismo de apoio para o processador, armazenando os dados mais utilizados pelos programas em uso e colaborando para a transferência deles pelo disco de armazenamento permanente (ROM). Como você deve ter percebido, a memória RAM atua em completa cooperação com outros componentes.
Dessa forma, ela não é a única responsável pela velocidade do PC. Em outras palavras, não adiantaria você colocar 12 GB de RAM no computador se o HD e a CPU dele estão ultrapassados.
Atualmente, é difícil encontrar um computador novo à venda que possua menos do que 2 GB de RAM — quantidade satisfatória para as atividades mencionadas no parágrafo anterior. Contudo, existe uma enorme variedade de modelos com preços acessíveis que trazem 4 GB de memória de acesso aleatório (do inglês Random Access Memory).
Tais computadores já aguentam um cotidiano mais exigente, incluindo o uso de editores de imagem profissionais, o processamento de um número grande de tarefas simultâneas e a jogatina de alguns jogos mais recentes e pesados — embora, como já vimos antes, existam outros componentes essenciais para que todas essas atividades sejam desempenhadas de forma satisfatória.

Você realmente necessitará de 6 GB, 8 GB ou mais de memória RAM caso pretenda realizar atividades extremamente exigentes da máquina, como editar vídeos profissionalmente, ou deseje jogar os games recém-lançados e cheios de detalhamento gráficos com todas as configurações no “máximo”.

O que fazer para ter um PC mais rápido?
Conforme já explicamos, entupir o computador de memória RAM não é garantia de obter um PC mais veloz e eficiente. Se você está tendo problemas para rodar o Photoshop ou máquinas virtuais, por exemplo, é possível que adicionar mais RAM ao seu computador resolva os travamentos.
Mas, para tornar a sua máquina efetivamente mais rápida, o ideal seria investir também em um processador mais moderno e um disco de armazenamento SSD. Apesar de muitas pessoas não acreditarem, a presença de um SSD pode fazer muita diferença.
De acordo com nossos testes, você nem precisa comprar um disco SSD com 500 GB, por exemplo, para substituir o disco rígido convencional (componente que tem um elevadíssimo custo no Brasil). Adotando uma unidade de menor tamanho, 32 GB ou 64 GB, em paralelo com o HD comum já pode oferecer uma performance melhorada bastante relevante.

Mega Byte – Sistema Operacional Windows



É uma família de sistemas operacionais desenvolvidos, comercializados e vendidos pela Microsoft. É constituída por várias famílias de sistemas operacionais, cada qual atendendo a um determinado setor da indústria da computação, sendo que o sistema geralmente é associado com a arquitetura IBM PC compatível. As famílias ativas do Windows incluem Windows NT, Windows Embedded e Windows Phone; estes podem abranger subfamílias, como Windows CE ou Windows Server.
Entre as famílias Windows extintas estão o Windows 9x; o Windows 10 Mobile é um produto ativo, não relacionado à família defunta Windows Mobile. A Microsoft introduziu um ambiente operacional chamado Windows em 20 de novembro de 1985, como um shell para MS-DOS, em resposta ao crescente interesse em interfaces gráficas de usuário (GUIs).
O Microsoft Windows passou a dominar o mercado de computadores pessoais (PC) do mundo, com mais de 90% de participação de mercado, superando o Mac OS, que havia sido introduzido em 1984. A Apple chegou a ver o Windows como uma invasão injusta em sua inovação no desenvolvimento de produtos GUI, como o Lisa e o Macintosh (eventualmente resolvido na Justiça em favor da Microsoft em 1993). Nos PCs, o Windows ainda é o sistema operacional mais popular.

No entanto, em 2014, a Microsoft admitiu a perda da maioria do mercado global de sistemas operacionais do sistema operacional móvel Android, devido ao enorme crescimento nas vendas de smartphones. Em 2014, o número de dispositivos Windows vendidos era menos de 25% dos dispositivos Android vendidos. Essas comparações, no entanto, podem não ser totalmente relevantes, já que os dois sistemas operacionais visam plataformas tradicionalmente diferentes. Em setembro de 2016, a versão mais recente do Windows para PCs, tablets, smartphones e dispositivos embutidos era o Windows 10. As versões mais recentes para servidores era o Windows Server 2016. Uma versão especializada do Windows é executada no console de jogos Xbox One.
Histórico
A Microsoft começou a desenvolver o Microsoft Windows em setembro de 1981. Os primeiros Windows, como o 1.0, 2.0, são compatíveis apenas com partições formatadas em sistema de ficheiros FAT, nesse caso, o FAT 16.
O 3.x poderia ser instalado em FAT 32, porém necessita ser instalado o MS-DOS 7.10, que era incluído nos disquetes de inicialização do Windows 95 OSR2 e Windows 98, necessitando modificar alguns arquivos para permitir seu funcionamento.
Ao mudar do 3.1 para o 95B (Windows 95 OSR 2/OSR 2.1), os HD’s poderiam ser formatados em FAT 32.
Inicialmente lançado com o Windows NT, a tecnologia NTFS é ainda hoje (2020) o padrão de fato para esta classe. Com a convergência de ambos sistemas, o Windows XP passou também a preferir este formato.
O Windows 95 foi lançado em 24 de agosto de 1995. Ele era um Windows completamente novo, e de nada lembra os Windows da família 3.xx. O salto do Windows 3.0 ao Windows 95 era muito grande e ocorreu uma mudança radical na forma da apresentação do interface. Introduziu o Menu Iniciar e a Barra de Tarefas. Enquanto Nesta versão, o MS-DOS perdeu parte da sua importância visto que o Windows já consegue ativar-se sem precisar da dependência prévia do MS-DOS. As limitações de memória oferecidas ainda pelo Windows 3.0 foram praticamente eliminadas nesta versão. O sistema multitarefa tornou-se mais eficaz. Utilizava o sistema de ficheiros FAT-16 (VFAT). Os ficheiros (arquivos) puderam a partir de então ter 255 caracteres de nome (mais uma extensão de três caracteres que indica o conteúdo do arquivo, facilitando assim sua identificação e podendo ser associado para abertura em determinados programas). O salto foi enorme, e o lançamento foi amplamente divulgado pela imprensa, inclusive pelas grandes redes de televisão. Existe uma outra versão do Windows 95, lançada no início de 1996, chamada de Windows 95 OEM Service Release 2 (OSR 2), com suporte nativo ao sistema de arquivos FAT32. Já o Windows 95, a partir da revisão OSR 2.1, incluía o suporte nativo ao Barramento Serial Universal (USB) e Ultra DMA (UDMA). Foi lançada ainda uma versão especial, o Windows 95 Plus!, com um pacote de diferentes temas visuais e sonoros para personalização do sistema operacional. Esta versão também incluía o navegador Internet Explorer.

Windows 98
Esta versão foi lançada em 25 de Junho de 1998. Foram corrigidas muitas das falhas do seu antecessor. A maior novidade desta versão era a completa integração do S.O. com a Internet. Utilizava o Internet Explorer 4. Introduziu o sistema de arquivos FAT 32 e começou a introduzir o teletrabalho (só foi possível devido à integração do Web). Melhorou bastante a interface gráfica. Incluiu o suporte a muitos monitores e ao USB (Universal Serial Bus). Mas, por ser maior do que o Windows 95 e possuir mais funções, era também mais lento e mais instável. Nessa versão, nasce a restauração de sistema via MS-DOS (Scanreg.exe /restore). A restauração de sistema visava corrigir problemas retornando o computador a um estado anteriormente acessado (ontem, antes de ontem, etc).
O Windows XP foi uma família de sistemas operacionais de 32 e 64 bits produzido pela Microsoft, para uso em computadores pessoais, incluindo computadores residenciais e de escritórios, notebooks, tablets e media centers. O nome “XP” deriva de eXPerience.[4] O Windows XP é o sucessor de ambos os Windows 2000 e Windows ME e é o primeiro sistema operacional para consumidores produzido pela Microsoft construído em nova arquitetura e núcleo (Windows NT 5.1). O Windows XP foi lançado no dia 25 de Outubro de 2001 e mais de 400 milhões de cópias estavam em uso em Janeiro de 2006, de acordo com estimativas feitas naquele mês pela empresa de estatísticas IDC.[5] Foi sucedido pelo Windows Vista lançado para pré-fabricantes no dia 8 de Novembro de 2006 e para o público em geral em 30 de Janeiro de 2007. Suas vendas cessaram no dia 30 de Junho de 2008, porém ainda era possível adquirir novas licenças com os desenvolvedores do sistema até 31 de Janeiro de 2009 ou comprando e instalando as edições Ultimate ou Business do Windows Vista e então realizando o downgrade para o Windows XP.Até o final de Julho de 2010, o Windows XP era o sistema operacional mais utilizado no mundo com 62.43% de participação no mercado, tendo chegado a 85% em Dezembro de 2006. Os números mostram a queda exponencial do uso do sistema operacional, acelerada pelo lançamento do Windows 7, que chegou para corrigir os problemas do Vista.

O Windows Vista é um sistema operacional desenvolvido pela Microsoft, sendo a sexta versão do Windows para uso em computadores pessoais, incluindo computadores residenciais e de escritórios, laptops, Tablet PCs e computadores Media Centers. Antes do seu anúncio em 22 de Julho de 2005, o Windows Vista era conhecido pelo nome de código Longhorn. O lançamento do Windows Vista veio mais de cinco anos depois da introdução do seu predecessor, o Windows XP, sendo o período mais longo entre lançamentos consecutivos de versões do Microsoft Windows. O Windows Vista possui novos recursos e funções dos que os apresentados por sua versão anterior o Windows XP, como uma nova interface gráfica do usuário, apelidada de Windows Aero.

O Windows 7 é uma versão do Microsoft Windows, uma série de sistemas operativos produzidos pela Microsoft para uso em computadores pessoais, incluindo computadores domésticos e empresariais, laptops, tablets e PCs de centros de mídia, entre outros.[8] Windows 7 foi lançado para empresas no dia 22 de julho de 2009, e começou a ser vendido livremente para usuários comuns às 00:00 do dia 22 de outubro de 2009, menos de 3 anos depois do lançamento de seu predecessor, Windows Vista. Pouco mais de três anos depois, o seu sucessor, Windows 8, foi lançado em 26 de outubro de 2012.
A penúltima versão lançada, o Windows 8.1, é um sistema operacional mais estável, o seu visual é simples e tem uma boa performance em uma grande gama de computadores, tablets e Notebooks Híbridos de variadas configurações. O layout também sofreu algumas modificações, para que seja mais fácil encontrar o que você precisa, quando precisa, permitindo que o usuário ganhe tempo em tarefas rotineiras.
A Microsoft lançou o Windows 10 Technical Preview (nome de código Threshold) no dia 30 de setembro de 2014 e em seu lançamento foi enfatizado o retorno do Menu Iniciar de que tanto os utilizadores sentiam falta.
A principal linguagem de programação usada para escrever o código-fonte das várias versões do Windows é o C e algumas partes com C++ e Assembly. Até a versão 3.11, o sistema rodava em 16 bits (apesar de poder instalar um update chamado Win32s para adicionar suporte a programas 32 bits), daí em diante, em 32 bits. As versões a partir do XP e Server 2003 estão preparadas para a tecnologia 64 bits. Os sistemas de 64 bits não possuem mais suporte para rodar nativamente aplicativos de 16 bits, sendo necessário uso de emuladores/máquinas virtuais.
Outra característica denominada de herança maldita devido o fato de ter herdado essa regra do DOS é o fato de não se poder criar pastas com os determinado nomes: con, prn, aux, com1 e lpt1. Trata-se de uma antiga herança que os SOs Windows carregam do MS-DOS e são palavras reservadas para a comunicação interna do SO. Portanto, mesmo o mais recente sistema da Microsoft é incapaz de interpretar tais sentenças como simples nomes através do Windows Explorer.