Tecnologia-A Era do Chip


O Chip é um circuito eletrônico miniaturizado (composto principalmente por dispositivos semicondutores) sobre um substrato fino de material semicondutor.
equipamentos eletrônicos usados hoje e revolucionaram o mundo da eletrônica.
Um circuito integrado híbrido é um circuito eletrônico miniaturizado constituído de dispositivos semicondutores individuais, bem como componentes passivos, ligados a um substrato ou placa de circuito.
Os circuitos integrados foram possíveis por descobertas experimentais que mostraram que os dispositivos semicondutores poderiam desempenhar as funções de tubos de vácuo, e desde meados do século XX, pelos avanços da tecnologia na fabricação de dispositivos semicondutores.
A integração de um grande número de pequenos transístores em um chip pequeno foi uma enorme melhoria sobre o manual de montagem de circuitos com componentes eletrônicos discretos. A capacidade do circuito integrado de produção em massa, a confiabilidade e a construção de bloco de abordagem para projeto de circuito assegurou a rápida adaptação de circuitos integrados padronizados no lugar de desenhos utilizando transístores pequenos.
Há duas principais vantagens de circuitos integrados sobre circuitos discretos: custo e desempenho. O custo é baixo porque os chips, com todos os seus componentes, são impressos como uma unidade por fotolitografia: um puro cristal de silício, chamada de substrato, que são colocados em uma câmara. Uma fina camada de dióxido de silício é depositada sobre o substrato, seguida por outra camada química, chamada de fotorresiste. Além disso, muito menos material é usado para construir um circuito como um circuitos integrados do que como um circuito discreto. O desempenho é alto, visto que os componentes alternam rapidamente e consomem pouca energia (em comparação com os seus homólogos discretos) porque os componentes são pequenos e estão próximos. A partir de 2006, as áreas de chips variam de poucos milímetros quadrados para cerca de 350 mm², com até 1 milhão de transístores por mm². Chips feitos de nanotubos de carbono, em vez de silício, podem dar origem a uma nova geração de dispositivos eletrônicos mais rápidos e com maior eficiência energética.
A ideia de um circuito integrado foi levantada por Geoffrey Dummer (1909-2002), um cientista que trabalhava para o Royal Radar Establishment (do Ministério da Defesa britânico). Dummer publicou a ideia em 7 de maio de 1952 no Symposium on Progress in Quality Electronic Components em Washington, D.C.. Ele deu muitas palestras públicas para propagar suas ideias.
O circuito integrado pode ser considerado como sendo inventado por Jack Kilby de Texas Instruments e Robert Noyce, da Fairchild Semiconductor, trabalhando independentemente um do outro. Kilby registrou suas ideias iniciais sobre o circuito integrado em julho de 1958 e demonstrou com sucesso o primeiro circuito integrado em função em 12 de setembro de 1958 Em seu pedido de patente de 6 de fevereiro de 1959, Kilby descreveu o seu novo dispositivo como “a body of semiconductor material … wherein all the components of the electronic circuit are completely integrated.”
Kilby ganhou em 2000 o Prêmio Nobel de Física por sua parte na invenção do circuito integrado.
O chip de Noyce tinha resolvido muitos problemas práticos que o microchip, desenvolvido por Kilby, não tinha. O chip de Noyce, feito em Fairchild, era feito de silício, enquanto o chip de Kilby era feito de germânio.
Marcante evolução do circuito integrado remontam a 1949, quando o engenheiro alemão Werner Jacobi (Siemens AG) entregou uma patente que mostrou o arranjo de cinco transístores em um semicondutor.
Com os componentes de larga escala de integração, (do inglês: Large Scale Integration, LSI), nos anos oitenta, e a integração em muito larga escala, (Very-large-scale integration, VLSI), nos anos noventa, vieram os microprocessadores de alta velocidade de tecnologia MOS, que nada mais são que muitos circuitos integrados numa só mesa epitaxial.
Atualmente a eletrônica está entrando na era da nanotecnologia. Os componentes eletrônicos se comportam de maneiras diferentes do que na eletrônica convencional e microeletrônica, nestes a passagem de corrente elétrica praticamente não altera o seu estado de funcionamento. Nos nanocomponentes, a alteração de seu estado em função da passagem de corrente deve ser controlada, pois existe uma sensibilidade maior às variações de temperatura, e principalmente à variações dimensionais. Estas causam alterações nas medidas físicas do componente de tal forma, que podem vir a danificá-la. Por isso a nanotecnologia é tão sensível sob o ponto de vista de estabilidade de temperatura e pressão.
Nanochipe
Uma tecnologia Nanochipe é um circuito integrado eletrônico tão pequeno que pode ser medido com precisão apenas na escala nanométrica. É um dispositivo semicondutor que aumenta a gama de chips de armazenamento removíveis. Nanochipes também são usados em produtos eletrônicos de consumo, como câmeras digitais, telefones celulares, PDAs, computadores e laptops, entre outros. Nanochipe é um pequeno sistema eletrônico que possui alto poder de processamento e também pode caber em um volume físico assumido com menos necessidade de energia. A tecnologia de nanochipe é benéfica, pois seus chips de armazenamento não dependem dos limites da litografia.
No circuito integrado completo ficam presentes os transístores, condutores de interligação, componentes de polarização, e as camadas e regiões isolantes ou condutoras obedecendo ao seu projeto de arquitetura.

No processo de formação do chip, é fundamental que todos os componentes sejam implantados nas regiões apropriadas da pastilha. É necessário que a isolação seja perfeita, quando for o caso. Isto é obtido por um processo chamado difusão, que se dá entre os componentes formados e as camadas com o material dopado com fósforo, e separadas por um material dopado com boro, e assim por diante.
Após sucessivas interconexões, por boro e fósforo, os componentes formados ainda são interconectados externamente por uma camada extremamente fina de alumínio, depositada sobre a superfície e isolada por uma camada de dióxido de silício.
Rotulagem
Dependendo do tamanho os circuitos integrados apresentam informações de identificação incluindo 4 seções comuns: o nome ou logotipo do fabricante, seu número, número do lote e/ou número serial e um código de 4 dígitos identificando a data da fabricação. A data de fabricação é comumente representada por 2 dígitos do ano, seguido por dois dígitos informando a semana. Exemplo do código 8341: O circuito integrado foi fabricado na semana 41 do ano de 1983, ou aproximadamente em outubro de 83.
Desde que os circuitos integrados foram criados, alguns designers de chips tem usado a superfície de silício para códigos, imagens e palavras não funcionais. Eles são algumas vezes referenciados como chip art, silicon art, silicon graffiti ou silicon doodling.
As técnicas aperfeiçoadas pela indústria de circuitos integrados nas últimas três décadas têm sido usadas para criar máquinas microscópicas, conhecidos como sistemas microeletromecânicos (do inglês: microelectromechanical systems, MEMS, ver também: microtecnologia). Esses dispositivos são usados em uma variedade de aplicações comerciais e militares. Exemplo de aplicações comerciais incluem a tecnologia processamento digital de luz em videoprojetores, impressoras de jato de tinta e acelerômetros usados em airbags de automóveis.

Desde 1998, um grande número de chips de rádios tem sido criado usando CMOS possibilitando avanços tecnológicos como o telefone portátil DECT da Intel ou o chipset 802.11 da empresa Atheros.
As futuras criações tendem a seguir o paradigma dos processadores multinúcleo, já utilizados pelos processadores dual-core da Intel e AMD. A Intel recentemente apresentou um protótipo não comercial, que tem 80 microprocessadores. Cada núcleo é capaz de executar uma tarefa independentemente dos outros. Isso foi em resposta do limite calor vs velocidade no uso de transístores existentes. Esse design traz um novo desafio a programação de chips. X10 é uma nova linguagem open-source criada para ajudar nesta tarefa.

Era do Chip-Pioneirismo na América Latina


FONTE: USP
Em 1971, a Escola Politécnica da USP desenvolveu o primeiro chip da América Latina. A criação pioneira do circuito integrado marca a trajetória do Laboratório de Microeletrônica (LME), fundado em 1968. Posteriormente, com a incorporação do Laboratório de Sistemas Integráveis (LSI), a tecnologia foi aperfeiçoada para incorporar processadores, máquinas de calcular, supercomputadores e realidade virtual.
A história da microeletrônica brasileira é contada por João Antonio Zuffo, professor sênior do Departamento de Engenharia Elétrica da Escola Politécnica da USP e criador do primeiro circuito integrado brasileiro.
Após conquistar o título de doutor pela Poli-USP, Zuffo, juntamente com um grupo de docentes, organizou a fundação do LME em 1968, com investimentos públicos e privados, possibilitando a execução de pesquisas. Na época, Zuffo lecionava cursos na área de circuitos elétricos integrados e logo em 1971 finalizou o considerado primeiro chip do Brasil: “Era um circuito de acoplamento de emissor. Continha seis transistores, três entradas e duas saídas. Fiz a demonstração de operação desses transistores, inclusive, para uma visita que teve do presidente na época. E assim se desenvolveu o Laboratório de Microeletrônica”.
Em 1979, O LME passou a desenvolver circuitos integrados em múltiplas camadas, usando material refratário com componentes, como molibdênio e tungstênio. Assim, os chips se tornaram mais sofisticados. Posteriormente, na década de 1990, a partir de financiamento da Financiadora de Estudos e Projetos (Finep), os pesquisadores investiram na criação de supercomputadores com componentes paralelos, utilizando hipersistemas integrados. Junto a isso, desenvolveram também a realidade virtual.
Futuro da tecnologia
O especialista acredita que há enormes possibilidades na área de tecnologia de comunicação. Os celulares, por exemplo, devem avançar cada vez mais: “Realmente já estão trabalhando na sexta geração de telefonia celular. Isso envolve frequências de 3 a 10 Terahertz. Hoje não se trabalha nessa frequência, mas seria na ordem de cem vezes mais rápido que a quinta geração. Também é possível trabalhar com luz infravermelha na sexta geração”.

A inteligência artificial tende a ser aperfeiçoada: “Vejo muito desenvolvimento na área de inteligência artificial. Isso interligado com a internet de todas as coisas. Vejo possibilidades de desenvolvimento de novas arquiteturas de computação para integrar neurônios e sinapses localmente com memória, fazendo uma espécie de neurocomputação local”, compartilha, e finaliza: “O Brasil tem muitas oportunidades, porque existem áreas que são de baixo custo. Não são precisos laboratórios muito sofisticados, mas cabe inclusive uma grande pressurização da parte eletrônica com a biológica”.

Tecnologia-História do Chip


Chips são componentes eletrônicos que nasceram pela pressão do progresso da nossa sociedade por soluções que oferecessem mais desempenho e eficiência no processamento de dados. Em resumo, você pode resumir um microchip em um minúsculo coletivo de transistores e outros componentes, cuja utilidade é transformar energia elétrica em dados binários, ou informações.
As válvulas eram bem mais rápidas que os relês, até 1 milhão de vezes, mas terrivelmente suscetíveis a quebras. Consistiam em uma câmera de vácuo por onde os elétrons fluíam num filamento, que era o cerne das quebras. Com o tempo, o aquecimento fazia com que ele perdesse a efetividade – assim como as lâmpadas de tungstênio, que com o tempo acabam queimando. Era o fluxo de elétrons na válvula, que podia ser cessado ou intensificado nela, que fechava ou abria o circuito, determinando as posições “ligado e desligado” do sistema binário, presente até hoje na tecnologia.
Quanto maior e mais poderoso o computador, mais válvulas ele tinha. Digamos que um computador da época ocupa-se cinco andares. Todos eles com milhares de válvulas operando. Neste cenário, é uma aposta mais ou menos segura dizer que há grande possibilidade de que, em algum lugar do complexo, ao menos uma válvula quebre por um espaço de minutos. Imaginem o trabalho de percorrer todas as unidades reparando as válvulas queimadas. Tudo isso para processar tarefas que calculadoras embutidas no seu smartphone hoje realizam com muito mais elegância.
Semicondutor
Na escola você deve ter aprendido que metais são excelentes condutores de energia e calor. E que os não-metais são excelentes isolantes de calor e energia. Isso é verdade, mas há exceções: alguns materiais têm um comportamento intermediário, em alguns momentos conduzem energia, e em outros isolam. São os chamados semicondutores, dos quais o silício é, hoje, por larga margem, o mais conhecido e difundido.
Quanto maior e mais poderoso o computador, mais válvulas ele tinha. Digamos que um computador da época ocupa-se cinco andares. Todos eles com milhares de válvulas operando. Neste cenário, é uma aposta mais ou menos segura dizer que há grande possibilidade de que, em algum lugar do complexo, ao menos uma válvula quebre por um espaço de minutos. Imaginem o trabalho de percorrer todas as unidades reparando as válvulas queimadas. Tudo isso para processar tarefas que calculadoras embutidas no seu smartphone hoje realizam com muito mais elegância.
Origem
Antes do aparecimento do transistor, um computador ocupada andares, pesava toneladas e ninguém se arriscava a confiar na sua vida útil, porque independente do recurso técnico utilizado, ela era medida em espaços de tempo muito curtos. Para continuar operando, por exemplo, um computador precisava trocar de válvulas a todo momento. Elas simplesmente queimavam.
Computadores podiam usar relês ou válvulas, ou as duas coisas. Relê consistia em um elemento magnético, cuja movimentação determinava um valor binário: ou 0 ou 1, ou ligado e desligado. O movimento de algo muito parecido com um êmbolo a partir de um pulso elétrico selava ou abria o circuito. Embora mais confiáveis que as válvulas a vácuo, os relês eram clamorosamente mais lentos. Sim, se você se surpreendeu com o fato de que um computador processava informações com partes mecânicas, você entendeu bem a ideia por trás do relê.
O fato do silício poder conduzir ou isolar energia faz com que ele possa ser usado como uma chave, assim como o relê ou a válvula, entre posições binárias. Com a grande vantagem de que permite que os fluxos de elétrons da energia precisem percorrer distâncias bem pequenas no silício, sem a necessidade de filamentos frágeis e partes mecânicas.

Transistor

Um microchip, como um processador, pode ser entendido como um amontoado de transistores trabalhando simultaneamente para alcançar maior desempenho em cálculos – ou ligar e fechar circuitos binários – por segundo. Por exemplo, um processador da arquitetura Bulldozer da AMD pode ter impresso no seu die (entenda esse termo como lâmina ou waffle) de silício até 1,4 bilhão de transistores.

O transistor substitui as válvulas e relês com vantagens evidentes: é minúsculo, consome quantidades dramaticamente inferiores de energia, sua durabilidade atravessa anos – se não mesmo décadas a fio – e os custos de produção de um transistor comum são relativamente baixos.
Se você entendeu para que serviam relês e válvulas, fica fácil entender para que servem transistores. Eles bloqueiam eletricidade, ou a amplificam, dependendo da necessidade. Foi criado por técnicos e cientistas da Bell Telephone Laboratories em 1947. O time foi composto por John Bardeen, Walter Houser Brattain e William Bradford Shockley, que por conta do feito, conquistaram o Nobel de Física.

O que são microchips

Se o transistor foi fruto da necessidade de abandonar os lentos relês e as para lá de problemáticas válvulas, o microchip foi a evolução que nasceu da necessidade de melhorar o desempenho dos transistores. O ano era 1959. Ou 1958, se você considerar Kilby o pai do circuito integrado.

Um microchip resume-se num circuito eletrônico integrado miniaturizado e produzido na superfície de um material semicondutor, como o silício (outros podem ser usados, como germânio e molibdenita).

Mas o que levou a necessidade de condensar transistores e outros elementos no silício de modo a nascer um chip? A resposta é a mesma que explica o por quê da Intel criar uma arquitetura de processadores tridimensionais, ou da ARM passar a criar processadores multicore: a crescente necessidade de desempenho.

O circuito integrado que entendemos como microchip é mais resistente porque seus diversos componentes são formados, impressos, no silício, e não montados, como antigamente. Nesse sentido, possuem uma resistência a choques mecânicos e elétricos consideravelmente maior e sua taxa de defeito de fabricação cai a níveis desconsideráveis, quando leva-se em conta a produção de massa.

Além destas questões, há o óbvio: caso o microchip não existisse, o celular seria possível com uma coleção de transistores, por exemplo. Mas talvez você precisasse de um automóvel para carregá-lo consigo. As principais forças motrizes que empurram a indústria de semicondutores são sempre a miniaturização e a melhora de desempenho, considerando também a redução de custos de produção.
Há muita divergência sobre os inventores do microchip. Diversas pessoas escreveram sobre o assunto, documentaram suas ideias e mesmo registraram patentes de transistores integrados. Mas dois sujeitos tiveram um papel mais destacado no processo e são considerados os dois grandes responsáveis: Jack S. Kilby, da Texas Instruments – que até hoje fabrica microchips – e Robert N. Noyce, recentemente homenageado por um Doodle. Ele trabalhava na Fairchild Semiconductor, de cujas entranhas nasceu a Intel.
Tanto Kilby como Noyce se viam às voltas com a necessidade de condensar os componentes de um circuito em um único die de silício. A solução de Kilby era construir tudo sobre uma base de germânio, e não silício, e interconectar os elementos com pequeninos fios (como você viu na foto que abre este texto). Noyce, cuja técnica evoluiu ao que temos hoje, criou filamentos de ouro e alumínio entre os componentes. Isso permite pastilhas de silício com níveis altíssimos de pureza, mais velocidade e eficiência.

Atualmente, para que servem os microchips

O microchip cresceu em desempenho, utilizações, versões, tipos de componentes e processos de manufatura, mas sempre procurou encolher em tamanho e custo. É a chamada Lei de Moore: “o número de transistores de um chip terá um aumento de 100% a cada 18 meses pelo mesmo custo”.
A Lei ainda se aplica, mas há limites teóricos: estima-se que o silício torna-se impossível enquanto substrato dos microchips depois dos 14 nanômetros (1 nanômetro é 1 milionésimo de milímetro). É um limite teórico que instiga os novos Noyce a criar novas soluções que abandonem os waffles de silício. Ou que evolua a tecnologia a ponto de que o silício seja viável em nível inferior a 14 nm.

Mega Byte – Adicionar memória RAM sempre vai deixar o meu PC mais rápido?



Ao transitar entre as abas do navegador ou abrir o player de música para avançar a faixa em execução, o computador apresenta um comportamento estranho: leva vários segundos para realizar a ação, até que em um momento ele fica completamente paralisado.
É bem possível que em uma situação como essa muitas pessoas cheguem à imediata conclusão de que a máquina está precisando de mais memória RAM e já comecem a pesquisar o preço de mais um pente com 2 GB ou 4 GB. Mas será que adicionar RAM sempre vai deixar o seu PC mais rápido? É exatamente isso o que vamos tentar desmistificar neste artigo.
Colocar mais e mais memória RAM toda a vez que o computador dá um sinal de lentidão não significa necessariamente que a sua máquina vá apresentar um aumento de desempenho — embora, em alguns casos, um pouco mais de RAM possa ser suficiente para “desafogar” o PC e mantê-lo utilizável.
A memória RAM acessa os dados de forma não sequencial. Qualquer setor livre encontrado é preenchido com a nova informação a ser processada pela CPU, acelerando em muito os procedimentos de leitura e escrita. Outra peculiaridade deste componente é a sua volatilidade, o que significa que todos os dados armazenados nele podem ser perdidos quando o computador é desligado.

Assim, basicamente, a RAM funciona como um mecanismo de apoio para o processador, armazenando os dados mais utilizados pelos programas em uso e colaborando para a transferência deles pelo disco de armazenamento permanente (ROM). Como você deve ter percebido, a memória RAM atua em completa cooperação com outros componentes.
Dessa forma, ela não é a única responsável pela velocidade do PC. Em outras palavras, não adiantaria você colocar 12 GB de RAM no computador se o HD e a CPU dele estão ultrapassados.
Atualmente, é difícil encontrar um computador novo à venda que possua menos do que 2 GB de RAM — quantidade satisfatória para as atividades mencionadas no parágrafo anterior. Contudo, existe uma enorme variedade de modelos com preços acessíveis que trazem 4 GB de memória de acesso aleatório (do inglês Random Access Memory).
Tais computadores já aguentam um cotidiano mais exigente, incluindo o uso de editores de imagem profissionais, o processamento de um número grande de tarefas simultâneas e a jogatina de alguns jogos mais recentes e pesados — embora, como já vimos antes, existam outros componentes essenciais para que todas essas atividades sejam desempenhadas de forma satisfatória.

Você realmente necessitará de 6 GB, 8 GB ou mais de memória RAM caso pretenda realizar atividades extremamente exigentes da máquina, como editar vídeos profissionalmente, ou deseje jogar os games recém-lançados e cheios de detalhamento gráficos com todas as configurações no “máximo”.

O que fazer para ter um PC mais rápido?
Conforme já explicamos, entupir o computador de memória RAM não é garantia de obter um PC mais veloz e eficiente. Se você está tendo problemas para rodar o Photoshop ou máquinas virtuais, por exemplo, é possível que adicionar mais RAM ao seu computador resolva os travamentos.
Mas, para tornar a sua máquina efetivamente mais rápida, o ideal seria investir também em um processador mais moderno e um disco de armazenamento SSD. Apesar de muitas pessoas não acreditarem, a presença de um SSD pode fazer muita diferença.
De acordo com nossos testes, você nem precisa comprar um disco SSD com 500 GB, por exemplo, para substituir o disco rígido convencional (componente que tem um elevadíssimo custo no Brasil). Adotando uma unidade de menor tamanho, 32 GB ou 64 GB, em paralelo com o HD comum já pode oferecer uma performance melhorada bastante relevante.

Mega Byte – Sistema Operacional Windows



É uma família de sistemas operacionais desenvolvidos, comercializados e vendidos pela Microsoft. É constituída por várias famílias de sistemas operacionais, cada qual atendendo a um determinado setor da indústria da computação, sendo que o sistema geralmente é associado com a arquitetura IBM PC compatível. As famílias ativas do Windows incluem Windows NT, Windows Embedded e Windows Phone; estes podem abranger subfamílias, como Windows CE ou Windows Server.
Entre as famílias Windows extintas estão o Windows 9x; o Windows 10 Mobile é um produto ativo, não relacionado à família defunta Windows Mobile. A Microsoft introduziu um ambiente operacional chamado Windows em 20 de novembro de 1985, como um shell para MS-DOS, em resposta ao crescente interesse em interfaces gráficas de usuário (GUIs).
O Microsoft Windows passou a dominar o mercado de computadores pessoais (PC) do mundo, com mais de 90% de participação de mercado, superando o Mac OS, que havia sido introduzido em 1984. A Apple chegou a ver o Windows como uma invasão injusta em sua inovação no desenvolvimento de produtos GUI, como o Lisa e o Macintosh (eventualmente resolvido na Justiça em favor da Microsoft em 1993). Nos PCs, o Windows ainda é o sistema operacional mais popular.

No entanto, em 2014, a Microsoft admitiu a perda da maioria do mercado global de sistemas operacionais do sistema operacional móvel Android, devido ao enorme crescimento nas vendas de smartphones. Em 2014, o número de dispositivos Windows vendidos era menos de 25% dos dispositivos Android vendidos. Essas comparações, no entanto, podem não ser totalmente relevantes, já que os dois sistemas operacionais visam plataformas tradicionalmente diferentes. Em setembro de 2016, a versão mais recente do Windows para PCs, tablets, smartphones e dispositivos embutidos era o Windows 10. As versões mais recentes para servidores era o Windows Server 2016. Uma versão especializada do Windows é executada no console de jogos Xbox One.
Histórico
A Microsoft começou a desenvolver o Microsoft Windows em setembro de 1981. Os primeiros Windows, como o 1.0, 2.0, são compatíveis apenas com partições formatadas em sistema de ficheiros FAT, nesse caso, o FAT 16.
O 3.x poderia ser instalado em FAT 32, porém necessita ser instalado o MS-DOS 7.10, que era incluído nos disquetes de inicialização do Windows 95 OSR2 e Windows 98, necessitando modificar alguns arquivos para permitir seu funcionamento.
Ao mudar do 3.1 para o 95B (Windows 95 OSR 2/OSR 2.1), os HD’s poderiam ser formatados em FAT 32.
Inicialmente lançado com o Windows NT, a tecnologia NTFS é ainda hoje (2020) o padrão de fato para esta classe. Com a convergência de ambos sistemas, o Windows XP passou também a preferir este formato.
O Windows 95 foi lançado em 24 de agosto de 1995. Ele era um Windows completamente novo, e de nada lembra os Windows da família 3.xx. O salto do Windows 3.0 ao Windows 95 era muito grande e ocorreu uma mudança radical na forma da apresentação do interface. Introduziu o Menu Iniciar e a Barra de Tarefas. Enquanto Nesta versão, o MS-DOS perdeu parte da sua importância visto que o Windows já consegue ativar-se sem precisar da dependência prévia do MS-DOS. As limitações de memória oferecidas ainda pelo Windows 3.0 foram praticamente eliminadas nesta versão. O sistema multitarefa tornou-se mais eficaz. Utilizava o sistema de ficheiros FAT-16 (VFAT). Os ficheiros (arquivos) puderam a partir de então ter 255 caracteres de nome (mais uma extensão de três caracteres que indica o conteúdo do arquivo, facilitando assim sua identificação e podendo ser associado para abertura em determinados programas). O salto foi enorme, e o lançamento foi amplamente divulgado pela imprensa, inclusive pelas grandes redes de televisão. Existe uma outra versão do Windows 95, lançada no início de 1996, chamada de Windows 95 OEM Service Release 2 (OSR 2), com suporte nativo ao sistema de arquivos FAT32. Já o Windows 95, a partir da revisão OSR 2.1, incluía o suporte nativo ao Barramento Serial Universal (USB) e Ultra DMA (UDMA). Foi lançada ainda uma versão especial, o Windows 95 Plus!, com um pacote de diferentes temas visuais e sonoros para personalização do sistema operacional. Esta versão também incluía o navegador Internet Explorer.

Windows 98
Esta versão foi lançada em 25 de Junho de 1998. Foram corrigidas muitas das falhas do seu antecessor. A maior novidade desta versão era a completa integração do S.O. com a Internet. Utilizava o Internet Explorer 4. Introduziu o sistema de arquivos FAT 32 e começou a introduzir o teletrabalho (só foi possível devido à integração do Web). Melhorou bastante a interface gráfica. Incluiu o suporte a muitos monitores e ao USB (Universal Serial Bus). Mas, por ser maior do que o Windows 95 e possuir mais funções, era também mais lento e mais instável. Nessa versão, nasce a restauração de sistema via MS-DOS (Scanreg.exe /restore). A restauração de sistema visava corrigir problemas retornando o computador a um estado anteriormente acessado (ontem, antes de ontem, etc).
O Windows XP foi uma família de sistemas operacionais de 32 e 64 bits produzido pela Microsoft, para uso em computadores pessoais, incluindo computadores residenciais e de escritórios, notebooks, tablets e media centers. O nome “XP” deriva de eXPerience.[4] O Windows XP é o sucessor de ambos os Windows 2000 e Windows ME e é o primeiro sistema operacional para consumidores produzido pela Microsoft construído em nova arquitetura e núcleo (Windows NT 5.1). O Windows XP foi lançado no dia 25 de Outubro de 2001 e mais de 400 milhões de cópias estavam em uso em Janeiro de 2006, de acordo com estimativas feitas naquele mês pela empresa de estatísticas IDC.[5] Foi sucedido pelo Windows Vista lançado para pré-fabricantes no dia 8 de Novembro de 2006 e para o público em geral em 30 de Janeiro de 2007. Suas vendas cessaram no dia 30 de Junho de 2008, porém ainda era possível adquirir novas licenças com os desenvolvedores do sistema até 31 de Janeiro de 2009 ou comprando e instalando as edições Ultimate ou Business do Windows Vista e então realizando o downgrade para o Windows XP.Até o final de Julho de 2010, o Windows XP era o sistema operacional mais utilizado no mundo com 62.43% de participação no mercado, tendo chegado a 85% em Dezembro de 2006. Os números mostram a queda exponencial do uso do sistema operacional, acelerada pelo lançamento do Windows 7, que chegou para corrigir os problemas do Vista.

O Windows Vista é um sistema operacional desenvolvido pela Microsoft, sendo a sexta versão do Windows para uso em computadores pessoais, incluindo computadores residenciais e de escritórios, laptops, Tablet PCs e computadores Media Centers. Antes do seu anúncio em 22 de Julho de 2005, o Windows Vista era conhecido pelo nome de código Longhorn. O lançamento do Windows Vista veio mais de cinco anos depois da introdução do seu predecessor, o Windows XP, sendo o período mais longo entre lançamentos consecutivos de versões do Microsoft Windows. O Windows Vista possui novos recursos e funções dos que os apresentados por sua versão anterior o Windows XP, como uma nova interface gráfica do usuário, apelidada de Windows Aero.

O Windows 7 é uma versão do Microsoft Windows, uma série de sistemas operativos produzidos pela Microsoft para uso em computadores pessoais, incluindo computadores domésticos e empresariais, laptops, tablets e PCs de centros de mídia, entre outros.[8] Windows 7 foi lançado para empresas no dia 22 de julho de 2009, e começou a ser vendido livremente para usuários comuns às 00:00 do dia 22 de outubro de 2009, menos de 3 anos depois do lançamento de seu predecessor, Windows Vista. Pouco mais de três anos depois, o seu sucessor, Windows 8, foi lançado em 26 de outubro de 2012.
A penúltima versão lançada, o Windows 8.1, é um sistema operacional mais estável, o seu visual é simples e tem uma boa performance em uma grande gama de computadores, tablets e Notebooks Híbridos de variadas configurações. O layout também sofreu algumas modificações, para que seja mais fácil encontrar o que você precisa, quando precisa, permitindo que o usuário ganhe tempo em tarefas rotineiras.
A Microsoft lançou o Windows 10 Technical Preview (nome de código Threshold) no dia 30 de setembro de 2014 e em seu lançamento foi enfatizado o retorno do Menu Iniciar de que tanto os utilizadores sentiam falta.
A principal linguagem de programação usada para escrever o código-fonte das várias versões do Windows é o C e algumas partes com C++ e Assembly. Até a versão 3.11, o sistema rodava em 16 bits (apesar de poder instalar um update chamado Win32s para adicionar suporte a programas 32 bits), daí em diante, em 32 bits. As versões a partir do XP e Server 2003 estão preparadas para a tecnologia 64 bits. Os sistemas de 64 bits não possuem mais suporte para rodar nativamente aplicativos de 16 bits, sendo necessário uso de emuladores/máquinas virtuais.
Outra característica denominada de herança maldita devido o fato de ter herdado essa regra do DOS é o fato de não se poder criar pastas com os determinado nomes: con, prn, aux, com1 e lpt1. Trata-se de uma antiga herança que os SOs Windows carregam do MS-DOS e são palavras reservadas para a comunicação interna do SO. Portanto, mesmo o mais recente sistema da Microsoft é incapaz de interpretar tais sentenças como simples nomes através do Windows Explorer.

Tecnologia – O LED Azul


LED-azul
O Prêmio Nobel de Física deste ano foi concedido a três cientistas japoneses pela invenção do LED azul. A tecnologia revolucionou o ramo da iluminação mundial , permitindo a criação de lâmpadas com menor consumo de energia e maior durabilidade
Os LEDs (da sigla em inglês para light-emitting diode) estão bem próximos de conquistar o mundo, graças ao seu brilho e eficiência energética. E, diferentemente das lâmpadas incandescentes, os LEDs não emitem calor junto com a luz. Eles estão em milhões de smartphones, televisões e computadores – basicamente qualquer coisa com uma tela iluminada.
Os LEDs azuis, em combinação com LEDs vermelhos e verdes (que tinham sido inventados anteriormente), tornaram possível a produção da luz branca. Este tipo de iluminação é muito mais eficiente energeticamente e tem uma vida útil mais longa do que as lâmpadas incandescentes convencionais. disse Christian Wetzel, físico da Rensselaer Polytechnic Institute, em Troy, Nova York.
“As lâmpadas incandescentes iluminaram o século 20, mas o século 21 será iluminado por lâmpadas LED”, disse um representante da Real Academia Sueca de Ciências em um comunicado.
As lâmpadas LED também trazem a promessa de melhorar a qualidade de vida de cerca de 1,2 bilhão de pessoas em todo mundo que não têm acesso às redes de energia elétrica, já que seu baixo consumo de eletricidade permite que sejam alimentadas por painéis e baterias solares.
Além de iluminar, os LEDs podem incorporar sensores que detectam quando as pessoas estão em uma sala, e desligar as luzes quando não há ninguém – um requisito para qualquer casa inteligente.
Os LEDs já estão sendo explorados por seu potencial de transmissão de dados da internet através de um espaço aberto, semelhante ao WiFi. Tal sistema poderia transmitir muito mais dados do que WiFi atual, disse Wetzel. Isso é possível porque os LEDs podem ligar e desligar milhões de vezes por segundo.
Os usos dos LEDs azuis não param por aí. A tecnologia está começando a ser usada para a purificação de água. Atualmente, as plantas de purificação usam lâmpadas de mercúrio para matar os micróbios na água, mas estas lâmpadas consomem muita energia. Já o LED pode purificar a água diretamente na torneira, e ligar ou desligar conforme necessário – o que resulta em grande economia, disse Wetzel. Apenas algumas empresas estão trabalhando com o LED para a purificação de água no momento, mas em poucos anos, eles vão estar em toda parte, disse ele.
A ascensão de iluminação LED veio num momento em que as pessoas estão começando a se preocupar com o aquecimento global, disse Wetzel. Por causa da eficiência energética dos LEDs, o seu uso para a iluminação do mundo terá “um impacto extremo” na sociedade.

led-azul-e1412918469712

O Tubo de Raios Catódicos


tubo de raios catodicos
Um tubo de raios catódicos ou cinescópio (também conhecido pelo acrónimo CRT, derivado da expressão inglesa cathode ray tube) é um tipo de válvula termiônica contendo um ou mais canhões de elétrons e um ecrã fluorescente utilizado para ver imagens. Seu uso se dá principalmente em monitores de computadores e televisores (cinescópios de deflexão eletromagnética) e osciloscópios (cinescópios de deflexão eletrostática). Foi inventado por Karl Ferdinand Braun em 1897.
Foi em um tubo de raios catódicos que, em 1897, o físico J. J. Thomson verificou a existência do elétron.
As primeiras experiências com raios catódicos são creditadas a J. J. Thomson, físico inglês que, em seus três famosos experimentos, conseguiu observar a deflexão eletrostática, uma das funções fundamentais dos tubos de raios catódicos modernos. A primeira versão do tubo de raios catódicos foi inventada pelo físico alemão Ferdinand Braun em 1897, tendo ficado conhecida como tubo de Braun.
EM 1907, o cientista russo Boris Rosing usou um tubo de raios catódicos na extremidade receptora de um sinal experimental de vídeo para formar uma imagem. Ele conduziu o experimento para mostrar formas geométricas simples na tela. Foi a primeira vez em que a tecnologia de tubo de raios catódicos foi usada para o que agora conhecemos como televisão.
O primeiro tubo de raios catódicos a usar cátodos quentes foi desenvolvido por John B. Johnson e Harry Weiner Weinhart, da Western Electric, tendo se tornado um produto comercial em 1922.
O primeiro televisor comercializado com tubo de raios catódicos foi fabricado pela Telefunken, na Alemanha, em 1934.
A máscara de sombra, formada por uma chapa de aço com cerca de 150 micros de espessura e com cerca de 350 mil furos é conformada em uma fôrma convexa em prensas, lavada e passa por um processo de enegrecimento. Esta chapa é fixada em um anel metálico para dar rigidez e que é fixado à tela por molas.
Processamento de telas ou Flowcoating
A camada fotossensível (camada de fósforo) é aplicada na parte interna da tela usando um processo fotoquímico. O primeiro passo é um pré-tratamento da superfície seguido do recobrimento com uma suspensão de fósforo verde. Depois de seca, a máscara é inserida na tela e o conjunto é exposto a uma luz UV que reage na parte exposta pelos furos da máscara. Os raios de luz são emitidos de tal forma que as linhas de fósforo estejam no mesmo ponto que o feixe de elétrons colidirá. Então a máscara é removida da tela e a área não exposta à luz é lavada. Nas áreas que foi exposta, o fósforo adere à tela como resultado de uma reação fotossensível. Na sequência as outras duas cores (azul e vermelho) seguem no mesmo processo.
Para os tubos que utilizam a tecnologia de matriz, linhas de grafite são colocadas entre as linhas de fósforos antes do processo Flowcoating em um processo similar chamado de processo Matrix.
Toda a região da tela é coberta posteriormente com uma camada de alumínio, este alumínio conduz os elétrons e também reflete a luz emitida para trás (efeito espelho).
Em paralelo ao Processamento de Telas, a parte interna do cone de vidro foi recoberta com uma camada de material condutivo. Uma pasta de esmalte é aplicada à borda do cone que após o forno se funde com a tela. A partir do forno o cone e a combinação tela/máscara, incluindo o cone metálico que serve de blindagem magnética, são fundidos no esmalte em alta temperatura.
O canhão eletrônico é inserido e selado no pescoço do cone, o vácuo é formado no interior do bulbo, o qual em seguida é fechado. Neste momento o bulbo se torna um tubo. Um “getter” (elemento químico com alta capacidade de combinação com gases não inertes), montado em uma fase anterior do processo, é evaporado por meio de aquecimento com alta frequência, para que se combine com possíveis átomos residuais de gases, através de reações químicas.
A parte externa do cone do cinescópio é recoberta por uma camada condutiva e uma cinta metálica é colocada na borda do painel através de um processo que envolve o aquecimento da cinta, a sua aplicação à borda do painel, seu resfriamento e consequente contração, para proteger o tubo contra possíveis riscos de implosão.

Matching
No Processo de Matching, uma bobina defletora é “casada” ao pescoço do cinescópio até o cone. Após várias medições e operações de acabamento, a defletora é ajustada para garantir uma distribuição uniforme e equalizada, por toda a tela, dos feixes eletrônicos vermelho, verde e azul. Esta operação é chamada “matching”. A defletora é então fixada na sua posição definitiva.
Descarte e reciclagem
Alguns cinescópios, dependendo do modelo e fabricante podem possuir metais nobres e até valiosos, tal como paládio, platina e eventualmente ouro, além de terras raras, algumas delas inclusive com pequeno potencial radioativo. Miligramas ou mesmo gramas desses metais e terras raras podem ser encontrados nos catodos e nas grades de difusão ou máscaras.
Dependendo de estudos de viabilidade, a extração desses metais pode compensar o custo de tratamento do descarte e da reciclagem, como já ocorre com os chips recobertos por filmes de ouro e entre outros, determinados conectores e soquetes utilizados em placas de circuito impresso, contatos de relés e etc.
Existem ainda alguns tubos de altíssima luminosidade que podem, apesar de não ser absolutamente certo isso – por estar entre os segredos de fabricação (vide referências) – conter diminutas quantidades de material radioativo pesado, tal como o tório, utilizado no endurecimento e aumento de resistência ao calor dos componentes do canhão eletrônico, tornando o negócio de reciclagem no mínimo desaconselhável para leigos e no pior caso exigindo inclusive disposição especial em áreas especialmente preparadas para recebê-los, para evitar graves contaminações, possivelmente cumulativas, no meio ambiente.
Lembrando que, ainda hoje no Brasil e em outros países, dispositivos mais simples tecnologicamente, mas submetidos a grande calor durante a operação, tal como “camisas de lampião”, são banhadas em material radioativo para permitir às cerdas das mesmas atingirem altas temperaturas sem romperem-se facilmente – o mesmo principio de tratamento por tório, costumava ser utilizado nos cátodos de alguns cinescópios.
Já os televisores mais antigos, aqueles com válvulas termiônicas, contêm algumas delas com cátodos compostos com terras raras, porém em diminutas quantidades. Apesar de encontrarem-se diversas dessas válvulas eletrônicas com informações relativas ao uso de terras raras radioativas nos cátodos, não se sabe exatamente se possuem ou não radioatividade inerente suficiente para causar danos, porém nos recicladores o contato constante com esses materiais poderá ser mais um fator para que não sejam reciclados em ambientes não controlados.
O que torna o assunto da reciclagem de componentes eletrônicos e válvulas termiônicas algo um tanto delicado e que exigiria sempre a presença de um técnico especializado para avaliar o impacto ao meio ambiente e para realizar o descarte seguro desses componentes.
Aparelhos antigos podem conter maior quantidade desses componentes.
Seria irresponsável dizer às pessoas que simplesmente os atirem ao lixo, mas também é irresponsável dizer que leigos poderiam cuidar desse assunto – mesmo descartando-os em Ecopontos como os muitos mantidos pela prefeitura em grandes cidades de São Paulo.

oscilloscope

O Rádio Transistorizado


radio Nissei
Rádio é Nissei, o resto eu não sei

Receptor de rádio portátil que usa circuito baseado em transistor. Os primeiros rádios foram desenvolvidos em 1954, seguido da invenção do transistor que foi em 1947, tornaram-se o dispositivo de comunicação eletrônico mais popular da história, sendo produzidos bilhões nos anos de 1960 a 1970. Seu tamanho de bolso provocou uma mudança nos hábitos de escuta de música, permitindo que as pudessem ouvir música em qualquer lugar. No começo da década de 1980, os rádios AM baratos foram substituídos por aparelhos com melhor qualidade de áudio como, CD players portáteis, leitores de áudio pessoais, e caixas de som.

Antes do transistor ter sido inventado, os rádios usados eram criados usando válvula eletrônica. Embora tenham sido criados rádios portáteis valvulados, eles eram volumosos e pesados, devido às grandes baterias necessárias para abastecer o alto consumo de energia dos tubos.
Bell Laboratories demonstrou o primeiro transistor em 23 de dezembro de 1947. Depois de obter a proteção das patentes, a empresa realizou uma coletiva de imprensa em 30 de junho de 1948, onde foi demonstrado um protótipo de rádio transistor.
Há muitos pretendentes ao título de primeira empresa a produzir rádios transistorizados. Texas Instruments havia demonstrado a utilização de rádios AM (modulação de amplitude) em 25 de maio de 1954, mas o seu desempenho foi bem inferior ao de modelos valvulados. Um rádio foi demonstrado em agosto de 1953 em uma Feira em Düsseldorf pela empresa alemã Intermetall. Foi construído com quatro de transistores feitos à mão pela Intermetall. No entanto, como acontece com as primeiras unidades, a Texas Instruments (e outros) construíram apenas protótipos. RCA havia demonstrado um protótipo de rádio transistorizado em 1952, mas Texas Instruments e Regency Divisão de IDEA, foram os primeiros a oferecerem um modelo de produto a partir de outubro 1954.
Durante uma viagem aos Estados Unidos em 1952, Masura Ibuka, fundador da Tokyo Telecommunications Engineering Corporation (atual Sony), descobriu que a AT&T estava prestes a tornar o licenciamento para o transistor disponível. Ibuka e seu parceiro, o físico Akio Morita, convenceu o Ministério do Comércio e Indústria Internacional (MITI) japonês para financiar a taxa de licenciamento $25.000. Durante vários meses Ibuka viajou por todo os Estados Unidos tomando ideias dos fabricantes de transistores americanos. Com as ideias melhoradas, Tokyo Telecommunications Engineering Corporation fez seu primeiro rádio transistor funcional em 1954. Dentro de cinco anos, Tokyo Telecommunications Engineering Corporation cresceu de sete funcionários para cerca de quinhentos.
Outras empresas japonesas logo seguiram a sua entrada no mercado americano e o total de produtos eletrônicos exportados do Japão em 1958 aumentou 2,5 vezes em comparação a 1957.

Pocket_radio_open_english

História da Eletrônica – O Tubo de Raios Catódicos


tubo
Um tubo de raios catódicos ou cinescópio (também conhecido pelo acrónimo CRT, derivado da expressão inglesa cathode ray tube) é um tipo de válvula termiônica contendo um ou mais canhões de elétrons e um ecrã fluorescente utilizado para ver imagens. Seu uso se dá principalmente em monitores de computadores e televisores (cinescópios de deflexão eletromagnética) e osciloscópios (cinescópios de deflexão eletrostática). Foi inventado por Karl Ferdinand Braun em 1897.
Foi em um tubo de raios catódicos que, em 1897, o físico J. J. Thomson verificou a existência do elétron.
As primeiras experiências com raios catódicos são creditadas a J. J. Thomson, físico inglês que, em seus três famosos experimentos, conseguiu observar a deflexão eletrostática, uma das funções fundamentais dos tubos de raios catódicos modernos. A primeira versão do tubo de raios catódicos foi inventada pelo físico alemão Ferdinand Braun em 1897, tendo ficado conhecida como tubo de Braun.
EM 1907, o cientista russo Boris Rosing usou um tubo de raios catódicos na extremidade receptora de um sinal experimental de vídeo para formar uma imagem. Ele conduziu o experimento para mostrar formas geométricas simples na tela. Foi a primeira vez em que a tecnologia de tubo de raios catódicos foi usada para o que agora conhecemos como televisão.
O primeiro tubo de raios catódicos a usar cátodos quentes foi desenvolvido por John B. Johnson e Harry Weiner Weinhart, da Western Electric, tendo se tornado um produto comercial em 1922.[citation needed]
O primeiro televisor comercializado com tubo de raios catódicos foi fabricado pela Telefunken, na Alemanha, em 1934.
A máscara de sombra, formada por uma chapa de aço com cerca de 150 micros de espessura e com cerca de 350 mil furos é conformada em uma fôrma convexa em prensas, lavada e passa por um processo de enegrecimento. Esta chapa é fixada em um anel metálico para dar rigidez e que é fixado à tela por molas.
A camada fotossensível (camada de fósforo) é aplicada na parte interna da tela usando um processo fotoquímico. O primeiro passo é um pré-tratamento da superfície seguido do recobrimento com uma suspensão de fósforo verde. Depois de seca, a máscara é inserida na tela e o conjunto é exposto a uma luz UV que reage na parte exposta pelos furos da máscara. Os raios de luz são emitidos de tal forma que as linhas de fósforo estejam no mesmo ponto que o feixe de elétrons colidirá. Então a máscara é removida da tela e a área não exposta à luz é lavada. Nas áreas que foi exposta, o fósforo adere à tela como resultado de uma reação fotossensível. Na sequência as outras duas cores (azul e vermelho) seguem no mesmo processo.
Para os tubos que utilizam a tecnologia de matriz, linhas de grafite são colocadas entre as linhas de fósforos antes do processo Flowcoating em um processo similar chamado de processo Matrix.
Toda a região da tela é coberta posteriormente com uma camada de alumínio, este alumínio conduz os elétrons e também reflete a luz emitida para trás (efeito espelho).
Em paralelo ao Processamento de Telas, a parte interna do cone de vidro foi recoberta com uma camada de material condutivo. Uma pasta de esmalte é aplicada à borda do cone que após o forno se funde com a tela. A partir do forno o cone e a combinação tela/máscara, incluindo o cone metálico que serve de blindagem magnética, são fundidos no esmalte em alta temperatura.
O canhão eletrônico é inserido e selado no pescoço do cone, o vácuo é formado no interior do bulbo, o qual em seguida é fechado. Neste momento o bulbo se torna um tubo. Um “getter” (elemento químico com alta capacidade de combinação com gases não inertes), montado em uma fase anterior do processo, é evaporado por meio de aquecimento com alta frequência, para que se combine com possíveis átomos residuais de gases, através de reações químicas.
A parte externa do cone do cinescópio é recoberta por uma camada condutiva e uma cinta metálica é colocada na borda do painel através de um processo que envolve o aquecimento da cinta, a sua aplicação à borda do painel, seu resfriamento e consequente contração, para proteger o tubo contra possíveis riscos de implosão.
Alguns cinescópios, dependendo do modelo e fabricante podem possuir metais nobres e até valiosos, tal como paládio, platina e eventualmente ouro, além de terras raras, algumas delas inclusive com pequeno potencial radioativo. Miligramas ou mesmo gramas desses metais e terras raras podem ser encontrados nos catodos e nas grades de difusão ou máscaras.
Dependendo de estudos de viabilidade, a extração desses metais pode compensar o custo de tratamento do descarte e da reciclagem, como já ocorre com os chips recobertos por filmes de ouro e entre outros, determinados conectores e soquetes utilizados em placas de circuito impresso, contatos de relés e etc.
Existem ainda alguns tubos de altíssima luminosidade que podem, apesar de não ser absolutamente certo isso – por estar entre os segredos de fabricação (vide referências) – conter diminutas quantidades de material radioativo pesado, tal como o tório, utilizado no endurecimento e aumento de resistência ao calor dos componentes do canhão eletrônico, tornando o negócio de reciclagem no mínimo desaconselhável para leigos e no pior caso exigindo inclusive disposição especial em áreas especialmente preparadas para recebê-los, para evitar graves contaminações, possivelmente cumulativas, no meio ambiente.
Lembrando que, ainda hoje no Brasil e em outros países, dispositivos mais simples tecnologicamente, mas submetidos a grande calor durante a operação, tal como “camisas de lampião”, são banhadas em material radioativo para permitir às cerdas das mesmas atingirem altas temperaturas sem romperem-se facilmente – o mesmo principio de tratamento por tório, costumava ser utilizado nos cátodos de alguns cinescópios.
Já os televisores mais antigos, aqueles com válvulas termiônicas, contêm algumas delas com cátodos compostos com terras raras, porém em diminutas quantidades. Apesar de encontrarem-se diversas dessas válvulas eletrônicas com informações relativas ao uso de terras raras radioativas nos cátodos, não se sabe exatamente se possuem ou não radioatividade inerente suficiente para causar danos, porém nos recicladores o contato constante com esses materiais poderá ser mais um fator para que não sejam reciclados em ambientes não controlados.
O que torna o assunto da reciclagem de componentes eletrônicos e válvulas termiônicas algo um tanto delicado e que exigiria sempre a presença de um técnico especializado para avaliar o impacto ao meio ambiente e para realizar o descarte seguro desses componentes.
Aparelhos antigos podem conter maior quantidade desses componentes.
Seria irresponsável dizer às pessoas que simplesmente os atirem ao lixo, mas também é irresponsável dizer que leigos poderiam cuidar desse assunto – mesmo descartando-os em Ecopontos como os muitos mantidos pela prefeitura em grandes cidades de São Paulo.

Audiotecnologia – Como Funciona um Alto Falante


alto falantes 1
Graças aos nossos ouvidos conseguimos ouvir sons produzidos por diversos dispositivos como buzinas, campainhas, bumbos, alto-falantes, etc. Os alto-falantes hoje estão em diversos aparelhos eletrônicos, sendo muito utilizados para incrementar carros de sons, como mostra a figura acima.
Podemos simplificar a definição de alto-falantes como sendo componentes que transformam sinais elétricos de uma corrente elétrica em oscilações de pressão no ar, em forma de onda sonora. Caso observemos bem de perto um alto-falante, poderemos verificar que seus componentes básicos são um ímã permanente, preso na armação do alto-falante, e uma bobina móvel, que está fixa no cone de papel.
Quando aplicamos uma corrente elétrica variável na bobina, esta é repelida ou atraída pelo campo magnético do ímã permanente. Desta forma, o conjunto bobina-cone é movido para frente e para trás, empurrando o ar em sua volta, criando uma onda de compressão e rarefação no ar, ou seja, uma onda sonora.
Por exemplo, aplicando uma corrente oscilante de 440 Hz na bobina, o cone do alto-falante vai se mover para frente e para trás com esta mesma frequência, produzindo uma onda sonora de 440 Hz.
A bobina, presa ao cone, é movida para frente e para trás por meio da força magnética, quando ela é percorrida por uma corrente elétrica.

Robótica – Pesquisadores criam pele para robôs que pode regenerar seus circuitos sozinha


regeneracão robotica
Pesquisadores da Universidade de Carnegie Mellon, nos Estados Unidos, podem ter encontrado uma solução para tornar os robôs mais resistentes. Trata-se de uma pele artificial feita de material híbrido e que pode se regenerar sozinha, permitindo a reconexão automática de circuitos. A expectativa é que a solução torne o reparo das máquinas mais barato, combatendo falhas elétricas comuns.
De acordo com a publicação da PhysicsWorld, a solução proposta pelos pesquisadores envolve um tipo de polímero. No entanto, para que o material se torne flexível e resistente a danos, são inseridas micro gotas de uma liga metálica à base de gálio-índio em uma casca macia e elástica. Com isso, cria-se um material híbrido “sólido-líquido” com propriedades macias, eletricamente isolantes e que pode se regenerar diversas vezes.
A “mágica” da solução proposta é a seguinte: quando há um dano no material desta pele robótica, as gotículas de metal presentes no material se rompem para formar novas conexões e redirecionar os sinais elétricos sem interrupção. Assim, as máquinas conseguem continuar as suas operações. De acordo com o chefe da pesquisa, Carmel Majidi, a inspiração para a técnica vem do sistema nervoso humano e sua capacidade de autorregeneração.
Embora o uso de materiais que se “curam” não seja uma novidade na indústria, há uma diferença importante em relação ao proposto pelos cientistas da universidade americana. A maior parte dos compostos atuais demandam exposição ao calor, aumento de umidade ou remontagem manual para que a recuperação ocorra. Já o composto híbrido pode fazer tudo automaticamente, reduzindo custos.

Além do uso em robôs, a equipe da Universidade de Carnegie Mellon acredita que o material também pode ser útil em computadores portáteis e dispositivos vestíveis. A tecnologia também pode ajudar a tornar realidade smartphones flexíveis, tão especulados para os próximos anos, uma vez que sua capacidade regenerativa pode ser usada para recuperar os circuitos internos dos aparelhos.
Apesar dessas características, ainda há espaço para avanços, especialmente no que diz respeito à danos estruturais e mecânicos. Segundo a equipe de pesquisadores norte-americano, o foco agora é desenvolver um material igualmente macio e flexível, mas que pode se regenerar de defeitos físicos.

IBM acaba de revelar o primeiro computador quântico comercial do mundo


computador-quantico_1-1000x500
A IBM, lançou o chamado IBM Q System One, que foi anunciado como sendo o primeiro computador quântico comercial que poderá ser usado por empresas. Infelizmente, o computador não será ofertado para os consumidores e você entenderá o motivo logo abaixo.
Os computadores com tecnologia quântica são considerados uma verdadeira revolução tecnológica por conseguirem processar mais dados de forma mais rápida, com possibilidade de mudar completamente o cenário atual de computadores no mundo.
Não espere instalar este computador na mesa do seu escritório tão cedo. Por enquanto, as empresas que querem pagar para usar a tecnologia poderão fazer uso da máquina apenas via cloud (ou seja, na nuvem) da IBM.

Computadores atuais X computadores quânticos
Os computadores usados por todos atualmente armazenam dados em binário, ou seja, 0 ou 1. No entanto, os quânticos são muito mais poderosos e armazenam dados usando qubits.
Os qubits permitem uma propriedade especial: 0 e 1 podem existir simultaneamente. Esse detalhe que parece uma “bobagem” dá aos computadores quânticos a capacidade de fazer exponencialmente mais cálculos de uma única vez, tornando-os tão poderosos que podem fazer tarefas incrivelmente complexas, como descobrir um novo medicamento, por exemplo – através de análises extremamente complicadas de atividade bioquímica e enzimática do corpo humano – ou criar códigos impossíveis de serem quebrados.
O computador encontra-se em uma caixa de vidro de borossilicato (um tipo de vidro que suporta temperaturas extremas) de 9 metros de altura por 9 metros de largura, em um ambiente completamente hermético. Sua aparência é elegante. O motivo de estar em uma caixa de vidro especial é simples: os qubits perdem suas propriedades de computação quântica se estiverem fora de condições extremamente específicas e controladas – uma delas é o frio!
Características
Um computador quântico precisa ser mantido bem gelado, muito abaixo de zero graus Celsius, em um ambiente completamente livre de radioatividade e eletromagnetismo.
A proposta da IBM é contornar estes desafios físicos de funcionamento para proporcionar aos futuros clientes uma experiência única. As dificuldades em estabilizar o computador em um ambiente tão controlado é o motivo pelo qual você não terá o pc em sua mesa de escritório – pelo menos não nos próximos anos. Ainda estamos longe de tornar este tipo de tecnologia acessível para consumidores.

Primeiro modem comercial 5G da Intel já está sendo desenvolvido


modem 5g
A empresa anunciou o desenvolvimento do seu primeiro modem 5G comercial, que deve ser lançado no mercado nos próximos anos.
O XMM 8060 é o primeiro modem 5G da Intel. Ele tem capacidade de funcionar em redes 5G, 4G, 3G e 2G. A expectativa da Intel é que os primeiros dispositivos com o chip cheguem às lojas em meados de 2019. Isso inclui smartphones, computadores, veículos e mais.
A expectativa é que as conexões 5G atinjam velocidades superiores a 5 Gbps. Além da Intel, outra empresa que trabalha na área é a Qualcomm, que já realizou uma conexão 5G que bateu a marca de 1 Gbps – ainda longe do potencial real da tecnologia.
O 5G só deve começar a operar comercialmente em 2020, e ainda assim deve demorar bastante até que as redes com a quinta geração de internet móvel estejam disponíveis para muita gente. Até lá, a Intel trabalha para ser um nome forte na área.

Fundamentos de Eletricidade – Corrente Alternada e Corrente Contínua


princpios-da-corrente-alternada-8-638
A corrente elétrica é um fluxo de elétrons (partículas de energia) que passa em um fio ou condutor. Quando os elétrons se movimentam em um sentido único, continuamente, essa corrente é chamada de contínua. Porém, se os elétrons mudam de direção constantemente, trata-se de uma corrente alternada.
Na prática, a principal diferença entre esses dois tipos de corrente elétrica está na capacidade de transmitir a energia. Em geral, a corrente alternada consegue atingir uma voltagem muito maior que a corrente contínua, o que significa que ela consegue chegar mais longe sem perder força.
A energia elétrica que consumimos nas nossas residências é produzida em usinas que ficam a muitos quilômetros de distância. Quando chega à tomada, portanto, a energia já percorreu um longo caminho, sendo transmitida por corrente alternada — o que, inclusive, evita desperdício de energia.
Apesar de ser mais vantajosa economicamente, a elevada tensão da corrente alternada pode ser muito perigosa, uma vez que pode provocar choques fatais. Justamente por isso, a alta voltagem é transformada em tensões mais baixas para entrar nas residências: geralmente 120 ou 220 volts.

Pulsante:

ccca2

Embora não altere seu sentido as correntes contínuas pulsantes passam periodicamente por variações, não sendo necessariamente constantes entre duas medidas em diferentes intervalos de tempo.
A ilustração do gráfico acima é um exemplo de corrente contínua constante.
Esta forma de corrente é geralmente encontrada em circuitos retificadores de corrente alternada.

Eletricidade – Qual a função de um alternador?


alternador
Todo carro tem uma alternador. É ele que que mantém a bateria sempre carregada, exatamente como ela saiu de fábrica. A função dele é a de converter a energia mecânica do motor em energia elétrica, devolvendo a carga à bateria.
Mesmo com o passar dos anos o alternador quase nada mudou, a não ser na aparência para ser instalado nos diversos modelos existentes, e na potência devido ao aumento dos componentes elétricos.
Mas o princípio do funcionamento é o mesmo. Ele é composto internamente por um rotor, escovas, regulador de voltagem, estator e mesa retificadora de diodos. Todos são assim, como o da foto acima, que é de um Ford Corcel com mais de 40 anos de fabricação.
Dizer que um alternador é um carregador de baterias é um exagero e pouco conhecimento dos fatos. Quase seria uma utopia esperar isso de uma peça como esta. Basta observar que quando sua bateria descarregou por um rádio ligado ou uma luz esquecida acesa, uma chupeta parece que resolveu tudo. Mas é apenas uma solução de emergência, para deslocar o carro de uma situação desagradável. Com o tempo a bateria vai arriar de novo. Um alternador gera energia apenas para repor uma determinada carga usada, como as que vem dos faróis, luz de freio, sistema de injeção, enfim, de toda a parte elétrica e eletrônica do carro. Confiar apenas no alternador para carregar sua bateria descarregada seria um erro, e uma troca de nome. Quem realmente carrega uma bateria descarregada é um carregador profissional, uma peça grande semelhante as usadas pelas fábricas. Algo parecido com a foto abaixo.

carregador de baterias

 

Uma bateria precisa ficar aos “cuidados”de um carregador como esse da foto acima por pelo menos 9 horas a uma carga constante de 10 amperes, o que é algo muito maior, em termos de gerar energia, do esperado de um alternador que subdivide a energia produzida.
Outro mito sobre um alternador é que ele aumenta o consumo de combustível do carro. Isso é irreal. O que pode causar isso é o equipamento interligado ao alternador, como o compressor do ar condicionado que também é tocado pela correia do motor, o que aumenta o esforço do motor e assim aumenta também o consumo. Alguns também afirmam que ao trocarmos uma bateria de menor capacidade por uma maior, devemos também trocar o alternador por um mais possante. Não é uma verdade. Basta pensar em um caminhão, dos antigos, que sempre foram equipados com baterias de 150 amperes (uma gigante do segmento) carregadas por um alternador de 35 amperes. Então por que um alternador de 60 amperes não conseguiria manter uma bateria de 60, ou 70?
O que importa é quanto de energia está sendo retirada da bateria do seu carro. Quanto mais equipamentos, acessórios como mídia, e som de competição, mais o alternador vai ser exigido.

Transistores de carbono superam os de silício pela primeira vez


nanotubos
Pela primeira vez, cientistas conseguiram criar transistores usando nanotubos de carbono que tiveram melhor performance que os transistores de silício. Segundo os pesquisadores da University of Wisconsin-Madison, esse material deve levar à criação de processadores e antenas até cinco vezes mais rápidas ou eficientes que suas equivalentes de silício.
Os cientistas desenvolveram um método para depurar os nanotubos, eliminando interferências, e montá-los sobre os eletrodos metálicos de transistores em um suporte. Esse processo é semelhante ao da montagem de um processador.

Eliminando obstáculos
Já faz bastante tempo que os nanotubos de carbono são estudados como alternativa para o silício em processadores. Esses nanotubos são estruturas cilíndricas cujas paredes são feitas de carbono e têm a espessura de apenas um átomo. Por conta dessa característica, eles conduzem eletricidade muito melhor que o silício, e já foram usados para criar baterias, melhorar células solares e deixar materiais invisíveis.
Um dos desafios superados pelos cientistas foi o de selecionar nanotubos de carbono de alta pureza. Nanotubos com pequenas impurezas metálicas não podem ser usados na criação de transistores, já que elas atrapalham as propriedades semicondutivas do material. Usando polímeros, os pesquisadores encontraram condições nas quais é possível isolar os nanotubos sem resíduos, deixando menos de 0,01% dos nanotubos impuros.
Esse mesmo polímero também serve de isolante entre os nanotubos e os eletrodos metálicos. Após utilizá-lo para “purificar” os nanotubos, os pesquisadores usaram-no para alinhar o material na posição correta e, em seguida, levaram o conjunto para um forno a vácuo a fim de eliminar o polímero. Com isso, o alinhamento e a pureza dos transistores com nanotubos ficou muito melhor.

Ganhos de performance
Comparando o transistor de carbono com um transistor de silício de mesmo tamanho e geometria, os pesquisadores conseguiram passar 1,9 vezes mais corrente pelo de carbono. No futuro, eles acreditam que essa tecnologia permitirá a criação de transistores cinco vezes mais rápidos, ou cinco vezes mais eficientes, que os atuais de mesmo tamanho.
Isso permitiria a criação de processadores mais ágeis e com menor consumo de energia, o que, por sua vez, levaria a um aumento na duração da bateria de dispositivos portáteis. Além disso, as dimensões microscópicas dos nanotubos também permitem mudar rapidamente um sinal de corrente que viaja por eles, o que permitiria uma melhoria na largura de banda de dispositivos que usam redes sem fio.
No entanto, os pesquisadores ainda precisam encontrar maneiras de adaptar seu processo à geometria de transistores convencionais e de possibilitar a produção em larga escala dos novos transistores, segundo o Engadget. Por isso, essas novidades ainda estão a alguns anos de distância.
Além de todas essas vantagens, os nanotubos de carbono também seriam capazes de salvar a Lei de Moore. Com mais de 50 anos, a lei que dita o ritmo da evolução da indústria de chips já começa a dar claros sinais de desgaste.

Tecnologia – Os Supercomputadores


Tianhe-1A
Ele já foi o supercomputador mais rápido do mundo em novembro de 2010 e, depois de dois anos e meio, está ainda entre os 10 mais velozes. Esta máquina é fabricada pela NUDT e pertence ao Centro Nacional de Supercomputador de Tianjin, China. Ela traz um processador com 183.638 núcleos, capaz de processar dados a uma velocidade média de 2,5 teraflops por segundo.

SuperMUC
Equipamento do Centro de Supercomputador de Leibniz, na Alemanha, o SuperMUC já foi o quarto mais veloz do mundo em junho de 2012. Atualmente, a nona posição que ocupa é graças ao processador de 147.456 núcleos, que processa dados a uma  velocidade média de 2,9 mil teraflops por segundo. Este computador é fabricado pela IBM.

Vulcan
O supercomputador Vulcan pertence ao Laboratório Nacional Lawrence Livermore, nos Estados Unidos, é fabricado pela IBM e traz 393.216 núcleos em seu processador. A unidade processa dados a uma velocidade média de 4,3 mil teraflops por segundo, além de contar com 393.216 GB de memória

Juqueen
Com processador de 458.752 núcleos, que alcança uma velocidade de 5 petaflops, esta máquina pertence ao Centro de Supercomputador de Jülich, na Alemanha. Ele tem memória de 458.752 GB e, em novembro de 2012, data da última medição feita pelo Top500, ocupava a quinta posição na lista.

Stampede
O Centro de Computação Avançada do Texas, localizado na Universidade do Texas, nos EUA, conta com o Stampede, sexto supercomputador mais rápido do planeta. Ele é fabricado pela Dell, traz 192.192 GB de memória e processador com mais de 462 mil núcleos, com velocidade de 5,1 mil teraflops por segundo.

Mira
O quinto colocado na lista pertence ao Departamento de Energia do Laboratório Nacional Argonne, nos Estados Unidos. Ele também é fabricado pela IBM e ocupava a quarta posição em novembro de 2012. A atual posição é garantida com um processador com mais de 786 mil núcleos, o qual processa dados a 8,5 petaflops por segundo.

mira

K Computer
O primeiro representante do Japão na lista está em quarto lugar. O K Computer pertence ao Instituto Avançado de Ciência do Computador RIKEN, no Japão. O mais rápido do mundo durante todo o ano de 2011, ele apresenta a seguinte configuração: processador com mais de 705 mil núcleos, velocidade de 10,5 petaflops por segundo e memória de 1.410.048 GB. Ele foi fabricado pela Fujitsu.

Sequoia
O Laboratório Nacional Lawrence Livermore é dono também do supercomputador Sequoia, terceiro mais rápido do mundo hoje. Fabricado pela IBM, esta máquina era a mais veloz do planeta há um ano, com mais de 1,5 milhão de núcleos, velocidade de mais de 17 petaflops por segundo e memória de 1.572.846 GB.

Titan
Há seis meses ele era o mais rápido do mundo, mas perdeu o topo da tabela mesmo com velocidade de 17,6 petaflops por segundo. Ele pertence ao Laboratório Nacional Oak Ridge, Estados Unidos, e seu processador traz mais de 560 mil núcleos. A memória aqui é de 710.144 GB e ele foi fabricado pela Cray Inc.

titan

Tianhe-2
E a China batalhou para retomar a liderança da lista de supercomputadores mais rápidos do planeta. O Tianhe-2, uma “versão atualizada” do décimo colocado desta lista, traz 3,1 milhões de núcleos, velocidade de 33,8 petaflops por segundo e memória de 1.024.000 GB. Esta máquina absurda é fabricada pela NUDT.

thiane

Telefonia Móvel – Como a inteligência artificial está melhorando o teclado do seu celular


app p cel
Se você já procurou algum teclado alternativo para Android ou iOS, certamente já conhece o SwiftKey. O aplicativo já é bastante popular graças a sua capacidade de aprender com o usuário e oferecer sugestões de texto, mas a empresa quer ir além. O próximo passo é a utilização de redes neurais em miniatura para conseguir oferecer resultados mais precisos.
Antes de tudo, é necessário entender como a versão atual do aplicativo funciona. Hoje, o SwiftKey utiliza um algoritmo baseado em probabilidade para prever qual é a próxima palavra, com um toque de aprendizado com o que o usuário costuma digitar. Ou seja: ele pega as duas últimas palavras e consulta um banco de dados para deduzir qual será a palavra seguinte e economizar algum tempo. Só que este modelo de duas palavras, chamado “modelo n-grama” é bastante limitado, porque analisar três ou quatro palavras iria requerer um banco de dados muito maior, dificultando a busca.
Já o modelo de redes neurais é diferente, usado no aplicativo SwiftKey Neural, aplica conceitos de inteligência artificial. O algoritmo é “treinado” com milhões de frases e cada uma é representada por um pedaço de código, que permite que permite que palavras sinônimas sejam associadas de forma mais precisa, possibilitando uma previsão de texto mais profunda e diversa.
Assim, o modelo usa frases para analisa a frase inteira para conseguir prever a próxima palavra. Um exemplo citado pelo Engadget é a frase “Meet you at the…” (uma frase informal como “te encontro no…”). O modelo antigo analisaria apenas as palavras “at the” (“no”) e sugeriria coisas sem sentido como “moment” (“momento”), “end” (“fim”) ou “same” (“mesmo”). Utilizando o conceito de redes neurais, é possível extrair um contexto do que foi digitado até então e sugerir palavras mais adequadas, como “hotel”, “aeroporto” ou “escritório”.
Contudo, vale observar que o aplicativo ainda não tem a personalização, que é o que faz o SwiftKey normal ser tão popular. O teclado ainda não é capaz de aprender com o usuário, e, portanto, não pode oferecer sugestões personalizadas, por funcionar de forma diferente do aplicativo básico. Isso não quer dizer que o recurso nunca vá existir, apenas que ele não existe neste momento.
Isso se deve ao fato de o aplicativo ainda está longe de estar pronto. Ele ainda está em fase alfa, que normalmente é um estágio antes de estar estável o suficiente para ser chamado de beta, o que significa que ele nem sequer é recomendável para o grande público, voltado apenas para entusiastas.

11.190 – Mega Cientistas – Alexander Graham Bell


Alexander_Graham_Bell_Web2

Filho de Eliza Grace Symonds e Alexander Melville Bell, nasceu em 3 de março de 1847, em Edimburgo (Escócia). Sua mãe era surda desde a adolescência, e seu pai era especialista em problemas auditivos e instrutor de deficientes auditivos. A família era tradicionalmente conhecida por treinar portadores de deficiência auditiva e trabalhar com a correção da fala. Alexander era o filho do meio dos três filhos do casal.
Quando Alexander Graham Bell tinha aproximadamente 14 anos, ele e seus irmãos construíram uma réplica do aparelho fonador, que continha palato, dentes, lábios e cordas vocais.
Mais tarde, entrou na universidade de Edimburgo. Posteriormente estudou na universidade de Londres e de Würzburg (Alemanha). Trabalhava como assistente de seu pai em Londres, quando seus irmãos faleceram, vítimas de tuberculose. Temendo a doença, seu pai resolveu sair da Inglaterra com a família em 1870. O destino escolhido foi à cidade de Ontário, no Canadá. Alexander Graham Bell tinha então 23 anos.
Um ano depois, em 1871, Alexander Graham Bell mudou-se para os Estados Unidos da América. Em 1872, na cidade de Boston, estado de Massachusetts Graham Bell abriu uma escola para alunos com dificuldades auditivas. Utilizava o método de pronuncia desenvolvido por seu pai em suas aulas aos surdos, chamado de “fala visível”, no qual são utilizados os lábios, a língua e a garganta na articulação do som.
Em 1873, Graham Bell passou a lecionar Fisiologia Vocal na universidade de Boston. Foi então que deu início a suas pesquisas sobre como utilizar a eletricidade na transmissão de sons, idéias que vinha desenvolvendo desde os 18 anos. No ano seguinte, enquanto trabalhava em um telégrafo múltiplo, desenvolveu as idéias básicas do que seria o telefone.
No dia 14 de fevereiro de 1876, entregou o pedido de patente de seu invento, o telefone, ao escritório responsável pelas patentes. Nesse mesmo ano apresentou sua invenção em uma exposição na Filadélfia, de onde a mesma foi lançada ao mundo. Em 11 de julho de 1877, Graham Bell casou-se com Mabel, ex-aluna em sua escola para surdos (havia ficado surda aos 5 anos). Em 1879, após fechar a recém lançada American Bell Telephone Company, fundou um laboratório no Canadá, onde continuaram suas experiências.
Alexander Graham Bell, além de inventar (e patentear) o telefone, teve em seu nome mais 17 patentes, e outras 12 em conjunto com alguns colaboradores. Em 1898, foi nomeado presidente da National Geographic Society. Morreu aos 75 anos, no dia 2 de agosto de 1922, na cidade de Beinn Bhreagh, no Canadá.

11.133 – Mega Techs – O Arsenieto de Gálio


arsenio2

É um composto químico sintético, de fórmula mínima GaAs. É material semicondutor de interesse da indústria eletrônica/informática, muito utilizado na construção de circuitos integrados.
O arsenieto de gálio é obtido na forma de lâminas, a partir da combinação dos elementos químicos constituintes, arsênio e gálio, e permite, segundo a Revista da Siemens, a fabricação dos chips mais rápidos do mundo, os quais, embora mais caros do que os que utilizam substrato de apenas silício, são muito mais velozes na transmissão de informações, além de possibilitar uma redução significativa nos tamanhos dos equipamentos.
Depois de algumas décadas de uso, o silício foi desbancado por esse material.