14.436 – Mega Sampa – O Túnel da 9 de Julho



Túnel 9 de Julho, também designado por Túnel Daher Elias Cutait, é uma via subterrânea do município de São Paulo, que foi o primeiro túnel a ser construído na cidade. O túnel é considerado um marco do urbanismo na cidade, sendo uma obra que liga o Centro à Zona Sul e que levou um ano para ficar pronta, custou cerca de 17.190 mil contos de réis e sua inauguração, em 23 de julho de 1938, contou com a presença do então presidente Getúlio Vargas.
Situa-se na Avenida 9 de Julho, às proximidades dos bairros Bela Vista na região central e Jardins, na zona oeste, fazendo o cruzamento subterrâneo desta avenida com a Avenida Paulista.
Foi construído no local onde existia a antiga Avenida Anhangabaú.
Em 1923, a Câmara Municipal de São Paulo criou a Comissão da Avenida Anhangabaú, com o objetivo de realizar o projeto de construção da Avenida Anhangabaú (atual Avenida 9 de Julho). A comissão, liderada pelo vereador Gofredo da Silva Teles, funcionou de forma intermitente até 1928, quando apresentou seu relatório final recomendando a construção da avenida e apresentando um projeto técnico. Mais tarde, partes desse projeto foram utilizadas para a implantação da Avenida 9 de Julho.
Para a travessia do espigão da Paulista, o engenheiro-chefe da prefeitura, Alcides Martins Barbosa, e o arquiteto Cristiano Stockler das Neves projetaram um túnel de 390 metros de comprimento, 15 metros de largura e desnível de 2,30 metros entre suas bocas. Esse túnel tinha a previsão de ser construído sob o Belvedere Trianon. O projeto seguiu em discussão até a comissão ser dissolvida, por causa da Revolução de 1930, paralisando os trabalhos de construção da Avenida Anhangabaú, iniciados no ano anterior.

O projeto do túnel também foi paralisado por causa disso, somente sendo retomado em 1934.
Túnel 9 de Julho
Para reprojetar o túnel da Avenida Anhangabaú, o prefeito contratou o engenheiro italiano Domingos Marchetti (1893-1975). Trabalhando para a Sociedade Construtora Brasileira, Marchetti projetou o túnel e acompanhou suas obras, iniciadas em 1935, até a inauguração. Apesar de as obras terem sido concluídas em maio de 1938, o túnel só seria inaugurado em 23 de julho, pelo presidente Getúlio Vargas.
A extensão do túnel sob a Avenida Paulista é de 450 metros, e o mirante sobre o túnel foi pouco aproveitado por mais de sete décadas, até ser passado para a iniciativa privada, tornando-se um ponto turístico.
O mirante tem uma área de quatrocentos metros quadrados e foi revitalizado em 2015, sob o comando do consórcio Belvedere. O local conta com cafeteria, bar e galeria subterrânea, além de receber feiras independentes.
Durante a elaboração do projeto do corredor de trólebus Santo Amaro–9 de Julho–Centro, houve uma discussão sobre a implantação no trecho do Túnel 9 de Julho. Por ter apenas duas pistas de rodagem em cada sentido, o Túnel 9 de Julho foi considerado um gargalo, pois a mera implantação do corredor de trólebus iria deixar apenas uma faixa livre para os demais veículos em cada sentido. Após a inauguração parcial do corredor, a gestão Jânio Quadros contratou, em 1986, o escritório de Figueiredo Ferraz para elaborar um projeto capaz de solucionar esse problema.

Ferraz desenvolveu o projeto de um novo túnel, com novecentos metros de extensão, com sentido único (com a ideia de alternar o sentido de funcionamento do túnel novo nos horários de pico de trânsito) sob o Túnel 9 de Julho. Para permitir a realização dos trabalhos sem afetar o funcionamento do túnel antigo e do MASP, Ferraz propôs o emprego do método de construção New Austrian Tunnelling Method. A obra, orçada entre quinze milhões e vinte milhões de dólares, acabou não saindo do papel, e a Prefeitura optou pela reforma do Túnel 9 de julho.

14.433 – Mega Byte – Adicionar memória RAM sempre vai deixar o meu PC mais rápido?



Ao transitar entre as abas do navegador ou abrir o player de música para avançar a faixa em execução, o computador apresenta um comportamento estranho: leva vários segundos para realizar a ação, até que em um momento ele fica completamente paralisado.
É bem possível que em uma situação como essa muitas pessoas cheguem à imediata conclusão de que a máquina está precisando de mais memória RAM e já comecem a pesquisar o preço de mais um pente com 2 GB ou 4 GB. Mas será que adicionar RAM sempre vai deixar o seu PC mais rápido? É exatamente isso o que vamos tentar desmistificar neste artigo.
Colocar mais e mais memória RAM toda a vez que o computador dá um sinal de lentidão não significa necessariamente que a sua máquina vá apresentar um aumento de desempenho — embora, em alguns casos, um pouco mais de RAM possa ser suficiente para “desafogar” o PC e mantê-lo utilizável.
A memória RAM acessa os dados de forma não sequencial. Qualquer setor livre encontrado é preenchido com a nova informação a ser processada pela CPU, acelerando em muito os procedimentos de leitura e escrita. Outra peculiaridade deste componente é a sua volatilidade, o que significa que todos os dados armazenados nele podem ser perdidos quando o computador é desligado.

Assim, basicamente, a RAM funciona como um mecanismo de apoio para o processador, armazenando os dados mais utilizados pelos programas em uso e colaborando para a transferência deles pelo disco de armazenamento permanente (ROM). Como você deve ter percebido, a memória RAM atua em completa cooperação com outros componentes.
Dessa forma, ela não é a única responsável pela velocidade do PC. Em outras palavras, não adiantaria você colocar 12 GB de RAM no computador se o HD e a CPU dele estão ultrapassados.
Atualmente, é difícil encontrar um computador novo à venda que possua menos do que 2 GB de RAM — quantidade satisfatória para as atividades mencionadas no parágrafo anterior. Contudo, existe uma enorme variedade de modelos com preços acessíveis que trazem 4 GB de memória de acesso aleatório (do inglês Random Access Memory).
Tais computadores já aguentam um cotidiano mais exigente, incluindo o uso de editores de imagem profissionais, o processamento de um número grande de tarefas simultâneas e a jogatina de alguns jogos mais recentes e pesados — embora, como já vimos antes, existam outros componentes essenciais para que todas essas atividades sejam desempenhadas de forma satisfatória.

Você realmente necessitará de 6 GB, 8 GB ou mais de memória RAM caso pretenda realizar atividades extremamente exigentes da máquina, como editar vídeos profissionalmente, ou deseje jogar os games recém-lançados e cheios de detalhamento gráficos com todas as configurações no “máximo”.

O que fazer para ter um PC mais rápido?
Conforme já explicamos, entupir o computador de memória RAM não é garantia de obter um PC mais veloz e eficiente. Se você está tendo problemas para rodar o Photoshop ou máquinas virtuais, por exemplo, é possível que adicionar mais RAM ao seu computador resolva os travamentos.
Mas, para tornar a sua máquina efetivamente mais rápida, o ideal seria investir também em um processador mais moderno e um disco de armazenamento SSD. Apesar de muitas pessoas não acreditarem, a presença de um SSD pode fazer muita diferença.
De acordo com nossos testes, você nem precisa comprar um disco SSD com 500 GB, por exemplo, para substituir o disco rígido convencional (componente que tem um elevadíssimo custo no Brasil). Adotando uma unidade de menor tamanho, 32 GB ou 64 GB, em paralelo com o HD comum já pode oferecer uma performance melhorada bastante relevante.

14.401 – Mega Byte – Sistema Operacional Windows



É uma família de sistemas operacionais desenvolvidos, comercializados e vendidos pela Microsoft. É constituída por várias famílias de sistemas operacionais, cada qual atendendo a um determinado setor da indústria da computação, sendo que o sistema geralmente é associado com a arquitetura IBM PC compatível. As famílias ativas do Windows incluem Windows NT, Windows Embedded e Windows Phone; estes podem abranger subfamílias, como Windows CE ou Windows Server.
Entre as famílias Windows extintas estão o Windows 9x; o Windows 10 Mobile é um produto ativo, não relacionado à família defunta Windows Mobile. A Microsoft introduziu um ambiente operacional chamado Windows em 20 de novembro de 1985, como um shell para MS-DOS, em resposta ao crescente interesse em interfaces gráficas de usuário (GUIs).
O Microsoft Windows passou a dominar o mercado de computadores pessoais (PC) do mundo, com mais de 90% de participação de mercado, superando o Mac OS, que havia sido introduzido em 1984. A Apple chegou a ver o Windows como uma invasão injusta em sua inovação no desenvolvimento de produtos GUI, como o Lisa e o Macintosh (eventualmente resolvido na Justiça em favor da Microsoft em 1993). Nos PCs, o Windows ainda é o sistema operacional mais popular.

No entanto, em 2014, a Microsoft admitiu a perda da maioria do mercado global de sistemas operacionais do sistema operacional móvel Android, devido ao enorme crescimento nas vendas de smartphones. Em 2014, o número de dispositivos Windows vendidos era menos de 25% dos dispositivos Android vendidos. Essas comparações, no entanto, podem não ser totalmente relevantes, já que os dois sistemas operacionais visam plataformas tradicionalmente diferentes. Em setembro de 2016, a versão mais recente do Windows para PCs, tablets, smartphones e dispositivos embutidos era o Windows 10. As versões mais recentes para servidores era o Windows Server 2016. Uma versão especializada do Windows é executada no console de jogos Xbox One.
Histórico
A Microsoft começou a desenvolver o Microsoft Windows em setembro de 1981. Os primeiros Windows, como o 1.0, 2.0, são compatíveis apenas com partições formatadas em sistema de ficheiros FAT, nesse caso, o FAT 16.
O 3.x poderia ser instalado em FAT 32, porém necessita ser instalado o MS-DOS 7.10, que era incluído nos disquetes de inicialização do Windows 95 OSR2 e Windows 98, necessitando modificar alguns arquivos para permitir seu funcionamento.
Ao mudar do 3.1 para o 95B (Windows 95 OSR 2/OSR 2.1), os HD’s poderiam ser formatados em FAT 32.
Inicialmente lançado com o Windows NT, a tecnologia NTFS é ainda hoje (2020) o padrão de fato para esta classe. Com a convergência de ambos sistemas, o Windows XP passou também a preferir este formato.
O Windows 95 foi lançado em 24 de agosto de 1995. Ele era um Windows completamente novo, e de nada lembra os Windows da família 3.xx. O salto do Windows 3.0 ao Windows 95 era muito grande e ocorreu uma mudança radical na forma da apresentação do interface. Introduziu o Menu Iniciar e a Barra de Tarefas. Enquanto Nesta versão, o MS-DOS perdeu parte da sua importância visto que o Windows já consegue ativar-se sem precisar da dependência prévia do MS-DOS. As limitações de memória oferecidas ainda pelo Windows 3.0 foram praticamente eliminadas nesta versão. O sistema multitarefa tornou-se mais eficaz. Utilizava o sistema de ficheiros FAT-16 (VFAT). Os ficheiros (arquivos) puderam a partir de então ter 255 caracteres de nome (mais uma extensão de três caracteres que indica o conteúdo do arquivo, facilitando assim sua identificação e podendo ser associado para abertura em determinados programas). O salto foi enorme, e o lançamento foi amplamente divulgado pela imprensa, inclusive pelas grandes redes de televisão. Existe uma outra versão do Windows 95, lançada no início de 1996, chamada de Windows 95 OEM Service Release 2 (OSR 2), com suporte nativo ao sistema de arquivos FAT32. Já o Windows 95, a partir da revisão OSR 2.1, incluía o suporte nativo ao Barramento Serial Universal (USB) e Ultra DMA (UDMA). Foi lançada ainda uma versão especial, o Windows 95 Plus!, com um pacote de diferentes temas visuais e sonoros para personalização do sistema operacional. Esta versão também incluía o navegador Internet Explorer.

Windows 98
Esta versão foi lançada em 25 de Junho de 1998. Foram corrigidas muitas das falhas do seu antecessor. A maior novidade desta versão era a completa integração do S.O. com a Internet. Utilizava o Internet Explorer 4. Introduziu o sistema de arquivos FAT 32 e começou a introduzir o teletrabalho (só foi possível devido à integração do Web). Melhorou bastante a interface gráfica. Incluiu o suporte a muitos monitores e ao USB (Universal Serial Bus). Mas, por ser maior do que o Windows 95 e possuir mais funções, era também mais lento e mais instável. Nessa versão, nasce a restauração de sistema via MS-DOS (Scanreg.exe /restore). A restauração de sistema visava corrigir problemas retornando o computador a um estado anteriormente acessado (ontem, antes de ontem, etc).
O Windows XP foi uma família de sistemas operacionais de 32 e 64 bits produzido pela Microsoft, para uso em computadores pessoais, incluindo computadores residenciais e de escritórios, notebooks, tablets e media centers. O nome “XP” deriva de eXPerience.[4] O Windows XP é o sucessor de ambos os Windows 2000 e Windows ME e é o primeiro sistema operacional para consumidores produzido pela Microsoft construído em nova arquitetura e núcleo (Windows NT 5.1). O Windows XP foi lançado no dia 25 de Outubro de 2001 e mais de 400 milhões de cópias estavam em uso em Janeiro de 2006, de acordo com estimativas feitas naquele mês pela empresa de estatísticas IDC.[5] Foi sucedido pelo Windows Vista lançado para pré-fabricantes no dia 8 de Novembro de 2006 e para o público em geral em 30 de Janeiro de 2007. Suas vendas cessaram no dia 30 de Junho de 2008, porém ainda era possível adquirir novas licenças com os desenvolvedores do sistema até 31 de Janeiro de 2009 ou comprando e instalando as edições Ultimate ou Business do Windows Vista e então realizando o downgrade para o Windows XP.Até o final de Julho de 2010, o Windows XP era o sistema operacional mais utilizado no mundo com 62.43% de participação no mercado, tendo chegado a 85% em Dezembro de 2006. Os números mostram a queda exponencial do uso do sistema operacional, acelerada pelo lançamento do Windows 7, que chegou para corrigir os problemas do Vista.

O Windows Vista é um sistema operacional desenvolvido pela Microsoft, sendo a sexta versão do Windows para uso em computadores pessoais, incluindo computadores residenciais e de escritórios, laptops, Tablet PCs e computadores Media Centers. Antes do seu anúncio em 22 de Julho de 2005, o Windows Vista era conhecido pelo nome de código Longhorn. O lançamento do Windows Vista veio mais de cinco anos depois da introdução do seu predecessor, o Windows XP, sendo o período mais longo entre lançamentos consecutivos de versões do Microsoft Windows. O Windows Vista possui novos recursos e funções dos que os apresentados por sua versão anterior o Windows XP, como uma nova interface gráfica do usuário, apelidada de Windows Aero.

O Windows 7 é uma versão do Microsoft Windows, uma série de sistemas operativos produzidos pela Microsoft para uso em computadores pessoais, incluindo computadores domésticos e empresariais, laptops, tablets e PCs de centros de mídia, entre outros.[8] Windows 7 foi lançado para empresas no dia 22 de julho de 2009, e começou a ser vendido livremente para usuários comuns às 00:00 do dia 22 de outubro de 2009, menos de 3 anos depois do lançamento de seu predecessor, Windows Vista. Pouco mais de três anos depois, o seu sucessor, Windows 8, foi lançado em 26 de outubro de 2012.
A penúltima versão lançada, o Windows 8.1, é um sistema operacional mais estável, o seu visual é simples e tem uma boa performance em uma grande gama de computadores, tablets e Notebooks Híbridos de variadas configurações. O layout também sofreu algumas modificações, para que seja mais fácil encontrar o que você precisa, quando precisa, permitindo que o usuário ganhe tempo em tarefas rotineiras.
A Microsoft lançou o Windows 10 Technical Preview (nome de código Threshold) no dia 30 de setembro de 2014 e em seu lançamento foi enfatizado o retorno do Menu Iniciar de que tanto os utilizadores sentiam falta.
A principal linguagem de programação usada para escrever o código-fonte das várias versões do Windows é o C e algumas partes com C++ e Assembly. Até a versão 3.11, o sistema rodava em 16 bits (apesar de poder instalar um update chamado Win32s para adicionar suporte a programas 32 bits), daí em diante, em 32 bits. As versões a partir do XP e Server 2003 estão preparadas para a tecnologia 64 bits. Os sistemas de 64 bits não possuem mais suporte para rodar nativamente aplicativos de 16 bits, sendo necessário uso de emuladores/máquinas virtuais.
Outra característica denominada de herança maldita devido o fato de ter herdado essa regra do DOS é o fato de não se poder criar pastas com os determinado nomes: con, prn, aux, com1 e lpt1. Trata-se de uma antiga herança que os SOs Windows carregam do MS-DOS e são palavras reservadas para a comunicação interna do SO. Portanto, mesmo o mais recente sistema da Microsoft é incapaz de interpretar tais sentenças como simples nomes através do Windows Explorer.

14.391 – Teste com Carro Voador


A empresa japonesa SkyDrive Inc realizou um voo teste bem-sucedido com seu projeto de carro voador. No ato, uma pessoa estava a bordo do veículo. O exercício foi feito no campo de testes da Toyota. Nas imagens é possível ver o veículo levantando verticalmente de um a dois metros do chão. Ele ficou no ar por cerca de quatro minutos.
Tomohiro Fukuzawa, que lidera a SkyDrive, disse que espera que o carro voador possa ser transformado em um produto de mercado até 2023, mas reconhece que torná-lo seguro é a prioridade por enquanto. “Dos mais de 100 projetos de carros voadores do mundo, apenas alguns tiveram sucesso com uma pessoa a bordo”, disse ele à Associated Press. “Espero que muitas pessoas queiram pilotar este aqui e se sintam seguras.” Por enquanto, o veículo voa de cinco a dez minutos apenas. Fukuzawa acredita que se esse número chegar a 30 minutos o produto ganha apelo para vendas. Entretanto, tamanhos de baterias, controle de tráfego aéreo e infraestrutura estão entre os possíveis problemas para o modelo.
O projeto SkyDrive começou como voluntário em 2012. Seu nome era Cartivator, e contava com financiamento de grandes empresas japonesas – incluindo a Toyota, a empresa de eletrônicos Panasonic e a desenvolvedora de games Bandai Namco.


14.361 – Automóvel – O Motor AP da Volkswagen


motor-do-gol-power-1-8-total-flex-modelo-2005-da-volkswagen-_1
O motor mais popular da Volkswagen nasceu na Mercedes-Benz
Durante 27 anos os motores AP equiparam mais de 20 modelos de série fabricados por Volkswagen e Ford (entre eles os bem-sucedos Gol, Escort e Santana), além de alguns Gurgel e dezenas de fora de série, como os Miura e Hofstetter.
Mas foi a robustez que o tornou tão longevo e a produção em grande escala que fez sua manutenção ser barata. Já a atenção dada aos motores refrigerados a água da Volkswagen desde os tempos do campeonato brasileiro de Marcas e Pilotos o tornou popular entre os preparadores.
Eles faziam os 1.6 AP turbo ultrapassarem os 250 cv.
O que a história quase deixa passar é que o motor AP tem sua origem em um projeto militar da Mercedes-Benz.

Troca de família
O ano é 1958. A Daimler-Benz compra 87,8% da Auto Union, marca fundada em 1932 com a fusão das marcas Audi, Wanderer, Horch e DKW. Seu logotipo composto por quatro argolas é usado até hoje pela Audi.
A Daimler estava interessada nos DKW, compactos e populares que vendiam bem na Alemanha pós-guerra. Mas a economia do pais já mostrava sinais de recuperação e a Mercedes percebeu que muito em breve apenas o leste da Alemanha ainda se interessaria nos fumegantes motores dois-tempos dos DKW.
Surgia a demanda de um novo carro com motor de quatro tempos que seria posicionado entre os DKW e os Mercedes.
Ludwig Krauss encabeçou o projeto a equipe de desenvolvimento. Nasceriam dois motores quatro tempos: um 1.5 boxer e um 1.7 quatro cilindros em linha, o mais promissor dos dois.
Este 1.7 havia nascido em um programa militar da Mercedes. Ele trabalhava com com taxa de compressão de 11,2:1, elevada até para os dias de hoje.
Na época, era apresentada como uma taxa de compressão que ficaria entre os padrões para os motores diesel e os motores a gasolina (Ciclo Otto). Refrigerado a água, foi apelidado como “motor H”.
Estas três grandes fabricantes de automóveis combinaram seus conhecimentos, experiências e capacidades para construir um novo tipo de motor de quatro tempos: o motor de compressão intermediária“.

A campanha de lançamento do Audi F103 fazia questão de dizer que o motor tinha as mãos da Mercedes-Benz.
Mas por que colocaram a Volkswagen na história?
Dinheiro é uma coisa que não sobra e a Daimler não estava afim de estancar as perdas da Auto Union com seu próprio bolso. Resolveu vender sua subsidiária para a Volkswagen em 1964.
Para a VW foi uma grande jogada: o negócio não só garantiu o lançamento do F103 com o motor 1.7 de 72 cv no ano seguinte, como pode ter garantido o futuro da própria Volkswagen.

passat-1983-01-copy
O início do fim dos motores a ar
A VW iniciou a década de 1960 obcecada pelos motores refrigerados a ar instalados na traseira. A presidência da empresa acreditava que manter mecânica semelhante à do do Fusca propagaria sua boa reputação.
Mas não era bem assim. Além de visualmente estranhos, os Volkswagen daquela época (como o Typ4) não eram tão atraentes e eram menos estáveis que seus concorrentes.
Com a compra da Auto Union, a Volkswagen passou a se dedicar ao F103, que logo passaria a ser chamado de Audi 72, por causa da potência de seu motor. Logo surgiriam os Audi 75, Audi 80 e Audi Super 90.
Na árvore genealógica da Volkswagen, o Audi 80 é o pai do primeiro Passat, lançado em 1973 na Europa. Em 1974 ele já estava em produção no Brasil com a carroceria Fastback nas versões Standard e L.
O motor era sempre o 1.5 com carburador de corpo simples e taxa de compressão de 7,4:1, reduzida em relação ao europeu. Chamado de motor BR, ele rendia 65 cv (DIN) e 10,3 mkgf de torque, e sempre estava combinado ao câmbio manual de quatro marchas.
Ainda assim, era considerado o carro mais moderno do Brasil à época.
Não era só pelo motor, com desempenho melhor e menores índices de consumo e ruído frente aos refrigerados a ar, mas também pelo projeto do carro e pelo design assinado por Giorgetto Giugiaro.
Basta comparar o Passat com a Brasilia, lançada exatamente um ano antes.
Em 1976 o Passat ganharia a famosa versão TS, com o motor com deslocamento aumentado de 1471 cm³ para 1588 cm³ (1.6 l) e dotado de carburador de corpo duplo alemão.
Era o motor BS, que rendia 80 cv e 12 mkgf de torque, o suficiente para tornar o Passat tão rápido quanto os concorrentes com motores de 6 ou 8 cilindros.
Demorou um pouco para os motores do Passat chegarem a outros carros. O Gol foi lançado em 1980 com motor 1.3 refrigerado a ar, mas o Voyage chegou ao mercado em 1981 com o 1.5 BR e no ano seguinte  recebeu o 1.6 junto com a recém-lançada Parati.
Os primeiros motores do gol vibravam muito.
O motor AP, sigla para Alta Performance, surgiu em 1985, quando a Volkswagen corrigiu esse problema.

Instalaram bielas maiores, de 144 mm, pistões de maior diâmetro e virabrequim com menor curso (comparando os 1.6 entre si). Foi o suficiente para garantir aos 1.6, 1.8 e 2.0 8 válvulas um ótimo funcionamento.
Também coube ao motor AP o título de primeiro motor flex do Brasil, em 2003. Podendo queimar etanol e gasolina em qualquer proporção, o 1.6 rendia 99/101 cv com gasolina e álcool, respectivamente, no Gol Total Flex. O 1.8 surgiria depois com 103/106 cv.
Na longitudinal, levemente inclinado para a esquerda e com o radiador do seu lado direito, o motor Volkswagen AP chegou ao fim com a Parati, em setembro de 2012.

14.326 – Tecnologia – O LED Azul


LED-azul
O Prêmio Nobel de Física deste ano foi concedido a três cientistas japoneses pela invenção do LED azul. A tecnologia revolucionou o ramo da iluminação mundial , permitindo a criação de lâmpadas com menor consumo de energia e maior durabilidade
Os LEDs (da sigla em inglês para light-emitting diode) estão bem próximos de conquistar o mundo, graças ao seu brilho e eficiência energética. E, diferentemente das lâmpadas incandescentes, os LEDs não emitem calor junto com a luz. Eles estão em milhões de smartphones, televisões e computadores – basicamente qualquer coisa com uma tela iluminada.
Os LEDs azuis, em combinação com LEDs vermelhos e verdes (que tinham sido inventados anteriormente), tornaram possível a produção da luz branca. Este tipo de iluminação é muito mais eficiente energeticamente e tem uma vida útil mais longa do que as lâmpadas incandescentes convencionais. disse Christian Wetzel, físico da Rensselaer Polytechnic Institute, em Troy, Nova York.
“As lâmpadas incandescentes iluminaram o século 20, mas o século 21 será iluminado por lâmpadas LED”, disse um representante da Real Academia Sueca de Ciências em um comunicado.
As lâmpadas LED também trazem a promessa de melhorar a qualidade de vida de cerca de 1,2 bilhão de pessoas em todo mundo que não têm acesso às redes de energia elétrica, já que seu baixo consumo de eletricidade permite que sejam alimentadas por painéis e baterias solares.
Além de iluminar, os LEDs podem incorporar sensores que detectam quando as pessoas estão em uma sala, e desligar as luzes quando não há ninguém – um requisito para qualquer casa inteligente.
Os LEDs já estão sendo explorados por seu potencial de transmissão de dados da internet através de um espaço aberto, semelhante ao WiFi. Tal sistema poderia transmitir muito mais dados do que WiFi atual, disse Wetzel. Isso é possível porque os LEDs podem ligar e desligar milhões de vezes por segundo.
Os usos dos LEDs azuis não param por aí. A tecnologia está começando a ser usada para a purificação de água. Atualmente, as plantas de purificação usam lâmpadas de mercúrio para matar os micróbios na água, mas estas lâmpadas consomem muita energia. Já o LED pode purificar a água diretamente na torneira, e ligar ou desligar conforme necessário – o que resulta em grande economia, disse Wetzel. Apenas algumas empresas estão trabalhando com o LED para a purificação de água no momento, mas em poucos anos, eles vão estar em toda parte, disse ele.
A ascensão de iluminação LED veio num momento em que as pessoas estão começando a se preocupar com o aquecimento global, disse Wetzel. Por causa da eficiência energética dos LEDs, o seu uso para a iluminação do mundo terá “um impacto extremo” na sociedade.

led-azul-e1412918469712

14.325 – O Tubo de Raios Catódicos


tubo de raios catodicos
Um tubo de raios catódicos ou cinescópio (também conhecido pelo acrónimo CRT, derivado da expressão inglesa cathode ray tube) é um tipo de válvula termiônica contendo um ou mais canhões de elétrons e um ecrã fluorescente utilizado para ver imagens. Seu uso se dá principalmente em monitores de computadores e televisores (cinescópios de deflexão eletromagnética) e osciloscópios (cinescópios de deflexão eletrostática). Foi inventado por Karl Ferdinand Braun em 1897.
Foi em um tubo de raios catódicos que, em 1897, o físico J. J. Thomson verificou a existência do elétron.
As primeiras experiências com raios catódicos são creditadas a J. J. Thomson, físico inglês que, em seus três famosos experimentos, conseguiu observar a deflexão eletrostática, uma das funções fundamentais dos tubos de raios catódicos modernos. A primeira versão do tubo de raios catódicos foi inventada pelo físico alemão Ferdinand Braun em 1897, tendo ficado conhecida como tubo de Braun.
EM 1907, o cientista russo Boris Rosing usou um tubo de raios catódicos na extremidade receptora de um sinal experimental de vídeo para formar uma imagem. Ele conduziu o experimento para mostrar formas geométricas simples na tela. Foi a primeira vez em que a tecnologia de tubo de raios catódicos foi usada para o que agora conhecemos como televisão.
O primeiro tubo de raios catódicos a usar cátodos quentes foi desenvolvido por John B. Johnson e Harry Weiner Weinhart, da Western Electric, tendo se tornado um produto comercial em 1922.
O primeiro televisor comercializado com tubo de raios catódicos foi fabricado pela Telefunken, na Alemanha, em 1934.
A máscara de sombra, formada por uma chapa de aço com cerca de 150 micros de espessura e com cerca de 350 mil furos é conformada em uma fôrma convexa em prensas, lavada e passa por um processo de enegrecimento. Esta chapa é fixada em um anel metálico para dar rigidez e que é fixado à tela por molas.
Processamento de telas ou Flowcoating
A camada fotossensível (camada de fósforo) é aplicada na parte interna da tela usando um processo fotoquímico. O primeiro passo é um pré-tratamento da superfície seguido do recobrimento com uma suspensão de fósforo verde. Depois de seca, a máscara é inserida na tela e o conjunto é exposto a uma luz UV que reage na parte exposta pelos furos da máscara. Os raios de luz são emitidos de tal forma que as linhas de fósforo estejam no mesmo ponto que o feixe de elétrons colidirá. Então a máscara é removida da tela e a área não exposta à luz é lavada. Nas áreas que foi exposta, o fósforo adere à tela como resultado de uma reação fotossensível. Na sequência as outras duas cores (azul e vermelho) seguem no mesmo processo.
Para os tubos que utilizam a tecnologia de matriz, linhas de grafite são colocadas entre as linhas de fósforos antes do processo Flowcoating em um processo similar chamado de processo Matrix.
Toda a região da tela é coberta posteriormente com uma camada de alumínio, este alumínio conduz os elétrons e também reflete a luz emitida para trás (efeito espelho).
Em paralelo ao Processamento de Telas, a parte interna do cone de vidro foi recoberta com uma camada de material condutivo. Uma pasta de esmalte é aplicada à borda do cone que após o forno se funde com a tela. A partir do forno o cone e a combinação tela/máscara, incluindo o cone metálico que serve de blindagem magnética, são fundidos no esmalte em alta temperatura.
O canhão eletrônico é inserido e selado no pescoço do cone, o vácuo é formado no interior do bulbo, o qual em seguida é fechado. Neste momento o bulbo se torna um tubo. Um “getter” (elemento químico com alta capacidade de combinação com gases não inertes), montado em uma fase anterior do processo, é evaporado por meio de aquecimento com alta frequência, para que se combine com possíveis átomos residuais de gases, através de reações químicas.
A parte externa do cone do cinescópio é recoberta por uma camada condutiva e uma cinta metálica é colocada na borda do painel através de um processo que envolve o aquecimento da cinta, a sua aplicação à borda do painel, seu resfriamento e consequente contração, para proteger o tubo contra possíveis riscos de implosão.

Matching
No Processo de Matching, uma bobina defletora é “casada” ao pescoço do cinescópio até o cone. Após várias medições e operações de acabamento, a defletora é ajustada para garantir uma distribuição uniforme e equalizada, por toda a tela, dos feixes eletrônicos vermelho, verde e azul. Esta operação é chamada “matching”. A defletora é então fixada na sua posição definitiva.
Descarte e reciclagem
Alguns cinescópios, dependendo do modelo e fabricante podem possuir metais nobres e até valiosos, tal como paládio, platina e eventualmente ouro, além de terras raras, algumas delas inclusive com pequeno potencial radioativo. Miligramas ou mesmo gramas desses metais e terras raras podem ser encontrados nos catodos e nas grades de difusão ou máscaras.
Dependendo de estudos de viabilidade, a extração desses metais pode compensar o custo de tratamento do descarte e da reciclagem, como já ocorre com os chips recobertos por filmes de ouro e entre outros, determinados conectores e soquetes utilizados em placas de circuito impresso, contatos de relés e etc.
Existem ainda alguns tubos de altíssima luminosidade que podem, apesar de não ser absolutamente certo isso – por estar entre os segredos de fabricação (vide referências) – conter diminutas quantidades de material radioativo pesado, tal como o tório, utilizado no endurecimento e aumento de resistência ao calor dos componentes do canhão eletrônico, tornando o negócio de reciclagem no mínimo desaconselhável para leigos e no pior caso exigindo inclusive disposição especial em áreas especialmente preparadas para recebê-los, para evitar graves contaminações, possivelmente cumulativas, no meio ambiente.
Lembrando que, ainda hoje no Brasil e em outros países, dispositivos mais simples tecnologicamente, mas submetidos a grande calor durante a operação, tal como “camisas de lampião”, são banhadas em material radioativo para permitir às cerdas das mesmas atingirem altas temperaturas sem romperem-se facilmente – o mesmo principio de tratamento por tório, costumava ser utilizado nos cátodos de alguns cinescópios.
Já os televisores mais antigos, aqueles com válvulas termiônicas, contêm algumas delas com cátodos compostos com terras raras, porém em diminutas quantidades. Apesar de encontrarem-se diversas dessas válvulas eletrônicas com informações relativas ao uso de terras raras radioativas nos cátodos, não se sabe exatamente se possuem ou não radioatividade inerente suficiente para causar danos, porém nos recicladores o contato constante com esses materiais poderá ser mais um fator para que não sejam reciclados em ambientes não controlados.
O que torna o assunto da reciclagem de componentes eletrônicos e válvulas termiônicas algo um tanto delicado e que exigiria sempre a presença de um técnico especializado para avaliar o impacto ao meio ambiente e para realizar o descarte seguro desses componentes.
Aparelhos antigos podem conter maior quantidade desses componentes.
Seria irresponsável dizer às pessoas que simplesmente os atirem ao lixo, mas também é irresponsável dizer que leigos poderiam cuidar desse assunto – mesmo descartando-os em Ecopontos como os muitos mantidos pela prefeitura em grandes cidades de São Paulo.

oscilloscope

14.185 – Biorrobótica


ribossomo
O termo biorrobótica é comumente usado como referência ao estudo da criação dos robôs que emulam ou simulam organismos biológicos vivos, ele é também utilizado ao contrário: tornando organismos biológicos manipuláveis e funcionais como robôs.
Em outro sentido a biorrobótica se refere a uma disciplina teórica da engenharia genética aonde os organismos são criados e projetados por meios artificiais. A criação de vida de uma matéria não-viva por exemplo, é biorrobótica. Devido ao seu estado altamente teórico, ela é atualmente limitada à ficção científica, o campo atual em seu começo é a biologia sintética.
Os Replicantes no filme Blade Runner podem ser considerados biorrobótica na natureza: organismos de tecido vivo e células criadas artificialmente. Porém esses experimentos são considerados ilegais em diversos países, mas poderão ser usados para salvar vidas futuramente.

14.163 – O gigantesco avião que transporta naves espaciais da Nasa


super guppy
O Super Guppy tem 143 metros de comprimento e 47 metros de largura. Só a distância da ponta da calda do avião até o solo é de 16 metros
No começo desta semana, a NASA utilizou seu avião Super Guppy para levar a cápsula Orion a testes preliminares nos Estados Unidos. O cargueiro – que possui formato parecido com uma “baleia” – viajou do Centro Espacial Kennedy, na Flórida, para a Estação Plum Book, localizada em Ohio.
A aeronave foi adquirida pela agência espacial norte-americana no ano de 1997, com o objetivo de substituir um modelo semelhante, o qual serviu a entidade por mais de 30 anos. Confira uma imagem do avião.
De acordo com a NASA, o Super Guppy é um dos únicos transportes do tipo a contar com essas dimensões internas. No entanto, outras naves conseguem aguentar peso superior a esse cargueiro.
A intenção da NASA é avaliar as condições térmicas e a compatibilidade eletromagnética da cápsula Orion, para utilizá-la durante a futura missão Artemis 1, com destino à Lua. Ela deverá passar pelas provas, a fim de garantir que sobreviverá a situações extremas quando for ao espaço.
Após essa fase, a sonda deverá ser levada de volta ao Centro Espacial Kennedy, de onde começará a ser integrada ao foguete Space Launch System – também nos planos da agência espacial para a missão lunar.

14.140 – Como Funciona a Máquina à vapor


Os princípios básicos da máquina a vapor já haviam sido explorados pelo engenheiro e matemático greco-egípcio Hierão de Alexandria, que no século I a.C. estudava o vapor como força motriz, através de sua invenção, a eolípila.
Já no final do século XVII, Denis Papin e Thomas Savery desenvolveram os primeiros motores a vapor, porém, foi
somente em 1972, que Thomas Newcomen revolucionou a área. O chamado “motor de Newcomen”, a partir de então começou a ser amplamente usado.
Com o avanço, os motores a vapor começaram a movimentar as primeiras locomotivas, barcos, fábricas, bem como as minas de carvão. As primeiras máquinas a fazer uso da energia a vapor eram usadas para retirar água acumulada nas minas de ferro e carvão e ainda eram utilizadas na fabricação de tecido.

Naquela época estava ocorrendo a chamada Revolução Industrial, em que o número de indústrias teve um crescimento vertiginoso, e com isso, a necessidade de usar cada vez mais máquinas para suprir o trabalho humano.

A primeira máquina a vapor foi utilizada por Thomas Savery, na retirada de água de poços de minas. A máquina transformava a energia armazenada no vapor quente em energia utilizável.
Na máquina de Savary, o vapor, que é proveniente da água aquecida até a ebulição em uma caldeira, entrava em uma câmara. Tal câmara, após ser fechada, era arrefecida por aspersão da água fria, e assim acontecia a condensação do vapor no seu interior.
Uma máquina a vapor não cria energia, mas sim usa o vapor para transformar a energia quente que é liberada pela queima de combustível. Toda máquina a vapor possui uma fornalha para que seja realizada a queima de carvão, óleo, madeira ou mesmo outro combustível para produzir energia calorífica.
Além disso, a máquina a vapor dispõe de uma caldeira. Assim, o calor proveniente da queima de combustível leva a água a transformar-se em vapor no interior dessa caldeira. Com o processo, o vapor expande-se, e ocupa um espaço muitas vezes maior que o ocupado pela água. A energia da expansão produzida pode ser aproveitada de duas formas: A primeira, deslocando um êmbolo num movimento de vaivém ou, acionando uma turbina.

Conheça o funcionamento de uma máquina a vapor

maquina_vapor

Assim sendo, na caldeira, o calor faz com que a água entre em ebulição. Assim, quando a válvula A está aberta e a válvula B permanece fechada, o vapor acaba entrando sob pressão e empurrando o êmbolo para cima. Deste modo, a roda R e a biela B acabam sendo deslocadas. O êmbolo, ao atingir o topo do cilindro, a válvula A acaba fechando para cortar o fornecimento de vapor, e a válvula B abre-se, fazendo com que o vapor saia do cilindro e entre no condensador.
Através da água corrente o condensador é mantido arrefecido. Assim que o vapor deixa o cilindro a pressão diminuiu no seu interior e a pressão atmosférica empurra o êmbolo para baixo. O êmbolo, ao atingir o fundo do cilindro, a válvula B se fecha a válvula A abre. A partir de então, o vapor entra no cilindro e o processo começa novamente.
Locomotivas a vapor
No século 19 surgiram as primeiras locomotivas movidas a vapor, sendo que geralmente tinha sua energia gerada pela queima de carvão nas fornalhas. Esse modelo de locomotiva foi usado até o final da Segunda Guerra Mundial.

A primeira locomotiva a vapor foi construída por Richard Thevithick, sendo que o primeiro teste foi feito em 21 de fevereiro de 1904, porém, somente após alguns anos o projeto acabou sendo usado. A tecnologia, no decorrer dos seus 150 anos de uso da energia a vapor foi sendo aprimorado.
As LOCOMOTIVAS A VAPOR são constituídas basicamente de:

1) CALDEIRA : local onde é produzido o vapor de água;

2) MECANISMO: Conjunto de elementos mecânicos que tem pôr objetivo de transformar a energia calorífica dos combustíveis em energias mecânica para assim transmitir o movimento resultante dos êmbolos aos eixos motrizes e finalmente, transformar esse movimento retilíneo alternado em circular contínuo para as rodas;
3) VEÍCULO: constituído pela carroceria, rodas, eixos, caixas de graxa e molas.

14.131 – O Rádio Transistorizado


radio Nissei
Rádio é Nissei, o resto eu não sei

Receptor de rádio portátil que usa circuito baseado em transistor. Os primeiros rádios foram desenvolvidos em 1954, seguido da invenção do transistor que foi em 1947, tornaram-se o dispositivo de comunicação eletrônico mais popular da história, sendo produzidos bilhões nos anos de 1960 a 1970. Seu tamanho de bolso provocou uma mudança nos hábitos de escuta de música, permitindo que as pudessem ouvir música em qualquer lugar. No começo da década de 1980, os rádios AM baratos foram substituídos por aparelhos com melhor qualidade de áudio como, CD players portáteis, leitores de áudio pessoais, e caixas de som.

Antes do transistor ter sido inventado, os rádios usados eram criados usando válvula eletrônica. Embora tenham sido criados rádios portáteis valvulados, eles eram volumosos e pesados, devido às grandes baterias necessárias para abastecer o alto consumo de energia dos tubos.
Bell Laboratories demonstrou o primeiro transistor em 23 de dezembro de 1947. Depois de obter a proteção das patentes, a empresa realizou uma coletiva de imprensa em 30 de junho de 1948, onde foi demonstrado um protótipo de rádio transistor.
Há muitos pretendentes ao título de primeira empresa a produzir rádios transistorizados. Texas Instruments havia demonstrado a utilização de rádios AM (modulação de amplitude) em 25 de maio de 1954, mas o seu desempenho foi bem inferior ao de modelos valvulados. Um rádio foi demonstrado em agosto de 1953 em uma Feira em Düsseldorf pela empresa alemã Intermetall. Foi construído com quatro de transistores feitos à mão pela Intermetall. No entanto, como acontece com as primeiras unidades, a Texas Instruments (e outros) construíram apenas protótipos. RCA havia demonstrado um protótipo de rádio transistorizado em 1952, mas Texas Instruments e Regency Divisão de IDEA, foram os primeiros a oferecerem um modelo de produto a partir de outubro 1954.
Durante uma viagem aos Estados Unidos em 1952, Masura Ibuka, fundador da Tokyo Telecommunications Engineering Corporation (atual Sony), descobriu que a AT&T estava prestes a tornar o licenciamento para o transistor disponível. Ibuka e seu parceiro, o físico Akio Morita, convenceu o Ministério do Comércio e Indústria Internacional (MITI) japonês para financiar a taxa de licenciamento $25.000. Durante vários meses Ibuka viajou por todo os Estados Unidos tomando ideias dos fabricantes de transistores americanos. Com as ideias melhoradas, Tokyo Telecommunications Engineering Corporation fez seu primeiro rádio transistor funcional em 1954. Dentro de cinco anos, Tokyo Telecommunications Engineering Corporation cresceu de sete funcionários para cerca de quinhentos.
Outras empresas japonesas logo seguiram a sua entrada no mercado americano e o total de produtos eletrônicos exportados do Japão em 1958 aumentou 2,5 vezes em comparação a 1957.

Pocket_radio_open_english

14.121 – INVENTORES – Guglielmo Marconi


Marconi
(Bolonha, 25 de abril de 1874 — Roma, 20 de julho de 1937) foi um físico e inventor italiano. Em língua portuguesa, é por vezes referido por Guilherme Marconi.
Inventor do primeiro sistema prático de telegrafia sem fios (TSF), em 1896. Marconi se baseou em estudos apresentados em 1897 por Nikola Tesla para em 1899 realizar a primeira transmissão através do Canal da Mancha. A teoria de que as ondas electromagnéticas poderiam propagar-se no espaço, formulada por James Clerk Maxwell, e comprovada pelas experiências de Heinrich Hertz, em 1888, foi utilizada por Marconi entre 1894 e 1895. Tinha apenas vinte anos, em 1894, quando transformou o celeiro da casa onde morava em laboratório e estudou os princípios elementares de uma transmissão radiotelegráfica, uma bateria para fornecer eletricidade, uma bobina de indução para aumentar a força, uma faísca elétrica emitida entre duas bolas de metal gerando uma oscilação semelhante as estudadas por Heinrich Hertz, um Coesor, como o inventado por Édouard Branly, situado a alguns metros de distância, ao ser atingido pelas ondas, acionava uma bateria e fazia uma campainha tocar.
Em 1896, foi para a Inglaterra, depois de verificar que não havia nenhum interesse por suas experiências na Itália. Em 1899, teve sucesso na transmissão sem fios do código Morse através do Canal da Mancha. Dois anos mais tarde, conseguiu que sinais radiotelegráficos (a letra S do código morse) emitidos de Inglaterra, fossem escutados claramente em St. John’s (Terra Nova, hoje parte do Canadá), atravessando o Atlântico Norte. A partir daí, fez muitas descobertas básicas na técnica rádio.
Em 1909, 1700 pessoas são salvas de um naufrágio graças ao sistema de radiotelegrafia de Marconi. Em 1912 a companhia de Marconi já produzia aparelhos de rádio em larga escala, particularmente para navios. Em 1915, durante e depois da Primeira Guerra Mundial assumiu várias missões diplomáticas em nome da Itália e em 1919 foi o delegado italiano na Conferência de Paz de Paris.
Em sua infância, passava muito tempo viajando com a sua mãe Anna, que adorava a região do porto de Livorno, na costa oeste da Itália, onde vivia sua irmã, dessas viagens a Livorno, surge o amor de Marconi pelo mar. Em Livorno estava instalada uma academia da marinha real italiana, a Regia Marina, Marconi tinha o incentivo do pai (Giuseppe) para entrar na academia naval, mas não conseguiu, no entanto, seu amor pelo mar o acompanhou durante toda a vida. Em 1920, partiu para a sua primeira viagem no “Elettra”, um navio de 61 metros que comprou e equipou para ser seu laboratório no estudo de ondas curtas e também seu lar. Além de sua família, as cabines do Elettra recebiam visitantes ilustres, entre eles os reis da Itália, da Espanha e Jorge V e a rainha Maria de Teck. As festas no Elettra tornaram-se célebres pelas músicas transmitidas pelo rádio diretamente de Londres. A empresa de Marconi montou o novo Imperial Wireless Scheme, destinado a montar estações de ondas curtas em todo o território britânico. Em 1929, em reconhecimento por seu trabalho, recebeu do rei Vítor Emanuel III da Itália o título de marquês. Em 12 de outubro de 1931 acendeu, apertando um botão em Roma, as luzes do Cristo Redentor na noite de inauguração da estátua.
Em outubro de 1943, a Suprema Corte dos Estados Unidos considerou ser falsa a reclamação de Marconi que afirmava nunca ter lido as patentes de Nikola Tesla e determinou que não havia nada no trabalho de Marconi que não tivesse sido anteriormente descoberto por Tesla. Infelizmente, Tesla tinha morrido nove meses antes.
No entanto, muito embora Marconi não tenha sido o inventor de nenhum dispositivo em particular (ao usar a bobina de Ruhmkorff e um faiscador, como antes o haviam feito De Forest e Tesla na emissão, repetiria Hertz, gerando as ondas hertzianas (Experimento de Hertz com um “Ressoador de Hertz”) e usou o radiocondutor-detector Coesor de Branly na recepção, acrescentando a antena de Popov a ambos os casos) parece ser possível afirmar que Marconi é, na verdade, o inventor da rádio, (na forma da Radiotelegrafia e Radiotelefonia, Telefonia sem fio) visto que ninguém, antes dele, tivera a ideia de usar as ondas hertzianas com os objectivos de forma prática ou rotineira, de comunicação (exceto Landell de Moura).
Lee de Forest o havia feito, mas apenas para testar a sua válvula eletrônica.
Tendo seu valor reconhecido, Marconi foi agraciado em 1909, recebendo juntamente com o alemão Karl Ferdinand Braun o Nobel de Física. Braun é o descobridor dos semicondutores, dentre eles o sulfeto de chumbo natural, um mineral conhecido como galena, base do histórico rádio de galena.

14.120 – História da Eletrônica – O Tubo de Raios Catódicos


tubo
Um tubo de raios catódicos ou cinescópio (também conhecido pelo acrónimo CRT, derivado da expressão inglesa cathode ray tube) é um tipo de válvula termiônica contendo um ou mais canhões de elétrons e um ecrã fluorescente utilizado para ver imagens. Seu uso se dá principalmente em monitores de computadores e televisores (cinescópios de deflexão eletromagnética) e osciloscópios (cinescópios de deflexão eletrostática). Foi inventado por Karl Ferdinand Braun em 1897.
Foi em um tubo de raios catódicos que, em 1897, o físico J. J. Thomson verificou a existência do elétron.
As primeiras experiências com raios catódicos são creditadas a J. J. Thomson, físico inglês que, em seus três famosos experimentos, conseguiu observar a deflexão eletrostática, uma das funções fundamentais dos tubos de raios catódicos modernos. A primeira versão do tubo de raios catódicos foi inventada pelo físico alemão Ferdinand Braun em 1897, tendo ficado conhecida como tubo de Braun.
EM 1907, o cientista russo Boris Rosing usou um tubo de raios catódicos na extremidade receptora de um sinal experimental de vídeo para formar uma imagem. Ele conduziu o experimento para mostrar formas geométricas simples na tela. Foi a primeira vez em que a tecnologia de tubo de raios catódicos foi usada para o que agora conhecemos como televisão.
O primeiro tubo de raios catódicos a usar cátodos quentes foi desenvolvido por John B. Johnson e Harry Weiner Weinhart, da Western Electric, tendo se tornado um produto comercial em 1922.[citation needed]
O primeiro televisor comercializado com tubo de raios catódicos foi fabricado pela Telefunken, na Alemanha, em 1934.
A máscara de sombra, formada por uma chapa de aço com cerca de 150 micros de espessura e com cerca de 350 mil furos é conformada em uma fôrma convexa em prensas, lavada e passa por um processo de enegrecimento. Esta chapa é fixada em um anel metálico para dar rigidez e que é fixado à tela por molas.
A camada fotossensível (camada de fósforo) é aplicada na parte interna da tela usando um processo fotoquímico. O primeiro passo é um pré-tratamento da superfície seguido do recobrimento com uma suspensão de fósforo verde. Depois de seca, a máscara é inserida na tela e o conjunto é exposto a uma luz UV que reage na parte exposta pelos furos da máscara. Os raios de luz são emitidos de tal forma que as linhas de fósforo estejam no mesmo ponto que o feixe de elétrons colidirá. Então a máscara é removida da tela e a área não exposta à luz é lavada. Nas áreas que foi exposta, o fósforo adere à tela como resultado de uma reação fotossensível. Na sequência as outras duas cores (azul e vermelho) seguem no mesmo processo.
Para os tubos que utilizam a tecnologia de matriz, linhas de grafite são colocadas entre as linhas de fósforos antes do processo Flowcoating em um processo similar chamado de processo Matrix.
Toda a região da tela é coberta posteriormente com uma camada de alumínio, este alumínio conduz os elétrons e também reflete a luz emitida para trás (efeito espelho).
Em paralelo ao Processamento de Telas, a parte interna do cone de vidro foi recoberta com uma camada de material condutivo. Uma pasta de esmalte é aplicada à borda do cone que após o forno se funde com a tela. A partir do forno o cone e a combinação tela/máscara, incluindo o cone metálico que serve de blindagem magnética, são fundidos no esmalte em alta temperatura.
O canhão eletrônico é inserido e selado no pescoço do cone, o vácuo é formado no interior do bulbo, o qual em seguida é fechado. Neste momento o bulbo se torna um tubo. Um “getter” (elemento químico com alta capacidade de combinação com gases não inertes), montado em uma fase anterior do processo, é evaporado por meio de aquecimento com alta frequência, para que se combine com possíveis átomos residuais de gases, através de reações químicas.
A parte externa do cone do cinescópio é recoberta por uma camada condutiva e uma cinta metálica é colocada na borda do painel através de um processo que envolve o aquecimento da cinta, a sua aplicação à borda do painel, seu resfriamento e consequente contração, para proteger o tubo contra possíveis riscos de implosão.
Alguns cinescópios, dependendo do modelo e fabricante podem possuir metais nobres e até valiosos, tal como paládio, platina e eventualmente ouro, além de terras raras, algumas delas inclusive com pequeno potencial radioativo. Miligramas ou mesmo gramas desses metais e terras raras podem ser encontrados nos catodos e nas grades de difusão ou máscaras.
Dependendo de estudos de viabilidade, a extração desses metais pode compensar o custo de tratamento do descarte e da reciclagem, como já ocorre com os chips recobertos por filmes de ouro e entre outros, determinados conectores e soquetes utilizados em placas de circuito impresso, contatos de relés e etc.
Existem ainda alguns tubos de altíssima luminosidade que podem, apesar de não ser absolutamente certo isso – por estar entre os segredos de fabricação (vide referências) – conter diminutas quantidades de material radioativo pesado, tal como o tório, utilizado no endurecimento e aumento de resistência ao calor dos componentes do canhão eletrônico, tornando o negócio de reciclagem no mínimo desaconselhável para leigos e no pior caso exigindo inclusive disposição especial em áreas especialmente preparadas para recebê-los, para evitar graves contaminações, possivelmente cumulativas, no meio ambiente.
Lembrando que, ainda hoje no Brasil e em outros países, dispositivos mais simples tecnologicamente, mas submetidos a grande calor durante a operação, tal como “camisas de lampião”, são banhadas em material radioativo para permitir às cerdas das mesmas atingirem altas temperaturas sem romperem-se facilmente – o mesmo principio de tratamento por tório, costumava ser utilizado nos cátodos de alguns cinescópios.
Já os televisores mais antigos, aqueles com válvulas termiônicas, contêm algumas delas com cátodos compostos com terras raras, porém em diminutas quantidades. Apesar de encontrarem-se diversas dessas válvulas eletrônicas com informações relativas ao uso de terras raras radioativas nos cátodos, não se sabe exatamente se possuem ou não radioatividade inerente suficiente para causar danos, porém nos recicladores o contato constante com esses materiais poderá ser mais um fator para que não sejam reciclados em ambientes não controlados.
O que torna o assunto da reciclagem de componentes eletrônicos e válvulas termiônicas algo um tanto delicado e que exigiria sempre a presença de um técnico especializado para avaliar o impacto ao meio ambiente e para realizar o descarte seguro desses componentes.
Aparelhos antigos podem conter maior quantidade desses componentes.
Seria irresponsável dizer às pessoas que simplesmente os atirem ao lixo, mas também é irresponsável dizer que leigos poderiam cuidar desse assunto – mesmo descartando-os em Ecopontos como os muitos mantidos pela prefeitura em grandes cidades de São Paulo.

14.093 – Audiotecnologia – Como Funciona um Alto Falante


alto falantes 1
Graças aos nossos ouvidos conseguimos ouvir sons produzidos por diversos dispositivos como buzinas, campainhas, bumbos, alto-falantes, etc. Os alto-falantes hoje estão em diversos aparelhos eletrônicos, sendo muito utilizados para incrementar carros de sons, como mostra a figura acima.
Podemos simplificar a definição de alto-falantes como sendo componentes que transformam sinais elétricos de uma corrente elétrica em oscilações de pressão no ar, em forma de onda sonora. Caso observemos bem de perto um alto-falante, poderemos verificar que seus componentes básicos são um ímã permanente, preso na armação do alto-falante, e uma bobina móvel, que está fixa no cone de papel.
Quando aplicamos uma corrente elétrica variável na bobina, esta é repelida ou atraída pelo campo magnético do ímã permanente. Desta forma, o conjunto bobina-cone é movido para frente e para trás, empurrando o ar em sua volta, criando uma onda de compressão e rarefação no ar, ou seja, uma onda sonora.
Por exemplo, aplicando uma corrente oscilante de 440 Hz na bobina, o cone do alto-falante vai se mover para frente e para trás com esta mesma frequência, produzindo uma onda sonora de 440 Hz.
A bobina, presa ao cone, é movida para frente e para trás por meio da força magnética, quando ela é percorrida por uma corrente elétrica.

14.075 -Robótica – Pesquisadores criam pele para robôs que pode regenerar seus circuitos sozinha


regeneracão robotica
Pesquisadores da Universidade de Carnegie Mellon, nos Estados Unidos, podem ter encontrado uma solução para tornar os robôs mais resistentes. Trata-se de uma pele artificial feita de material híbrido e que pode se regenerar sozinha, permitindo a reconexão automática de circuitos. A expectativa é que a solução torne o reparo das máquinas mais barato, combatendo falhas elétricas comuns.
De acordo com a publicação da PhysicsWorld, a solução proposta pelos pesquisadores envolve um tipo de polímero. No entanto, para que o material se torne flexível e resistente a danos, são inseridas micro gotas de uma liga metálica à base de gálio-índio em uma casca macia e elástica. Com isso, cria-se um material híbrido “sólido-líquido” com propriedades macias, eletricamente isolantes e que pode se regenerar diversas vezes.
A “mágica” da solução proposta é a seguinte: quando há um dano no material desta pele robótica, as gotículas de metal presentes no material se rompem para formar novas conexões e redirecionar os sinais elétricos sem interrupção. Assim, as máquinas conseguem continuar as suas operações. De acordo com o chefe da pesquisa, Carmel Majidi, a inspiração para a técnica vem do sistema nervoso humano e sua capacidade de autorregeneração.
Embora o uso de materiais que se “curam” não seja uma novidade na indústria, há uma diferença importante em relação ao proposto pelos cientistas da universidade americana. A maior parte dos compostos atuais demandam exposição ao calor, aumento de umidade ou remontagem manual para que a recuperação ocorra. Já o composto híbrido pode fazer tudo automaticamente, reduzindo custos.

Além do uso em robôs, a equipe da Universidade de Carnegie Mellon acredita que o material também pode ser útil em computadores portáteis e dispositivos vestíveis. A tecnologia também pode ajudar a tornar realidade smartphones flexíveis, tão especulados para os próximos anos, uma vez que sua capacidade regenerativa pode ser usada para recuperar os circuitos internos dos aparelhos.
Apesar dessas características, ainda há espaço para avanços, especialmente no que diz respeito à danos estruturais e mecânicos. Segundo a equipe de pesquisadores norte-americano, o foco agora é desenvolver um material igualmente macio e flexível, mas que pode se regenerar de defeitos físicos.

14.049 – Arma de Guerra – Novo drone helicóptero militar dos EUA está pronto para ação


drone helicoptero
Após dois anos de testes e desenvolvimento, o drone helicóptero Fire Scout, da Marinha dos EUA, está finalmente pronto para a ação. O exército norte-americano declarou que o MQ-8C, desenvolvido pela Northrop Grumman, atingiu sua “capacidade operacional inicial”, ou o estado mínimo de que necessita para entrar em serviço.
A nova versão é consideravelmente maior do que o seu antecessor. O novo drone é capaz de ficar o dobro de tempo em voo, 12 horas na estação, e transportar cerca de três vezes mais carga útil. O drone também traz novos radares com campo de visão maior.
As atualizações devem ajudar a Marinha dos EUA a lidar com a grande variedade de missões que vão desde o reconhecimento direto de locais remotos até o apoio a unidades outras aéreas, terrestres e navais.
Apesar do anúncio, o drone não deve ser visto em ação tão cedo. Embora esteja claro seu potencial para operações de frota e treinamento, o drone helicóptero não deve ser implantado em navios de combate litorâneos até 2021.
De qualquer forma, o novo MQ-8C mostra quando o a Marinha aposta nos drones para o futuro.

Fonte: Engadget

14.048 – Em teste o Foguete que Levará o Homem a Marte


starship
Foguete reutilizável é peça-chave nos planos da SpaceX de chegar a Marte
Ao responder uma série de perguntas de seus milhares de fãs no Twitter, Elon Musk revelou suas intenções de uma apresentação completa do Starship, o foguete reutilizável de próxima geração da SpaceX já para o final de julho de 2019. A espaçonave é peça-chave no plano da empresa para chegar a Marte.
O CEO da SpaceX também lembrou que o último teste de um de seus motores de foguete Raptor foi “bem-sucedido em geral”, apesar de um aborto, já que o objetivo era testar os limites externos de tolerância do novo motor.
Segundo Musk, a apresentação oficial de Starship da SpaceX deve ocorrer “algumas semanas após Hopper pairar”, se referindo ao teste de voo de curta duração da StarHopper. O StarHopper completou um teste limitado em abril. O próximo passo é repetir o feito sem restrições, o que está mais próximo da realidade do que nunca depois que a empresa resolveu um problema importante com a vibração do motor Raptor em uma frequência operacional específica.
O Super Heavy é o estágio superior do veículo Starship, capaz de transportar até 20 toneladas para a órbita geoestacionária da Terra, ou mais de 100 toneladas para a órbita baixa. O compartimento de carga tem nove metros, e o sistema será capaz de transportar, além de cargas, tripulações e recursos necessários em viagens de astronautas para a Lua ou para Marte.
Vários voos de teste estão previstos com o conjunto Starship-Super Heavy antes que esse primeiro voo comercial de 2021 aconteça, segundo Hofeller, que servirão para demonstrar o sistema de lançamento aos clientes em potencial, bem como para resolver quaisquer problemas que porventura possam acontecer.
Recentemente, a empresa fez um “salto” com um protótipo do Starship, que subiu alguns metros a partir do solo, e os próximos testes alcançarão altitudes mais elevadas. Eventualmente, a SpaceX poderá substituir seus atuais foguetes Falcon 9 e Falcon Heavy pelo Super Heavy, ainda que a empresa provavelmente não apressará seus atuais clientes para aceitarem esta troca.

14.033 – Robô Cirurgião Contra o Câncer de Próstata


da vinci o robot cirurgiao
Da Vinci, o robô cirurgião

As cirurgias robóticas já são uma realidade no Brasil. Mais ágil e segura do que os métodos tradicionais, a tecnologia vem auxiliando médicos na busca por resultados cada vez melhores em cirurgias que antes ofereciam riscos aos pacientes, seja na hora da operação ou em um segundo momento, com sequelas que o acompanham por toda a vida. No caso do tratamento cirúrgico para câncer de próstata, ela é, hoje, considerada a melhor opção para o paciente.
Entre as especialidades médicas, uma das mais beneficiada pela cirurgia robótica é a Urologia, abrindo diversas oportunidades para o tratamento não só do câncer de próstata, como também de doenças nos rins, bexiga e todo o trato urinário. Nesses casos, o robô usado é o Da Vinci SI, que entrega movimentos suaves e precisos através de suas pinças articuladas, reproduzindo de forma fiel os comandos das mãos do cirurgião.

Cirurgias que podem ser realizadas com o robô Da Vinci SI

– Prostatectomia: Retirada total ou parcial da próstata

– Nefrectomia: Retirada total ou parcial de um rim

– Pieloplastia: Tratamento na junção do rim com o ureter

– Adrenalectomia: Retirada de uma ou ambas as glândulas suprarrenais

– Cistectomia: Retirada total ou parcial da bexiga

“O paciente só tem a ganhar através da cirurgia robótica. A visão 3D dos campos operatórios permite total controle do procedimento. Outro ponto forte é a preservação dos vasos sanguíneos e nervos essenciais para as funções do organismo, como o controle da urina e a ereção”, explica o Dr. Raphael Rocha, urologista e cirurgião do Hospital São Lucas Copacabana.
A impotência sexual é justamente um dos grandes temores dos pacientes que têm indicação de cirurgia para tratar o câncer de próstata. Nas cirurgias abertas, esse risco é bem elevado, atingindo cerca de 90% dos homens; já na cirurgia robótica, esse número despenca para apenas 10% dos pacientes que ficam com a sequela no pós-operatório.

“Uma das grandes vantagens que a cirurgia robótica proporciona também para o cirurgião é que ela é minimamente invasiva. Muitas vezes o robô opera em orifícios de apenas 8mm, o que diminui muito os riscos de infecção e necessidade de transfusão de sangue. Além disso, no caso das cirurgias em Urologia, o paciente também tem menos chances de desenvolver hérnias”, diz o especialista.
O futuro da tecnologia médica aplicada nas cirurgias robóticas é promissor para a Urologia: na Suécia já estão sendo feitas cirurgias de grande porte para reconstrução da bexiga usando como base uma parte do intestino do próprio paciente, usufruindo de toda a precisão e rapidez que o método proporciona para um resultado excepcional.

14.024 – Aviação Comercial – A Boeing Lançará seu Novo Supersônico


superCruise30k_A_17

Os voos comerciais com jatos supersônicos deixaram de ser uma realidade há mais de 15 anos, com a aposentadoria do Concorde, em outubro de 2003. Além do Concorde, apenas o avião russo Tupolev TU-144 chegou a fazer viagens com passageiros acima da velocidade do som. O TU-144, no entanto, ficou em operação por pouco mais de seis meses, entre 1977 e 1978. Nos últimos anos, começaram a surgir novos projetos para tentar viabilizar o retorno dos voos supersônicos na aviação comercial. Ainda deve demorar para que os primeiros voos de teste sejam iniciados.
Boeing
Apresentou em junho do ano passado o seu avião conceito para viagens supersônicas. A intenção é voar cinco vezes mais rápido que a velocidade do som, ou cerca de 5.500 km/h. Segundo a empresa, o novo avião poderia ser utilizado tanto pela aviação comercial como em missões militares. A Boeing não dá muitos detalhes sobre o projeto e diz apenas que os engenheiros de toda a empresa trabalham para desenvolver a tecnologia necessária para quando o mercado estiver pronto para os voos supersônicos. O pesquisador sênior e cientista-chefe de hipersônicos da Boeing, Kevin Bowcutt, afirmou que avião supersônico de passageiros da Boeing só deve ser viável daqui a 20 ou 30 anos.

Aerion_AS2_Interior_HR-1024x769
Com capacidade entre 12 e 18 passageiros, o jato executivo supersônico Spike S-512 quer reduzir o tempo das viagens de avião pela metade. O jato está sendo projetado para voar a velocidade Mach 1.6, cerca de 1.700 km/h, com uma autonomia de voo para mais de 11 mil quilômetros de distância. O jato poderia voar de São Paulo a Londres em 5h30. A empresa afirma que um dos principais diferenciais em relação aos antigos aviões supersônicos, como o Concorde, é o baixo nível de ruído, mesmo ao quebrar a barreira do som. O avião também está sendo projetado para ter um interior luxuoso. As janelas seriam substituídas por enormes telas, que podem transmitir imagens externas, um filme ou qualquer outra apresentação. Originalmente, a empresa tinha a intenção de fazer o primeiro voo do jato supersônico em 2021, com as entregas para 2023. O projeto, no entanto, está atrasado.
O jato executivo AS2, da Aerion Supersonic, deve realizar seu primeiro voo de testes em 2023, para ser entregue aos primeiros clientes em 2025. O jato terá capacidade para 12 passageiros, com velocidade máxima de Mach 1.4, cerca de 1.500 km/h, e autonomia de 7.800 quilômetros de distância. Quando estiver sobrevoando áreas terrestres, no entanto, o jato viajaria abaixo da velocidade do som por conta do estrondo gerado ao romper a barreira do som. Com isso, o avião é um misto entre supersônico e subsônico. Em uma viagem de Nova York a São Paulo, por exemplo, haveria uma economia de 2h09.

Spike-S-512-Interior-4-2048-logo-b-1024x505

 

14.016 – Novo robô pode ser chave para entender como alguns dinossauros aprenderam a voar


pterossauro
Pesquisadores de universidade de Pequim fizeram demonstrações que indicam que dinossauros desenvolveram habilidade de voo ao baterem as asas quando corriam
Pesquisa publicada em (2/5/19), na revista científica PLOS Computational Biology, apresentou uma nova perspectiva para o desenvolvimento da capacidade de voo em alguns dinossauros – e criou um robô para demonstrar a teoria.
De acordo com o estudo, liderado por Jing-Shan Zhao, pesquisador do Departamento de Engenharia Mecânica da Universidade Tsinghua, em Pequim, a origem da habilidade começou como um efeito natural da corrida dos animais, que batiam as asas rudimentares antes de serem capazes de voar. Mas o movimento realizado involuntariamente enquanto corriam pode ter servido para “treinar” alguns dinossauros, fortes o suficiente para resistir ao voo e bater as asas e voar.
A equipe de pesquisa criou um pequeno robô para demonstrar a origem da habilidade de voo. A estrutura da máquina foi baseada no dinossauro Caudipteryx, considerado o dinossauro não-voador mais primitivo. Pesava cinco quilos e não podia voar, mas era capaz de correr a uma velocidade de oito metros por segundo. O robô foi construído no tamanho natural de um Caudipteryx, com capacidade de funcionar em diferentes velocidades. Os movimentos do robô foram baseados na atividade motora do animal real, prevista por meio de cálculos matemáticos.
Para complementar os resultados, os pesquisadores equiparam um avestruz com um par de asas mecânicas. Em ambos os casos, os movimentos da corrida desencadearam uma vibração passiva das asas, o que confirma a proposta do estudo. Tanto o modelo matemático quanto a demonstração real chegaram a movimentos que, embora superficiais, se assemelham às asas das aves.
“Nosso trabalho mostra que o movimento de bater asas se desenvolveu passiva e naturalmente quando o dinossauro corria no chão”, disse Zhao em um comunicado à imprensa. “Embora este flutuar não fosse capaz de levantar o dinossauro no ar naquele momento, o movimento de asas pode ter se desenvolvido antes da capacidade de voar”.
A hipótese mostra que características físicas dos dinossauros permitiam o desenvolvimento da habilidade. Mas, devido à natureza complexa e multifacetada do voo, cientistas consideram que a demonstração não é suficiente para que a pesquisa gere conclusões por conta própria. Os pesquisadores admitiram ser provável que as forças aerodinâmicas criadas pelo movimento mecânico não possam ser comparadas às forças realmente necessárias para poder voar.
Para o paleontólogo da Universidade de Palacký, na República Checa, Dennis Voeten, uma falha do estudo foi não ter levado em conta a dinâmica do ombro e a musculatura reais do Caudipteryx para construir o robô. Em vez disso, os pesquisadores substituíram as estruturas anatômicas de grande importância por molas elásticas.
Voeten considera que isso tornou “impossível visualizar qualquer comportamento esquelético que teria acompanhado esses movimentos”. Ele afirma estar “convencido” de que as forças exercidas durante a corrida podem ter influenciado o movimento das asas, mas que a origem voo dos dinossauros permanece “hipotética”.