13.898 – O Disco de Vinil


acervo vinil
Obsoleto, nada prático mas ainda utilizado, esse acervo de vinil acima caberia num único pen drive do tamanho de uma unha humana.

É uma mídia desenvolvida no final da década de 1940 para a reprodução musical, que usa um material plástico chamado vinil.
(normalmente feito de PVC), usualmente de cor preta, que registra informações de áudio, que podem ser reproduzidas através de um toca-discos.
O disco de vinil possui microssulcos ou ranhuras em forma de espiral que conduzem a agulha do toca-discos da borda externa até o centro no sentido horário. Trata-se de uma gravação analógica, mecânica. Esses sulcos são microscópicos e fazem a agulha vibrar. Essa vibração é transformada em sinal elétrico, que é posteriormente amplificado e transformado em som audível (música)
O disco de vinil surgiu no ano de 1948, tornando obsoletos os antigos discos de goma-laca de 78 rotações – RPM (rotações por minuto) – que até então eram utilizados, existentes desde 1890. Os discos de vinil são mais leves, maleáveis e resistentes a choques, quedas e manuseio (que deve ser feito sempre pelas bordas). Mas são melhores, principalmente, pela reprodução de um número maior de músicas – diferentemente dos discos antigos de 78 RPM – (ao invés de uma canção por face do disco), e, finalmente, pela sua excelência na qualidade sonora, além, é lógico, do atrativo de arte nas capas de fora.
A partir do final da década de 1980 e início da década de 1990, a invenção dos compact discs (ou CD, então lançado em agosto de 1982 na Alemanha pela Polygram) prometeu maior capacidade, durabilidade e clareza sonora, sem chiados, fazendo os discos de vinil ficarem obsoletos e desaparecerem quase por completo no fim do Século XX.
Em maio de 2002 saem nos EUA os primeiros títulos em DataPlay, lançados inicialmente por Britney Spears e NSync. Nesse mesmo ano o CD já dominava 72% do mercado mundial.
A gravação e produção do disco de vinil segue um processo mecânico complicado, do tipo analógico, que se completa em sete etapas. Apesar da complexidade, a produção de um disco não dura mais de meia hora no total.
A sonda Voyager leva consigo um disco de ouro com vários sons característicos do ser humano, sons e canções de todo o tipo de culturas; o formato escolhido foi o disco com sulcos, já que é o formato com o funcionamento mais simples de todos. Na foto vê-se a frente do disco, sendo o lado com a gravação o de trás.
Ressurreição do vinil?
Nos EUA, o comércio de vinil voltou a crescer acima de 50% em 2014. De acordo com o The Wall Street Journal, ao todo 9,2 milhões de LPs foram vendidos no ano passado, um crescimento de 53% em relação a 2013. No total, a pesquisa de Nielsen SoundScan aponta que as compras dos discos nos EUA representam 6% de todo consumo de música no país. Entre os artistas que mais venderam disco de vinil, estão: Artic Monkeys e Lorde, entre outras bandas que atraem um público mais jovem no país e no restante do mundo.
No Brasil, O LP foi lançado comercialmente em 1951, mas só começaria a suplantar o formato anterior a partir de 1958 (formato 78 RPM de 10 polegadas fabricados em goma-laca, que foram introduzidos no país em 1902 e abandonados de vez em 1964). Com o lançamento do CD em 1984, anos depois o LP começou a perder espaço (isso a partir de 1992). Em 1991 foram vendidos 28,4 milhões de LPs no Brasil. Em 1993 foram vendidos 21 milhões de CDs, 16,4 milhões de LPs e 7 milhões de fitas cassetes e em 1994 foram 14,5 milhões de LPs. O LP ainda manteve vendagens razoáveis até o final de 1995, mantendo nesse ano vendagens entre 5 e 10 milhões de cópias.
As grandes gravadoras produziram LPs até 31 de dezembro de 1997, restando apenas uma gravadora independente em Belford Roxo (a Vinilpress), vindo a falir no ano 2000 fazendo o vinil praticamente sair das prateleiras do varejo fonográfico. Apesar disso, uma pequena parte ainda foi comercializada até meados de 2001, quando começaram a popularizar mídias digitais tais como o Ipod e o Napster.

13.888 – Tecnologia na Saúde – Novo sensor de raios solares ajuda a prevenir o câncer de pele


Fonte: Veja

Cientistas americanos criaram um pequeno sensor capaz de avisar ao usuário quando os níveis de luz solar estão altos o suficiente para danificar a pele. O dispositivo – que também alerta sobre os níveis de poluição e alérgenos – é o menor dispositivo do mundo e pode ser preso a qualquer parte do corpo, roupas e acessórios.

Essa não é a primeira tecnologia a oferecer este tipo de proteção, mas o que a diferencia das demais é o seu tamanho realmente pequeno – 8 milímetros de largura, 1 milímetro de espessura e pesa 50 miligramas –, ser à prova d’água, ou seja, dá para usar na praia ou na piscina, e o preço acessível – 60 dólares (cerca de 235 reais). Segundo a L’Óreal, marca responsável pela invenção, o sensor não precisa de bateria (funciona com energia solar) e interage com smartphones para enviar ao usuário os dados captados no ambiente.
De acordo com os pesquisadores da Northwestern University, nos Estados Unidos, um dos principais objetivos do estudo foi criar uma forma de proteger as pessoas contra as ações negativas do sol sobre a pele e, assim, diminuir a incidência de câncer de pele na população. Isso porque mesmo que as pessoas estejam ciente da necessidade de adotar medidas de proteção, no dia a dia é muito difícil determinar a quantidade de radiação UV, poluição ao qual estamos expostos e que podem prejudicar a nossa saúde.
Para isso eles criaram um sensor capa de converter a luz UV em corrente elétrica, cuja magnitude indica o nível de exposição ao sol. As informações captadas são enviadas para o smartphone através de uma antena de rádio embutida no produto. O aplicativo instalado no celular recebe os dados e pode utilizá-los para fazer uma busca comparativa na internet sobre os índices UV atuais, o clima e outras condições climáticas na região. O usuário ainda pode inserir informações próprias: seu tipo de pele, quanto protetor solar passou (ou se não passou) e o estilo de roupa que está usando. “Isso permite que eles recebam uma recomendação muito específica”.
Além de rastrear a exposição geral aos raios UV, o dispositivo ainda notifica sobre o tipo de luz ultravioleta com a qual os usuários estão entrando em contato. Isso porque ele mede a exposição através da leitura dos comprimentos de onda: diferentes comprimentos estão associados a níveis de risco distintos. Os raios mais curtos, como o UVB, são os mais perigosos em termos de desenvolvimento de câncer. “Ser capaz de separar e medir separadamente a exposição a diferentes comprimentos de onda da luz é realmente importante”, ressaltou Rogers.
Testes do sensor
Os testes das capacidades do sensor foram realizados com nove voluntários brasileiros e 13 americanos. Eles utilizaram o produto em partes variadas do corpo enquanto faziam atividades recreativas no telhado, nadavam, tomavam banho ou faziam longas caminhadas. “Neste momento, as pessoas não sabem o quanto de luz UV elas realmente estão recebendo. Este dispositivo ajuda você a manter uma consciência. Para os sobreviventes de câncer de pele, também pode ser uma maneira de manter seus dermatologistas informados”, comentou Rogers.

Já para verificar a durabilidade e resistência do sensor, os pesquisadores recrutaram alguns alunos que deveriam tentar destruí-lo com qualquer método que quisessem. Os estudantes jogaram dentro de um balde com água, colocaram na máquina de lavar-louça e até mesmo tentaram esmagar o dispositivo, que sobreviveu a tudo. “Não há interruptores ou interfaces para desgastar, e [o sensor] é completamente selado com uma fina camada de plástico transparente. Achamos que durará para sempre”, comentou John Rogers, principal autor da pesquisa, ao Daily Mail.
Com o sucesso dos experimentos, a La Roche Posey (linha de luxo da L’Óreal) já disponibilizou o dispositivo para venda nos Estados Unidos.

Câncer de pele
Segundo o Instituto Nacional de Câncer (Inca), o câncer de pele é o tipo mais frequente de câncer no Brasil e corresponde a 30% de todos os tumores malignos registrados no país.A doença é mais comum em indivíduos maiores de 40 anos, principalmente com pele clara, sensível à ação dos raios solares.
A doença se manifesta em duas formas principais: o carcinoma basocelular, mais frequente e com maior chance de cura já que geralmente apresenta menos metástase (quando o câncer se espalha para outras partes do organismo), e o carcinoma epidermoide ou espinocelular, câncer de pele mais agressivo que aparece nas regiões do corpo com maior exposição ao sol, como rosto, cabeça, pescoço, braços mãos e pés. O carcinoma epidermoide pode dar origem a metástases nos pulmões, colo do útero e na mucosa da boca.
A exposição excessiva ao sol também pode causar o envelhecimento da pele (fotoenvelhecimento), que manifesta sintomas como pele ressecada (craquelada), áspera e manchada; além de deixar as rugas mais profundas e evidentes.

cancer de pele

13.883 – Automóvel – Os 10 carros mais vendidos de todos os tempos no Brasil


Dentre os diversos modelos de automóveis que são lançados anualmente no Brasil, alguns sempre se destacam e viram um sucesso de vendas. Este fator, por ir além das expectativas das montadoras, faz com que nos anos seguintes estes modelos voltem a liderar o ranking com seus modelos atualizados.
Seja um carro compacto, um sedan ou até mesmo um carro para maior número de passageiros, alguns destes veículos fazem tanto sucesso que acabam por se tornarem ícones da indústria automobilística até mesmo anos após suas produções se encerrarem.
1º lugar: Volkswagen Gol

gol
Comercializado pela montadora alemã Volkswagen, o Gol teve sua produção iniciada em 1980 e hoje é o modelo mais exportado do Brasil, abrangendo mais de 50 países. Atualmente o Gol atinge a marca de mais de 6 milhões de unidades vendidas, e este número só tende a aumentar, visto que a cada ano é lançado um novo modelo.

2º lugar: Fiat Uno

uno
Modelo compacto e econômico, o Uno foi inicialmente lançado na década de 1980 na Europa. Seu preço reduzido ajudou a colocá-lo no segundo lugar do ranking atual dos mais vendidos com mais de 3 milhões de unidades comercializadas. Em 2010 foi lançado o novo Uno que tem se atualizado anualmente com novas atualizações.

3º lugar: Volkswagen Fusca

fusca
Com certeza um dos mais clássicos dessa lista é o Fusca, o primeiro automóvel da Volkswagen. Sua produção teve início em 1938, vindo para o Brasil na década de 1950 e encerrando sua produção em 1996, atingindo 3 milhões de unidades vendidas.

4º lugar: Fiat Palio

palio
Modelo compacto e de muito sucesso, o Palio foi lançado em 1996 ganhando preferência no mercado ao longo dos anos e passando por algumas modificações. Atualmente ocupa o quarto lugar entre os mais vendidos no Brasil, com cerca de 2,5 milhões de unidades comercializadas.

5º lugar: Chevrolet Celta
Lançado no ano 2000 como um carro popular, o Celta entrou no mercado para competir com modelos como Ford Ka, Fiat Uno, Gol e Palio. Teve grande retorno em vendas ao longo dos anos e atualmente já foram vendidos 1,7 milhões de unidades.

6º lugar: Chevrolet Chevette
Outro modelo clássico é o Chevette. Ele teve sua produção iniciada em no Brasil em 1973, encerrando em 1993. Ao longo dos anos ganhou fama e teve algumas variações como a picape Chevy 500. O Chevette entra na lista dos mais vendidos com 1,6 milhões de unidades comercializadas.
7º lugar: Chevrolet Classic (Corsa)
Modelo sedan de quadro portas da Chevrolet, o Classic é basicamente uma modificação do Corsa Sedan. A fim de diferenciá-los, passou a se chamar Corsa Classic ou apenas Classic. Suas vendas no Brasil são de aproximadamente 1,5 milhões de unidades até a atualidade.

8º lugar: Volkswagen Kombi
A Kombi também entra na lista dos clássicos mais vendidos, como o Fusca e o Chevette. A produção no Brasil teve início na metade do século 1950 e foi até o ano de 2013. Na classe de vans, a Kombi lidera como o automóvel mais vendido e, dentre os demais, aparece em oitavo lugar, com 1,5 milhões de unidades vendidas.

9º lugar: Ford Corcel

corcel
Modelo fabricado pela montadora Fiat, o Corcel foi comercializado no Brasil de 1968 a 1986. Durante os dezoito anos de produção teve diversos modelos como o Corcel GT, Corcel Bino e GTXP. Entra na lista dos mais vendidos com 1,3 milhões de unidades vendidas.

10º lugar: Ford Fiesta
Produzido pela Ford deste 1976, o Fiesta só chegou ao Brasil na metade dos anos 1990. Ele se destaca mundialmente como um dos modelos mais vendidos da Ford. Atualmente são 1,2 milhões de unidades comercializadas no Brasil.

13.882 – Museu do Automóvel – O Karmann-Ghia


Karmann-Ghia
Foi um automóvel esportivo produzido pela Volkswagen, projetado pela empresa italiana Carrozzeria Ghia, e construído pela empresa alemã Karmann. Foi produzido inicialmente na Alemanha, e mais tarde também no Brasil. Cerca de 445.000 Karmann-Ghias foram produzidos entre 1955 e 1975.
No início dos anos 1950 a Volkswagen produzia apenas o Fusca e a Kombi, típicos carros pós-guerra: resistentes, sóbrios e baratos. O mundo entretanto já se recuperava da Segunda Guerra Mundial, e a demanda por carros mais elegantes e luxuosos aumentava. A Volkswagen acabara de sair do controle britânico (1949), e de certa forma já se aventurara timidamente neste mercado, com a versão conversível do Fusca. Entretanto a gerência da Volkswagen ainda considerava a possibilidade de oferecer um carro que levantasse a imagem da firma, atendendo plenamente a esse mercado.
O projeto inicial apresentado pela Karmann não agradou muito aos executivos da VW. Buscando satisfazer um cliente tão importante, a Karmann procurou ajuda no mais renomado estúdio de design do mundo: o Estúdio Ghia. Segundo relatos não oficiais, Luigi Segre, responsável pelo renomado estúdio, teria apresentou a Wilhelm Karmann um desenho não utilizado pela Chrysler, o coupé Chrysler Guia Special.
Segundo o acordo fechado entre as empresas, o carro seria vendido pela Volkswagen mas produzido pela Karmann sobre a plataforma do Fusca/Carocha (alargada em 30 cm, e no total o carro seria 12 cm mais longo). Após testes suplementares e refinamentos no projeto, o ferramental foi encomendado, e em julho de 1955 o coupe Volkswagen foi apresentado a imprensa. Entretanto o carro ainda não tinha nome, apenas o código “Typ 14”. Após considerar alguns nomes italianos para o carro, o nome Karmann-Ghia foi escolhido, refletindo o exotismo do carro e a participação das várias empresas em seu projeto.

Produção
A carroceria era feita à mão, num processo consideravelmente mais caro do que a linha de montagem utilizada pelo Fusca/Carocha. Isto se refletiu no preço do carro, quase 1000 dólares mais caro. Ao invés de paralamas aparafusados como o do Fusca/Carocha, os painéis da carroceria eram feitos à mão, com uma liga especial e soldagem em linha. Na época apenas os carros mais luxuosos eram construídos assim, refletindo desejo da Volkswagen em alavancar sua imagem com o carro.
Devido aos compromissos com o design, o espaço interno não era dos melhores, com pouco espaço para as pernas na frente, e pouca altura entre o banco de trás e o teto. Entretanto o interior era mais refinado que o do Fusca/Carocha, com um painel protuberante, volante branco com dois raios e relógio. Havia um pequeno bagageiro atrás do banco traseiro, complementando o diminuto compartimento dianteiro.
Por utilizar a mesma plataforma do Fusca/Carocha, o Karmann-Ghia herdou dele todas as configurações mecânicas, como suspensão, caixa de velocidade e freios a tambor. Utilizando o mesmo motor do Fusca/Carocha, o Karmann-Ghia não oferecia um desempenho exatamente esportivo. Mesmo acompanhando a evolução dos motores do Fusca ao longo de sua produção (1500cc e 1600cc), o carro contava mais com o estilo e a confiabilidade da mecânica Volkswagen para garantir suas vendas.
Em agosto de 1957 uma versão conversível foi apresentada, resolvendo o problema do banco traseiro (ao menos com a capota abaixada) e aumentando ainda mais o apelo do carro.
Os planos de crescimento da empresa no Brasil fizeram com que a VW resolvesse produzi-lo localmente. Em 1960 a Karmann abriu uma fábrica em São Bernardo do Campo, São Paulo, e em 1962 o primeiro Karmann-Ghia brasileiro saiu da linha de montagem, muito semelhante ao modelo vendido no mercado europeu.
Em 1967 a motorização inicial de 1200cc e 36 cavalos foi substituída pelo motor 1500cc, de 44 cavalos, conferindo um pouco mais de “esportividade” ao modelo, e levando-o, segundo a fábrica, aos 138 km/h de velocidade máxima. Assim o desempenho ficava um pouco mais condizente com o aspecto, pelo menos para os padrões da época.
Além disso, o sistema elétrico passou de 6V para 12V, e o desenho das lanternas traseiras foi modificado.
No final de 1967 foi lançado o Karmann-Ghia conversível, que atualmente é um dos modelos brasileiros mais raros e valorizados. Foram produzidas apenas 177 unidades.
Em meados de 1969 ocorreu o aumento da bitola traseira e do corte dos paralamas traseiros, o que deixou a roda traseira mais visível.
Em 1970 o Karmann-Ghia ganhou o novo motor 1600cc de 50 cv – que tinha um torque maior. Agora eram 10,8 kgfm a 2800 rpm, contra 10,2 kgfm a 2600 rpm do antigo 1500, que respondiam por mais força em arrancadas e retomadas. O sistema de freios foi substituído por freios a discos na dianteira e o modelo dos parachoques passou a ser uma única lâmina com dois batentes com protetores de borracha. Também nesse ano foi lançada a versão TC, com inspiração nos modelos Porsche. Esta reformulação na linha do Karmann-Ghia não foi suficiente para dar sobrevida aos modelos. Em 1971 a Volkswagen do Brasil decidiu tirar de linha o modelo tradicional e em 1972 foi a vez da versão TC ter a produção encerrada. O modelo europeu ainda seria fabricado até 1974.
Até ser substituído pelo VW-Porsche 914, era o mais caro e luxuoso carro de passeio da VW. Na década de 1960 podia-se comprar dois Fuscas pelo preço de um Typ 34 em muitos países. Seu relativo alto preço significou uma demanda baixa, e apenas 42.505 (mas 17 protótipos conversíveis) foram construídos em todo período em linha do modelo, entre 1961 e 1969 (cerca de 5.000 por ano). Hoje o Typ 34 é considerado um item de colecionador semi-raro.
Embora o Typ 34 tenha sido vendido em muitos países, nunca foi oficialmente comercializado nos Estados Unidos – o principal mercado de exportação da VW – outra razão para seu baixo número de vendas. Muitos ainda assim chegaram aos Estados Unidos, principalmente via Canada, e os Estados Unidos possuem o maior número de Typ 34 restantes no mundo (400 do total de cerca de 1.500 ou 2.000 sobreviventes).
A fábrica preparou um novo modelo para apresentar no Salão do Automóvel de 1970, o Karmann-Ghia TC (Touring Coupê). Apesar de manter vários vínculos estéticos com o seu antecessor, o TC era basicamente um novo carro, destinado a outro nicho do mercado (mais caro). Ao invés da plataforma do sedan, o TC baseava-se na plataforma do TL (seguindo um exemplo do Typ 34). A sua traseira fastback e detalhes dos faróis e pará-lamas o faziam assemelhar-se muito ao Porsche 911 (principalmente o protótipo 695).
A adoção de freios a disco nas rodas dianteiras e um baixo centro de gravidade contribuiam para o apelo esportivo que a montadora queria do modelo. Mesmo o motor sendo um 1600, como nos últimos Karmann-Ghias, no TC vinha com o mesmo acerto da motorização que equipou o “Super-Fuscão”: quatro cilindros contrapostos, quatro tempos, traseiro, diâmetro e curso do cilindro de 85,5 x 69 mm; 1584 cc, taxa de compressão de 7,2:1; potência máxima de 65HP SAE a 4600 rpm; torque máximo de 12 mkg SAE a 3000 rpm; sistema de alimentação com dois carburadores de corpo simples, de aspiração descendente. Como resultado a Volkswagen anunciava que seu novo esportivo era capaz de atingir 145 km/h.
O TC era uma proposta inovadora no inexplorado mercado de esportivos brasileiros. Entretanto, a qualidade de sua construção não era tão boa quanto o modelo anterior: logo após seu lançamento, os consumidores começaram a reparar na facilidade de corrosão do carro (principalmente em torno da grade dianteira).

TC azul

tc

13.854 – Falha do WhatsApp impede verificação de novos números no aplicativo


O WhatsApp apresentou uma instabilidade em um serviço importante. O aplicativo se tornou incapaz de fazer a verificação de números de telefones, o que significa que usuários que estavam fazendo seu primeiro cadastro, trocando de número telefônico ou simplesmente reinstalando o aplicativo não conseguiam concluir o processo.
Em nossos testes, o WhatsApp foi, de fato, incapaz de fazer a verificação de um número de telefone e o cadastro, como esperado, falhou. O Down Detector também confirmou um pico de reclamações em várias partes do mundo, indicando que o problema não é restrito a uma região específica.
Quando os usuários tentam realizar o procedimento, eles são presenteados com uma mensagem de erro que o WhatsApp está temporariamente indisponível. O alerta também pede para que o usuário tente realizar o procedimento novamente em cinco minutos.

falha whats

13.853 – Mega Byte – A polêmica do uso da Inteligência artificial para contratar pessoas


inteligencia-artificial-history-channel
A inteligência artificial (ou apenas IA) é uma das tecnologias que está sendo mais explorada atualmente. Há tempos já é utilizada para nos enviar propaganda direcionadas enquanto navegamos pela web, mas isso foi só o início. Agora, ela está sendo utilizada por grandes empresas no departamento de recursos humanos, para selecionar currículos e contratar pessoas.
Para fazer isso, o sistema de IA é muito sofisticado. O computador pré-seleciona os currículos e sabe quando mentimos pelos adjetivos, verbos e substantivos usados ou, ainda, pela linguagem corporal dos vídeos de apresentação que estão cada vez mais populares.
A Uber, por exemplo, está testando, nos Estados Unidos, um aplicativo para contratar funcionários temporários, chamado Uber Works. O programa, além de contratar serviços de ciclistas para entregas, também destina-se a oferecer mão de obra em serviços como encanadores, empregadas domésticas, vigilantes, comércio e outras dezenas de setores. A empresa vai utilizar o sistema de inteligência artificial para selecionar quais usuários (e candidatos) estão mais aptos a fazer parte da lista de serviços oferecidos.
As empresas olham essa nova tecnologia como uma oportunidade de complementar as técnicas já utilizadas em RH, mas os sindicatos estão rejeitando, pois acreditam que ela pode tornar o mercado de trabalho ainda mais precário.
Profissionais de RH, como Rafael García Gallardo, CEO da LMS (Leadership & Management School), residente em Madri, Espanha, preferem ter uma visão mais positiva. Gallardo diz que “o uso de big data (grande volume e variedade de dados processados em alta velocidade) está cada vez mais acessível e todos os gerentes de recursos humanos podem incorporá-lo em sua tomada de decisão”. E completa: “um sistema de IA pode otimizar e melhorar o ativo mais importante de qualquer empresa, que são as pessoas. E isso as torna mais competitivas”.

Uma oportunidade?
Gallardo defende que apps como o Uber Works podem ser uma tecnologia para colocar as pessoas mais rapidamente no mercado de trabalho, quando não encontram emprego de outra forma. “O celular é uma ferramenta que traz informação e fornece acesso à avaliação feita por trabalhos realizados”, completa Gallardo.
Também para as empresas é importante porque, segundo esse especialista, o uso de inteligência artificial permite a seleção de perfis e a organização da empresa de acordo com os objetivos. Acrescenta uma única exceção: “A análise final dos dados que o sistema de inteligência artificial traz de candidatos tem ser feita por uma pessoa. A interpretação e tomada de decisão para contratar alguém deve ser feita por humanos. Se eles não interpretarem os dados, eles simplesmente mudam a história. É a coisa mais importante a ser feita”, diz ele.
Isso é mais confiável e eficaz porque, segundo ele, os computadores são capazes de discernir os perfis apropriados e aqueles que escrevem mentiras nos currículos ou também termos que não tem a ver com as vagas. Ele dá um exemplo de sua própria experiência em que 5 mil currículos foram cruzados para escolher 15 candidatos. Termos precisos que eram necessários para o cargo, como gerenciamento de documentos, organização, distribuição, publicações ou arquivamento, foram incluídos no processador de dados e a computação evitou os currículos cuja descrição de competências não incluía esses termos.

O nível de “inglês intermediário” é uma mentira para um sistema de IA
“A inteligência cognitiva descobre como são as pessoas por meio dos verbos, adjetivos ou substantivos que usam, ou pela linguagem não-verbal que é vista nos vídeos que são cada vez mais presentes em seleções “, explica Gallardo. Sobre idiomas, ele comenta ironicamente. “Não é preciso muita inteligência artificial; se alguém coloca no currículo nível médio de inglês, por exemplo, é mentira: ou a pessoa sabe falar e escrever em inglês ou não sabe.”
Mas também admite que o uso da inteligência artificial pode gerar erros, como o caso do sistema de recrutamento da Amazon que excluia mulheres, mas Gallardo alerta que deve haver sempre uma linha de responsabilidade ética e definitiva para evitar o uso indevido de qualquer tecnologia.

A exploração do trabalho
Mas alguns representantes sindicais temem que esse modelo de seleção e contratação seja aceito nas empresas sem levar em conta as implicações que tem. Sergio Santos, secretário de emprego e relações de trabalho de Andaluzia, na Espanha, não vê vantagens no aplicativo Uber Works, por exemplo, como solução de empregabilidade. “Automatizar o emprego representa uma mudança radical nas relações de trabalho, promove a superexploração, fazendo o trabalhador perder direitos”, alerta.
Ele admite que o uso de inteligência artificial na fase de triagem de perfis já é feito até mesmo em serviços públicos, mas acredita que um aplicativo como o Uber é outro passo que não acarreta qualquer benefício para o trabalhador. Nem mesmo pela empregabilidade, que ele acredita que deve ser obtida por políticas ativas que melhorem não apenas o acesso ao mercado de trabalho, mas também a estabilidade e o futuro dos trabalhadores.

Respeitar as regras do jogo
Luis Perez, diretor de Relações Institucionais da empresa especializada em recursos humanos Randstad, afirma que sua companhia investe muito nesse tipo de tecnologia. Porém, assim como Gallardo, da LMS, concorda que “sem o toque humano não atingiremos a eficiência que buscamos”, finaliza.
De qualquer forma, em um mercado de trabalho que muda em ritmo frenético, com a busca por profissionais qualificados para cada tipo de projeto, é inevitável o uso de ferramentas que agilizem o processo de contratações. No entanto, é preciso haver um acordo entre empresas e orgãos que regulamentam leis trabalhistas para evitar “atalhos” em um sistema de IA dentro do departamento de recursos humanos.
“Não se pode considerar o empregado uma mercadoria, um commodity. É inevitável resistir ao avanço tecnológico, mas,havendo um acordo trabalhista, ambas partes podem ganhar com ela”, conclui Perez.

13.791 – Internet – O Concorrente do Facebook


vero
Alguém pagaria para usar o Facebook? Pode parecer coisa de loucos, não? Um grupo de empreendedores entendeu que ainda existe uma lacuna no segmento das redes sociais, dando origem ao Vero, o último fenômeno do momento. O novo aplicativo – disponível para iPhone e Android – teve uma estreia avassaladora e seus servidores quase não conseguem atender à enxurrada de inscrições e de conteúdo que seus primeiros usuários se esforçam em gerar. Mas… o que é o Vero exatamente? Se tivéssemos de explicar usando redes já conhecidas, é um híbrido a meio caminho entre o Instagram e o Facebook que tem um mural no qual o usuário pode subir fotos, lugares, recomendar livros ou filmes.
Os usuários do Vero podem compartilhar conteúdo e esperar curtidas ou comentários, nada realmente diferente do que vimos até agora nas redes predominantes, mas, no entanto, o recém-chegado tornou-se uma tendência em tempo recorde e, como ressaltamos, seus servidores não conseguem dar conta da enxurrada de novas inscrições e conteúdo que estão recebendo. Na verdade, o Vero está se beneficiando de uma publicidade para multiplicar seus usuários no lançamento: o primeiro milhão de inscritos poderá usar a rede de forma completamente gratuita por toda a vida. Claro, quem consideraria pagar para usar uma rede social… Nesse serviço não apenas está se considerando isso, mas seu modelo de negócio se baseia exatamente nisso, na assinatura de usuários.
O que seus criadores propõem é manter uma plataforma completamente livre de publicidade e algoritmos que alteram o conteúdo, na qual a privacidade do usuário seja a maior prioridade. No Vero, o dono do perfil deixa de ser o produto, é o modelo de negócio exatamente oposto ao do Facebook ou do Google, empresas em que o usuário está no alvo e é o centro da monetização. O difícil equilíbrio entre valor agregado e privacidade poderia estar começando a trazer consequências ao produto de Mark Zuckerberg, que está vendo como o tempo de permanência de seus usuários é cada vez menor, por um lado, e como as autoridades começam a tomar uma atitude.
O valor da assinatura anual ainda não foi definido, mas espera-se que seja um montante acessível a todos e semelhante ao de outros modelos de assinatura aos quais já estamos acostumados. Valerá a pena pagar e o projeto seguirá em frente? O Vero oferece uma nova experiência em que todos os tipos de atividades podem ser aglutinados (inclusive links para artigos) em uma interface muito limpa e fácil de usar.
No papel e tendo em vista o grande número de inscrições, parece que pode funcionar, mas o projeto ainda enfrenta dois grandes monstros. O primeiro, vivido por projetos semelhantes como Peach e Ello, que tiveram começos fulgurantes e hoje ninguém mais se lembra deles. O segundo grande obstáculo a superar é o da solvência: manter uma rede dessas características exige muito capital e conhecimento, e por enquanto o serviço não consegue dar conta das novas inscrições, sendo críticas as primeiras horas. O Vero pode sobreviver, mas como ferramenta de nicho e para um perfil seleto de usuários, e isso também não seria nada mau.

13.784 – As origens e as guerras do Anonymous, o grupo hacker mais poderoso do mundo


anonymous
O grupo hacker mais famoso de todos os tempos deu seus primeiros passos dentro do 4chan, um site com fóruns de discussão sobre qualquer assunto, até hoje em funcionamento. Em meados de 2003, os usuários que não se identificavam nos debates tinham suas mensagens postadas com uma simples assinatura: anonymous. Não demorou para que surgisse a ideia de criar uma identidade que unificasse anônimos em torno de uma só representação.
“Logo de início, o primeiro agrupamento reuniu hackers, artistas e ativistas. O modo de agir dos primeiros anons [como ficaram conhecidos] se espalhou rapidamente”, analisa Sergio Amadeu da Silveira, doutor em sociologia e pesquisador em tecnologia da informação e ativismo hacker na Universidade Federal do ABC (UFABC). No início, os anons agiam por pura diversão. Invadiam plataformas de jogos infantis para incomodar crianças e zombavam de internautas em sites de relacionamento. Aos poucos, a zoeira foi dando lugar a ações de engajamento.
Foi somente depois de algumas intervenções em nome da liberdade na rede que os anons ganharam status de hacktivistas libertários e de ciberativistas. A primeira delas, uma espécie de declaração de guerra contra a Cientologia, aconteceu em 2008.
Tudo começou quando um vídeo do ator Tom Cruise (membro da Cientologia) vazou na internet. O material, repleto de frases um tanto inusitadas, virou motivo de chacota internacional. A certa altura, ele chega a dizer, com ares de superioridade, que cientologistas estariam acima de pessoas comuns, pois são capazes de evitar que “coisas ruins aconteçam”. O vídeo bombou na rede até que, ameaçando processar quem divulgasse o material, os advogados da Cientologia conseguiram derrubar praticamente todos os links de acesso. A turma do 4chan, no entanto, não gostou nada da ideia de censura.
Nos fóruns de discussão, diversos anons começaram a agitar os demais participantes, pregando que a Cientologia não permitia a liberdade na internet. Os hackers se organizaram para subir o vídeo em diversos websites. Cada nova postagem, no entanto, era prontamente derrubada por alguma ordem judicial encabeçada pelos cientologistas. “Então esse vídeo que eles tentavam tanto suprimir foi parar em todos os lugares. Para onde quer que você olhasse na internet, dava de cara com isso”, afirma um membro do grupo em entrevista ao documentário We Are Legion, de Brian Knappenberger (disponível na Netflix). O documentarista também dirigiu O Menino da Internet, sobre Aaron Swartz, hacker americano que cometeu suicídio depois de ser processado pelas autoridades americanas. Como forma de resistência ao poder da Cientologia, os hackers multiplicavam os locais em que os vídeos eram postados, como o YouTube e a rede TOR.
A igreja não imaginava como seria lutar contra uma legião anônima. Naquelas semanas, cerca de cem cidades, principalmente nos Estados Unidos e no Reino Unido, registraram protestos contra a Cientologia. Como resposta, a instituição tentava desqualificar o movimento, chamando os anonsde ciberterroristas. Enquanto isso, o Anonymous crescia ao se posicionar como um exército capaz de ir contra a censura, tanto no mundo real quanto no virtual. Propondo transparência e liberdade, o grupo passou a ser exaltado na internet.

Caóticos e ilegais
Depois que uma passeata neonazista em Charlottesville resultou na morte de uma mulher, em 13 de agosto de 2017, o Anonymous postou um vídeo recriminando discursos de ódio. Os anons são conhecidos por acumular em seus currículos atos em defesa dos direitos civis e das liberdades individuais. Eles ajudaram a burlar a censura durante a Primavera Árabe (a onda de protestos e manifestações que tomaram conta do Oriente Médio e do norte da África no fim de 2010). Além disso, apoiaram pela internet a população que derrubou o governo ditatorial de Zine El Abidine Ben Ali, na Tunísia.
Ainda que não estivessem ligados diretamente à formação do WikiLeaks, eles prestaram apoio quando os serviços de pagamentos online Amazon, PayPal e Mastercard barraram doações às contas do projeto, em 2010. Na chamada Operação Payback, os hacktivistas se uniram e mostraram que os mesmos sites aceitavam doações direcionadas a grupos neonazistas. Eles iniciaram um ataque DDoS (Distributed Denial of Service, ou ataque de negação de serviço, em que um servidor é sobrecarregado a ponto de sair do ar) que resultou, após três dias, num prejuízo de US$ 150 milhões às empresas. Mas há outro lado.
O Anonymous também tem fama de realizar ataques vingativos e até infantis. Como o grupo não tem uma única liderança, é inevitável que muitas ações saiam do controle. Descontentes com a fama de bons moços após o episódio da Cientologia, alguns anons fizeram “pegadinhas” na internet, invadindo um site de apoio à epilepsia e postando links com GIFs multicoloridos. Para alguns epilépticos, a alternância de cores causa tonturas, enxaquecas e convulsões. Veio à tona um enorme debate: enquanto algumas pessoas transferiam a culpa aos donos dos sites, que não utilizavam nenhum tipo de proteção, outros apontavam a Cientologia como verdadeira causadora dos ataques.

O rosto da dissidência
Nas passeatas promovidas pelos Anonymous, simpatizantes e integrantes do movimento saíam às ruas em defesa da liberdade de expressão. Para manter sigilo, a maioria escolheu utilizar a máscara de V, personagem defensor da liberdade do filme V de Vingança. O herói é inspirado na figura de Guy Fawkes, um soldado inglês que acabou morto por participar da Conspiração da Pólvora, contra o rei Jaime 1o, na Inglaterra do começo do século 17. Com membros de classes financeiras e grupos sociais variados, o Anonymous não obedece a uma única direção. O 4chan, por exemplo, se transformou num reduto da ultradireita, mantendo pouco ou nenhum vínculo com o grupo. “O Anonymous é um modo de ação em rede que pode ser apropriado por coletivos de diferentes ideologias, desde que permaneçam anônimos em suas ações”, explica Amadeu.
No Brasil, a marca cresceu sob à luz dos protestos de 2013, quando mais de 140 páginas no Facebook utilizavam variações como Anonymous Br e Anonymous SP. Grupos e fóruns de discussão, a exemplo do Mafia Anonymous e do Anonymous GhostSec, são exemplos do que ainda é possível encontrar na rede social. Mas, como o Anonymous não possui uma estrutura organizada, é impossível definir quantas dessas páginas contavam com “filiados” brasileiros e quantas se valeram do nome só para tentar aparecer.
Com 1 milhão de seguidores, a página AnonymousBr4sil demonstrou seu apoio a movimentos conservadores – e acabou sendo atacada por outros coletivos do grupo no país. Na visão de Sergio Amadeu, o apoio declarado a partidos políticos no Brasil acabou desvirtuando a imagem de coletivos como o Anonymous. “A pergunta que não deixa de ser feita por hackers e ciberativistas é: por que alguém precisa ser anônimo para defender seu status quo?”

13.776 – Aproveitando a energia das estrelas


sol
Somos todos parasitas do Sol, por mais que pouca gente tenha aderido à onda dos aquecedores solares para o chuveiro. Toda a comida que você consome, toda a energia que você gasta e o mero fato de que você tem um planeta onde morar – essas coisas são dádivas da nossa estrela mãe. Dá para fazer muita coisa com esse uso secundário da energia solar, como podemos comprovar simplesmente olhando para o mundo ao nosso redor. Mas que tal se a gente fosse direto à fonte? E se a nossa espécie usasse o Sol e/ou outras estrelas galáxia afora como gigantescas tomadas?
A ideia pertence à fronteira entre a ficção e a pesquisa de verdade, mas foi proposta pela primeira vez numa das mais importantes revistas científicas do mundo, a americana Science, há 50 anos. Seu principal mentor, o físico e matemático britânico Freeman Dyson, empresta seu nome ao conceito, que é conhecido como “esfera Dyson”.
Na publicação original, feita nas páginas da Science, Dyson partiu de um raciocínio simples: ao longo da história, a humanidade tem aumentado exponencialmente seu consumo de energia, da queima de poucas toneladas de gravetos por ano na Pré-História à construção de gigantescas usinas elétricas no século 20. Ora, se os seres humanos realmente se espalharem pelo sistema solar e pelos sistemas estelares vizinhos no futuro, vão precisar de quantidades ainda mais alucinadas de energia para sobreviver. Portanto, nada melhor do que organizar sistemas que captem diretamente a radiação estelar para o nosso uso.

Casca, bolha ou enxame?
O ponto em comum em todas as variantes já imaginadas é o uso de um grande conjunto de painéis solares, voltados na direção da estrela-tomada, os quais, de preferência, cobririam a totalidade, ou pelo menos a maior parte, do astro. Fora isso, o desacordo impera entre os teóricos.
O que parece quase certo é que seria absurdamente complicado construir uma esfera sólida em torno da coitada da estrela. O problema não é nem o calor, já que os proponentes dessa versão falam numa casca com raio de 1 UA (uma unidade astronômica, ou seja, a distância atual entre a Terra e o Sol). O que acontece é que uma estrutura desse naipe não teria interação gravitacional significativa com a estrela em seu interior – ou seja, precisaria de motores que a mantivessem no lugar o tempo todo, senão correria o risco de trombar com o astro. Por essas e outras, acredita-se que o melhor jeito de realizar o sonho da estrela-tomada envolva o uso de um arquipélago de satélites e estações espaciais, cobertos com sofisticados coletores de energia solar. Uma vez obtida a energia, ela poderia ser transmitida de um satélite para outro, e também para pontos distantes do espaço, por meio de potentes emissões de laser, digamos. Essa versão da ideia é conhecida como “enxame de Dyson”, mas ela tem outra desvantagem séria. A interação gravitacional entre o grande número de satélites poderia levar a frequentes trombadas, difíceis de evitar. Por isso, um terceiro conceito, a “bolha de Dyson”, propõe equipar os satélites em torno da estrela com gigantescas velas (isso mesmo, como as de barcos), as quais seriam impulsionadas pelo “vento” de partículas que a estrela sopra através do espaço. Com isso, os coletores de energia ficariam sempre na mesma posição. Se você está achando Dyson doidão, saiba que ele propôs a ideia, originalmente, como forma de buscar civilizações ETs avançadas, que já teriam feito suas esferas Universo afora.

13.774 – Mega Techs – Avanços na Nanotecnologia


nanotecnologia (1)
Os nanorobôs

Pesquisadores da universidade de Berkeley, na Califórnia, criaram um tipo de semicondutor nanolaser (os chamados spasers) que promete fazer parte de novas tecnologias em alguns anos. O grande diferencial no projeto de Berkeley é que ele suporta a temperatura ambiente sem qualquer problema.
Até agora, spasers só poderiam ficar em ambientes com temperatura inferior a 250° C, o que impedia sua aplicação comercialmente. O projeto é um grande avanço para a nanotecnologia e abre portas para que o laser seja integrado em chips eletrônicos.
Isso permite que sejam criados equipamentos cada vez menores e com qualidade superior aos existentes no mercado atualmente, como sensores biométricos de alta precisão e circuitos óticos com velocidade até cem vezes maior que a atual.

13.765 – Mega Techs – História da Robótica


robotica
Documentos datados de 1495 revelam um cavaleiro mecânico que era, aparentemente, capaz de sentar-se, mexer seus braços, mover sua cabeça, bem como seu maxilar. Leonardo Da Vinci teria desenhado o primeiro robô humanóide da história. Uma onda de histórias sobre autômatos humanóides culminou com a obra Electric Man (Homem Elétrico), de Luis Senarens, em 1885. Desde então, muitos robôs surgiram, mas a maioria servia apenas como inspiração, pois eram meras obras de ficção e ainda muito pouco podia ser construído.
O Tortoise, um dos primeiros robôs móveis, foi construído em 1950 por W. Grey Walter e era capaz de seguir uma fonte de luz, desviando-se de obstáculos. Em 1956, George Devil e Joseph Engelberger abriram a primeira fábrica de robôs do mundo, a Unimation, fabricante da linha de braços manipuladores Puma (SHIROMA, 2004).

Em 1952, a Bell Laboratories alavancou o desenvolvimento da eletrônica com a invenção do transistor, que passou a ser um componente básico na construção de computadores e quebrou inúmeras restrições quanto ao desenvolvimento da Robótica. De 1958 a 1959, Robert Noyce, Jean Hoerni, Jack Kilby e Kurt Lehovec participaram do desenvolvimento do primeiro CI – sigla para Circuito Integrado – que, posteriormente, ficou conhecido como chip e incorpora, em uma única pastilha de dimensões reduzidas, várias dezenas de transistores já interligados, formando circuitos eletrônicos mais complexos (WIDESOFT, 2006).

Enquanto essas tecnologias iam entrando em cena, a Inteligência Artificial se desenvolvia com bastante velocidade também. Sua mais popular e inicial definição foi introduzida por John McCarty na famosa conferência de Dartmouth, em 1955: “Fazer a máquina comportar-se de tal forma que seja chamada inteligente, caso fosse este o comportamento de um ser humano” (INTELIGÊNCIA, 2006).

Segundo Arkin (ARKIN, 1998), para se realizar pesquisas em Robótica, robôs devem ser construídos, pois, ao trabalhar apenas com projetos de pesquisa baseados em simulações, perdem-se muitos detalhes. A construção de robôs é muito complexa e, nas décadas de 1960 e 1970, havia muitas restrições. Por causa disso, alguns robôs que surgiram nessa época são pontos notáveis da evolução cibernética. Como exemplos de projetos que superaram essas dificuldades, cita-se: Sharkey, Hillare e Stanford Cart.

Sharkey foi um robô construído no Instituto de Pesquisa de Stanford, no final dos anos 60 (NILSSON, 1969). Ele era capaz de sentir e modelar o ambiente ao seu redor, bem como planejar trajetórias e executar ações programadas no computador. Já Hillare, do Laboratório de Automação e Análise de Sistemas (LAAS) de Toulouse, França, foi construído em 1977. O robô pesava 400kg e era equipado com três rodas, um sistema de visão computacional, sensores ultra-sônicos e detectores de distância a laser. Podia movimentar-se para qualquer lado, transitando autonomamente por corredores (GIRALT et al., 1984). E, por fim, Stanford Cart, uma plataforma robótica usada por Moravec para testar a navegação usando um sistema de visão estéreo (MORAVEC, 1977).

O avanço da microeletrônica veio popularizar os sistemas computacionais e, na década de 70, começaram a surgir os sistemas de processamento central em um único chip como o 4004 e o 8080. A tecnologia MOS, em 1975, introduziu mais velocidade de processamento. Após a chegada do Z80, que surgiu em 1976, integrando 8000 transistores em uma única pastilha (MICROSISTEMAS, 2006), surgiu o conceito de microcontrolador. Os microcontroladores possuem, embutidos em um único chip, não só um sistema central de processamento, mas diversos periféricos como: memória, conversores analógico-digital, barramentos de comunicação, etc.
A partir da década de 80, a Robótica vem avançando em grande velocidade e, dentre inúmeros projetos, o ASIMO, iniciado em 1986 pela Honda Motor Company, recebe destaque (ARIK, 2006) (HONDA, 2006). Ao contrário do que possa parecer, seu nome não foi criado em homenagem ao escritor de ficção científica Isaac Asimov, mas é derivado de “Advanced Step in Innovative Mobility”. Assim como o ASIMO, o Qrio (SONY, 2006), da Sony, e o Robonaut, robô criado pela Nasa para auxiliar os astronautas da Estação Espacial Internacional na execução de atividades extraveículares, também são bastante relevantes. Os três são citados como robôs humanóides concebidos para interagir com seres humanos.

Com o projeto de exploração de Marte (NASA, 2003), a NASA construiu dois robôs geólogos, o Opportunity e o Spirit, que pousaram em Marte em 8 e 25 de julho de 2004, respectivamente. Eles foram desenvolvidos com o objetivo de enviarem imagens, analisarem rochas e crateras e procurarem sinais de existência de água no planeta vermelho. Mais tarde, o Laboratório de Inteligência Artificial do Instituto de Tecnologia de Massachusetts desenvolveu o Cog (MIT, 2006), um robô que interage com seres humanos e aprende como uma criança.
No intuito de desenvolver a Inteligência Artificial e a Robótica, surgem competições robóticas que fornecem desafios e problemas a serem resolvidos da melhor maneira a partir da combinação de várias tecnologias e metodologias. Dentre elas, a RoboCup (ROBOCUP, 2006), que teve sua primeira versão mundial em 1997, se destaca pela popularidade.

Robotica2006

13.764 – Tecnologia – A Revolução dos Microscópios


Mikroskop
Um instrumento óptico com capacidade de ampliar imagens de objetos muito pequenos graças ao seu poder de resolução. Este pode ser composto ou simples: microscópio composto tem duas ou mais lentes associadas; microscópio simples é constituído por apenas uma lente células. Acredita-se que o microscópio tenha sido inventado no final do século XVI por Hans Janssen e seu filho Zacharias, dois holandeses fabricantes de óculos.
udo indica, porém, que o primeiro a fazer observações microscópicas de materiais biológicos foi o neerlandês Antonie van Leeuwenhoek (1632 – 1723). Serve-se especialmente para os cientistas, que utilizam este instrumento para estudar e compreender os micro-organismos.
Os microscópios de Leeuwenhoek eram dotados de uma única lente, pequena e quase esférica. Nesses aparelhos ele observou detalhadamente diversos tipos de material biológico, como embriões de plantas, os glóbulos vermelhos do sangue e os espermatozoides presentes no sêmen dos animais. Foi também Leeuwenhoek quem descobriu a existência dos micróbios, como eram antigamente chamados os seres microscópicos, hoje conhecidos como micro-organismos.
Os microscópios dividem-se basicamente em duas categorias:
Microscópio ótico: funciona com um conjunto de lentes (ocular e objetiva) que ampliam a imagem transpassada por um feixe de luz que pode ser:
Microscópio de campo claro
Microscópio de fundo escuro
Microscópio de contraste de fase
Microscópio de interferência.
Microscópio eletrônico: amplia a imagem por meio de feixes de elétrons, estes dividem-se em duas categorias: Microscópio de Varredura e de Transmissão.
Há ainda os microscópios de varredura de ponta que trabalham com uma larga variedades de efeitos físicos (mecânicos, ópticos, magnéticos, elétricos).
Um tipo especial de microscópio eletrônico de varredura é por tunelamento, capaz de oferecer aumentos de até cem milhões de vezes, possibilitando até mesmo a observação da superfície de algumas macromoléculas, como é o caso do DNA.
A citologia é dependente de equipamentos que permitem toda a visualização das células humanas, pois a maioria delas são tão pequenas que não podem ser observadas sem o auxílio de instrumentos óticos de ampliação. O olho humano tem um limite de resolução de 0,2 mm. Abaixo desse valor, não é possível enxergar os objetos sem o auxilio de instrumentos, como lupas e, principalmente, o microscópio.
O crédito da invenção do microscópio é discutível, mas sabe-se que em 1590 os irmãos neerlandeses Franz, Johan e Zacarias Janssen compuseram um artefato rudimentar munido de um sistema de lentes, que permitia a ampliação e a observação de pequenas estruturas e objetos com razoável nitidez. O aparelho foi denominado de microscópio e constituiu a principal janela da ciência para o mundo além da capacidade de resolução do olho humano.
Em 1665, o inglês Robert Hooke usou um microscópio para observar uma grande variedade de pequenos objetos, além de animais e plantas que ele mesmo representava em fiéis ilustrações. Hooke percebeu além que a casca do carvalho era formada por uma grande quantidade de alvéolos vazios, semelhantes à estrutura dos favos de uma colmeia. Naquela época, Hooke não tinha noção de que estava observando apenas contornos de células vegetais mortas. Publicou as suas descrições e ilustrações em uma obra denominada Micrographia, em que usa a designação “little boxes or cells” (pequenas caixas ou celas) para denominar os alvéolos observados, dando origem assim ao termo célula. O termo acabou tornando-se definitivo.

13.763 – Curiosidades – Por que se usa a Maquete?


maquete de estaçao
Trata-se de uma representação (completa ou parcial) em escala reduzida de um objeto, sistema ou estrutura de engenharia ou arquitetura, ou ainda, o esboço.
Uma maquete, pode ser estática, se visa analisar o aspecto físico do que está sendo modelado, ou dinâmica, se visa analisar o comportamento funcional do que está sendo modelado.
As maquetes estão presentes na história da humanidade desde a antiguidade, geralmente ligadas instalações militares defensivas, como os castelos medievais e a muralha da China. As maquetes tem sido um método importante de limitação dos gastos e dos recursos antes que um projeto fosse aprovado para construção em larga escala. Os maquetistas têm tido, portanto, um impacto considerável na história cuja dimensão nós conhecemos apenas vagamente
O filme King Kong de 1933, demonstra o uso do modelismo quanto à estrutura esquelética do modelo que representou o gorila, como também as inúmeras maquetes representando a selva habitada pelo personagem principal, evitando custo de transporte e perigos inerentes se um ambiente real fosse utilizado.
Essa técnica só tem evoluído ao longo do tempo, e hoje em dia, os personagens mais populares fazem viagens espaciais a “planetas distantes” em “naves” espaciais sofisticadas, tudo baseado em modelismo e maquetes.
Sendo as maquetes fundamentalmente “representações realistas”, uma de suas principais características é a similitude, que permite a sua aproximação com o comportamento do objeto real nos quesitos: geométrico, cinemático e dinâmico.
Por exemplo, na dinâmica dos fluidos, o coeficiente de Reynolds, assim como todas as demais dimensões importantes, precisam ser iguais entre o modelo a ser testado e o protótipo a ser fabricado para que o teste seja considerado válido.
As maquetes, podem também ser representações virtuais, como nos desenhos assistidos por computador (vulgo CAD, Computer Assisted Design), quando, então, recebem a denominação específica de maquete eletrônica.
As maquetes são, geralmente, utilizadas em projetos de planejamento urbano mostrando o visual de novas construções no contexto da área existente.
As maquetes podem ser feitas com uma grande diversidade de materiais, incluindo plásticos, metais, madeira e um material próprio chamado cartão de maquete. Em diversos lugares, há museus com exposições de maquetes.

13.750 – Mega Byte – Quando surgiu o youtube?


you tube
A palavra “youtube” foi feita a partir de dois termos da língua inglesa: “you”, que significa “você” e “tube”, que provêm de uma gíria que muito se aproxima de “televisão”. Em outras palavras seria a “televisão feita por você”. Essa é justamente a principal função do fenômeno da internet: permitir que os usuários carreguem, assistam e compartilhem vídeos em formato digital.
O Youtube foi criado em fevereiro de 2005, por Chad Hurley e Steve Chen, dois funcionários de uma empresa de tecnologia situada em São Francisco, EUA. O site surgiu em virtude do inconveniente que era compartilhar arquivos de vídeo, já que estes eram muito grandes, o que dificultava seu envio por e-mail.
O site permite que os usuários coloquem seus próprios vídeos na rede, sendo visualizados por qualquer pessoa no mundo inteiro. O Youtube utiliza o formato Macromedia Flash para reproduzir os conteúdos, além de permitir que usuários coloquem os vídeos em seus blogs e sites pessoais. Todo o potencial do Youtube foi reconhecido pela revista americana Time, que elegeu o site como a melhor invenção de 2006.
Devido ao grande sucesso do Youtube, em outubro de 2006, a gigante Google anunciou a compra do site pela quantia de US$1,65 bilhão, unificando os serviços do seu próprio site de compartilhamento de vídeos, Google Vídeo, ao Youtube. A principal regra do site é o não-compartilhamento de vídeos protegidos por direitos autorais, fato que na maioria das vezes não é cumprido.
Outro fato que chamou a atenção de todos foi uma determinação judicial no dia 05 de janeiro de 2007 que ordenava o bloqueio do site. Essa determinação havia sido ocasionada pelo polêmico vídeo envolvendo uma apresentadora de TV trocando carícias com seu namorado em uma praia espanhola. Isso acarretou o bloqueio de cerca de 5,5 milhões de usuários brasileiros, o que fez despertar uma onda de protestos contra a medida. No dia 09 de janeiro foi declarado que o site não deveria ser bloqueado.
Estima-se que diariamente cerca de vinte mil novos vídeos são carregados e trinta milhões são assistidos no Youtube.

13.746 – Física – Pequeno reator de fusão nuclear de empresa privada atinge temperaturas mais altas do que o Sol


reator-nuclear
Uma empresa privada localizada em Oxfordshire, Reino Unido, chamada Tokamak Energy, afirmou ter testado com sucesso um protótipo de reator de fusão nuclear. Segundo eles, o modelo atingiu temperaturas mais altas do que o Sol e possivelmente poderá começar a fornecer energia em 2030. As informações são da IFLScience.
O dispositivo foi nomeado como ST40, e é a terceira máquina do tipo que a empresa criou até agora. Segundo declaração oficial, ele foi capaz de atingir temperaturas de até 15 milhões de graus Celsius.
De acordo com o CEO da empresa, Jonathan Carling, o objetivo do projeto é tornar a energia de fusão uma realidade comercial até 2030.
Até o momento, a Tokamak Energy levantou cerca de 40 milhões de dólares para financiar o projeto. Segundo eles, a abordagem pequena utilizada até agora é fundamental para que seus objetivos sejam alcançados. O ST40, que tem o tamanho aproximado de uma van, é relativamente menor aos reatores de fusão vistos em outras partes do mundo, que normalmente são do tamanho de uma casa ou campo de futebol.
Para alcançar essas altas temperaturas, o ST40 usou o chamado merging compression, que visa liberar energia através de anéis de plasma, que colidem e produzem campos magnéticos que se “encaixam”, conhecidos como reconexão magnética.
Atualmente existem dois projetos principais para reatores de fusão nuclear, ambos com o objetivo de torcer campos magnéticos e confinar o plasma superaquecido em seu interior. Um primeiro, o tokamak, que tem a forma de uma rosquinha, usa grandes quantidades de energia para torcer o plasma, enquanto um stellarator, que tem forma de uma rosquinha torcida, consegue obter o mesmo efeito.
Utilizando um design mais compacto, a Tokamak Energy afirmou que pode obter pressões de plasma mais elevadas do que os modelos convencionais. O objetivo deles era controlar o plasma com ímãs supercondutores de alta temperatura e, eventualmente, começar a produzir energia útil.
O primeiro protótipo da empresa, o ST25, foi construído em 2013, enquanto o segundo foi produzido em 2015, na esperança de alcançar mais de 100 milhões de graus Celsius. Em 2025, eles esperam desenvolver um dispositivo de energia em escala industrial e, em 2030, esperam começar a fornecer energia à rede a partir da fusão.
O campo da fusão nuclear tem vivenciado grandes avanços nos últimos anos, com diferentes equipes sustentando plasmas de hidrogênio e hélio por diferentes períodos de tempo. Embora ainda estejamos longe de viver a base de reatores de fusão nuclear úteis, aparentemente estamos caminhando na direção certa.

13.730 – Mega Techs – Como Funciona o Bluetooth


bluetooth
Trata-se de uma tecnologia de comunicação sem fio, desenvolvida pela Ericsson em 1994 e permite a troca de dados em dispositivos. Ao que tudo indica a tecnologia chegou pra ficar e está cada vez mais difundida.
Foi batizada Bluetooth em homenagem a um antigo rei da Dinamarca e da Noruega, Harold Blatand (em inglês, Harold Bluetooth). O nome foi utilizado pela sua façanha de ter unificado as tribos norueguesas, suecas e dinamarquesas, já que a tecnologia é justamente uma forma de unificação de diferentes dispositivos. O logotipo e símbolo do Bluetooth também é baseado no nome de Harold, já que é formado pela união das runas nórdicas Hagall e Berkanan, correspondentes às iniciais do nome do rei, “H” e “B”, respectivamente.

Como funciona o Bluetooth?
O sistema utiliza uma freqüência de rádio de onda curta (2.4 GHz) para criar uma comunicação entre aparelhos habilitados. Como seu alcance é curto e só permite a comunicação entre dispositivos próximos, seu consumo de energia é bem baixo.
A comunicação do Bluetooth se dá através de uma rede chamada piconet, que só permite a conexão de até oito dispositivos. Porém, para aumentar essa quantidade, é possível sobrepor mais piconets, capacitando o aumento de conexões pelo método chamado de scatternet.
Embora já existam classes de Bluetooth com alcance de 100 metros, a maioria dos dispositivos conta com alcance de 1 a 10 metros, o que, embora seja uma desvantagem, ajuda na segurança dos usuários. Outra garantia de ambiente seguro é que, antes de efetuar trocas de dados e arquivos entre aparelhos que dispõem do Bluetooth, normalmente deve-se ativar a função através das configurações dos dispositivos.

13.728 – Atualidades – Principais Avanços Científicos


ultimos-10-avances-cientificos-y-tecnologicos-5_0
Vários avanços foram feitos na última década no que se refere à interface cérebro-máquina, abrindo caminho para ajudar pessoas com deficiências, paralisias ou que sofreram amputações a recuperar os movimentos. Em 2009, Pierpaolo Petruzziello, italiano que vive no Brasil, conseguiu controlar um braço robótico usando a própria mente, com eletrodos conectados ao sistema nervoso. Ele foi o primeiro paciente a fazer movimentos complexos com as mãos, como pegar objetos, com o pensamento.

Plutão rebaixado (2005)
Em janeiro de 2005, uma equipe coordenada pelo astrônomo Mike Brown, do Observatório Palomar, na Califórnia, descobriu o planeta anão Eris, com 27% mais massa que Plutão e bem próximo dele, numa região conhecida como cinturão de Kuiper. O achado trouxe uma consequência: no ano seguinte, a União Astronômica Internacional entendeu que a probabilidade de encontrar outros corpos rochosos gelados com aquelas dimensões na região era tão alta (como se confirmou depois), que a definição do pobre Plutão não fazia mais sentido. O resultado? Ele foi rebaixado para “planeta anão”.

Células reprogramadas (2007)
Células-tronco são a grande promessa da ciência para revolucionar a medicina, já que podem se transformar em qualquer outra célula do corpo, e não há nada igual às embrionárias nesse aspecto. Mas a utilização desse recurso envolve questões éticas. Pesquisadores apresentaram uma alternativa bastante promissora ao conseguir reprogramar células adultas de pele humana para que se tornassem capazes de se diferenciar em vários tecidos. Dois grupos independentes — um liderado por James Thomson, da Universidade de Wisconsin-Madison, nos EUA, e outro por Shinya Yamanaka, da Universidade de Kyoto, no Japão — demonstraram em 2007 a eficácia de um método que já tinha sido usado com sucesso em camundongos um ano antes. Yamanaka até recebeu o Nobel, em 2012, por suas pesquisas. Só em 2014, no entanto, é que foi feito o primeiro teste em humanos com células iPS. Uma mulher de 70 anos, no Japão, , recebeu um implante para tratar uma doença ocular que causa cegueira. Apesar dos avanços, que já tem feito cientistas recriarem tecidos de órgãos e até neurônios, ainda há um longo caminho pela frente para confirmar se as iPS são mesmo o futuro da medicina.

Água puxada para fora do ar
Pesquisadores do Insituto de Tecnologia de Massachussets e a Universidade da Califórnia em Berkeley, Estados Unidos, inventaram um dispositivo que literalmente tira a água do ar. Ele é alimentado por energia solar e usa uma estrutura de zircônio e fumarato para coletar o vapor de água. O protótipo foi capaz de puxar três quartos de água do ar em apenas 12 horas. A umidade chegou ao equivalente entre 20 e 30%.

Três planetas semelhantes à Terra
O sistema solar TRAPPIST-1 está localizado a cerca de 40 anos-luz da Terra. A NASA acabou de descobrir que este sistema tem três planetas neste sistema estelar que orbitam a zona habitável, o que poderia fornecer condições adequadas para a existência de água e vida extraterrestre.

planetas igua a terra

Célula voltaica que funciona com ácidos do estômago
Uma pequena célula voltaica que funciona com fluídos estomacais foi inventada por pesquisadores do Insituto de Tecnologia de Massachussets e da Universidade Brigham Young, nos Estados Unidos. A célula poderia alimentar sensores colocados no trato gastrointestinal durante um longo período de tempo e ser usada para monitorar sinais vitais e ajudar em tratamentos médicos.

13.726 – Me engana que eu Posto – Dietas, câncer e diabetes são os maiores alvos das fake news na saúde


Dr google

Emagrecimento, câncer e diabetes são os temas mais frequentes em notícias falsas sobre saúde no Brasil. A conclusão é de um levantamento inédito de VEJA, que avaliou quase 1000 posts campeões de compartilhamentos do Facebook publicados entre fevereiro e junho em seis páginas que são notórias divulgadoras de enganações sobre o tema. Cerca de 35% versavam sobre fake news médicas.
São elas: “Bruno Gagliasso Amor e Fé” (que não qualquer tem relação nenhuma com o ator da Globo ou foi tirada do ar nas últimas semanas), “Cura Pela Natureza”, “Cura Verde”, “Milagre da Natureza”, “Natureza & Saúde” e “Saúde e Bem-Estar”.
Cerca de 26,4% dos posts traziam notícias sobre obesidade e emagrecimento; 12% a respeito de câncer; 8%, diabetes; 4,5%, gordura no fígado; 3,6% infecção urinária; 2,7% artrite ou dores nas articulações.
Os dados estão em reportagem de capa da revista Veja, uma das revistas de maior circulação pelo Brasil.
O texto mostra como a curandeirice digital representa uma ameaça à saúde pública, prejudica pacientes, preocupa governos e enche de dúvidas os consultórios médicos.
Mais: representam um desafio para campanhas de vacinação, em meio à ameaça da volta da poliomielite. Além disso, confira onde procurar informações confiáveis e tirar suas dúvidas sobre o que pode ser uma fraude.

Fake news

13.720 – Acredite se Quiser – Chegaram os Robôs Sexuais


ela é um robo
As companhias norte-americanas True Companion e Real Doll criaram robôs que fazem sexo e ainda têm reações quando são tocados.
Os modelos fazem pequenos movimentos e conversam com o parceiro. De acordo com o lugar onde são tocados, soltam frases como “estou tão excitada” ou “faz mais forte”.
Alguns produtos várias opções de personalidade que podem ser pré-programadas pelo usuário, desde a comportada à mais ousada.
E os orifícios do robô possuem sensores e motores que dão a sensação de uma experiência mais real.
Eles vão parecer completamente humanos – em altura, peso, temperatura corporal e nos órgãos sexuais – e vão conseguir responder ao toque e interagir durante as relações sexuais.
“O próximo grande avanço vai permitir-nos usar a tecnologia para encontros íntimos – para nos apaixonarmos, para fazermos sexo com robôs e até casar com eles”, afirmou o especialista David Levy, num artigo publicado no Daily Mail.
Empresas como a Abyss Creations já têm trazido para o mercado robôs anatomicamente corretos e com vários detalhes reais, mas o próximo passo é que vai mudar tudo, segundo Levy.

13.701 – Mega Vídeo – Projetos Futurísticos do Google


O que é futurologia?

É a tentativa de prever, com uma abordagem científica, o futuro mais ou menos remoto da humanidade, tendo como objetivo abordar os vários cenários possíveis do futuro.
Apesar de uma elevada exatidão em pontos específicos, o trabalho de um futurólogo não é indicar o que vai acontecer, mas sim o que poderá acontecer. Em futurologia os cenários e eventos são, ou não, definidos como:

possíveis,
prováveis,
desejáveis.
A futurologia busca entender o que provavelmente continuará e o que poderá plausivelmente mudar. Parte da disciplina pretende, assim, uma compreensão sistemática e com base em padrões do passado e do presente, e para determinar a probabilidade de eventos e tendências futuras.
Vejamos abaixo num vídeo alguns projetos futurísticos do gigante Google, uma das empresas que mais investem em tecnologia no mundo: