13.269 – Mega Byte – A Ciência da Computação


ciencia da computacao

“ Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio, a biologia com o microscópio, ou a química com os tubos de ensaio. A ciência não estuda ferramentas, mas o que fazemos e o que descobrimos com elas. ”

É a ciência que estuda as técnicas, metodologias e instrumentos computacionais, que automatiza processos e desenvolve soluções baseadas no uso do processamento digital. Não se restringe apenas ao estudo dos algoritmos, suas aplicações e implementação na forma de software, extrapolando para todo e qualquer conhecimento pautado no computador, que envolve também a telecomunicação, o banco de dados e as aplicações tecnológicas que possibilitam atingir o tratamento de dados de entrada e saída, de forma que se transforme em informação. Assim, a Ciência da Computação também abrange as técnicas de modelagem de dados e os protocolos de comunicação, além de princípios que abrangem outras especializações da área.
Enquanto ciência, classifica-se como ciência exata, apesar de herdar elementos da lógica filosófica aristotélica, tendo por isto um papel importante na formalização matemática de algoritmos, como forma de representar problemas decidíveis, i.e., os que são susceptíveis de redução a operações elementares básicas, capazes de serem reproduzidas através de um qualquer dispositivo mecânico/eletrônico capaz de armazenar e manipular dados. Um destes dispositivos é o computador digital, de uso generalizado, nos dias de hoje. Também de fundamental importância para a área de Ciência da Computação são as metodologias e técnicas ligadas à implementação de software que abordam a especificação, modelagem, codificação, teste e avaliação de sistemas de software.
Os estudos oriundos da Ciência da Computação podem ser aplicados em qualquer área do conhecimento humano em que seja possível definir métodos de resolução de problemas baseados em repetições previamente observadas. Avanços recentes na Ciência da Computação tem impactado fortemente a sociedade contemporânea, em particular as aplicações relacionadas às áreas de redes de computadores, Internet, Web e computação móvel que têm sido utilizadas por bilhões de pessoas ao redor do globo.

abaco

Um pouco de História
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a habitantes da Mesopotâmia, em torno de 2700–2300 a.C.. Seu uso original era desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.
No século VII a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou transformações e recursividade com tamanha sofisticação que sua gramática possuía o poder computacional teórico tal qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os logaritmos para uso computacional no século XVI, seguiu-se um período de considerável progresso na construção de ferramentas de cálculo.
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o sistema de numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o matemático persa al-Khwarizmi escreveu o livro Calculando com numerais hindus, responsável pela difusão do sistema de numeração hindu-arábico no Oriente Médio, e posteriormente na Europa. Por volta do século XII houve uma tradução do mesmo livro para o latim: Algoritmi de numero Indorum. Tais livros apresentaram novos conceitos para definir sequências de passos para completar tarefas, como aplicações de aritmética e álgebra. Por derivação do nome do matemático,actualmente usa-se o termo algoritmo.

Lógica binária
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de numeração binário. Ainda usado atualmente no processamento de todos computadores modernos, o sistema estabelece que sequências específicas de uns e zeros podem representar qualquer informação.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e matemático, utilizando o sistema binário. Em seu sistema, uns e zeros também representam conceitos como verdadeiro e falso, ligado e desligado, válido e inválido. Mais de um século depois, George Boole publicou a álgebra booleana (em 1854), com um sistema completo que permitia a construção de modelos matemáticos para o processamento computacional. Em 1801, apareceu o tear controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual buracos indicavam os uns e, áreas não furadas, indicavam os zeros. O sistema está longe de ser um computador, mas ilustrou que as máquinas poderiam ser controladas pelo sistema binário.

Foi com Charles Babbage que o computador moderno começou a ganhar forma, através de seu trabalho no engenho analítico. O equipamento descrito originalmente em 1837, mais de um século antes de seu sucessor, nunca foi construído com sucesso, mas possuía todas as funções de um computador moderno. O dispositivo de Babbage se diferenciava por ser programável, algo imprescindível para qualquer computador moderno.
Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros programas de computador em uma série de notas para o engenho analítico. Por isso, Lovelace é popularmente considerada como a primeira programadora.

Nascimento da Ciência da Computação
Antes da década de 1920, computador era um termo associado a pessoas que realizavam cálculos, geralmente liderados por físicos. Milhares de computadores eram empregados em projetos no comércio, governo e sítios de pesquisa. Após a década de 1920, a expressão máquina computacional começou a ser usada para referir-se a qualquer máquina que realize o trabalho de um profissional, especialmente aquelas de acordo com os métodos da Tese de Church-Turing.
O termo máquina computacional acabou perdendo espaço para o termo reduzido computador no final da década de 1940, com as máquinas digitais cada vez mais difundidas. Alan Turing, conhecido como pai da Ciência da Computação, inventou a Máquina de Turing, que posteriormente evoluiu para o computador moderno.
Os fundamentos matemáticos da Ciência da Computação moderna começaram a ser definidos por Kurt Gödel com seu teorema da incompletude (1931). Essa teoria mostra que existem limites no que pode ser provado ou desaprovado em um sistema formal; isso levou a trabalhos posteriores por Gödel e outros teóricos para definir e descrever tais sistemas formais, incluindo conceitos como recursividade e cálculo lambda.
Em 1936 Alan Turing e Alonzo Church independentemente, e também juntos, introduziram a formalização de um algoritmo, definindo os limites do que pode ser computador e um modelo puramente mecânico para a computação. Tais tópicos são abordados no que atualmente chama-se Tese de Church-Turing, uma hipótese sobre a natureza de dispositivos mecânicos de cálculo. Essa tese define que qualquer cálculo possível pode ser realizado por um algoritmo sendo executado em um computador, desde que haja tempo e armazenamento suficiente para tal.
Turing também incluiu na tese uma descrição da Máquina de Turing, que possui uma fita de tamanho infinito e um cabeçote para leitura e escrita que move-se pela fita. Devido ao seu caráter infinito, tal máquina não pode ser construída, mas tal modelo pode simular a computação de qualquer algoritmo executado em um computador moderno. Turing é bastante importante para a Ciência da Computação, tanto que seu nome é usado para o Prêmio Turing e o teste de Turing. Ele contribuiu para a quebra do código da Alemanha pela Grã-Bretanha[3] na Segunda Guerra Mundial, e continuou a projetar computadores e programas de computador pela década de 1940; cometeu suicídio em 1954.
Até a década de 1930, engenheiros eletricistas podiam construir circuitos eletrônicos para resolver problemas lógicos e matemáticos, mas a maioria o fazia sem qualquer processo, de forma particular, sem rigor teórico para tal. Isso mudou com a tese de mestrado de Claude Shannon de 1937, A Symbolic Analysis of Relay and Switching Circuits. Enquanto tomava aulas de Filosofia, Shannon foi exposto ao trabalho de George Boole, e percebeu que poderia aplicar esse aprendizado em conjuntos eletro-mecânicos para resolver problemas. Shannon desenvolveu a teoria da informação no artigo de 1948: A Mathematical Theory of Communication , cujo conteúdo serve como fundamento para áreas como compressão de dados e criptografia.
Apesar de sua pequena história enquanto uma disciplina acadêmica, a Ciência da Computação deu origem a diversas contribuições fundamentais para a ciência e para a sociedade. Esta ciência foi responsável pela definição formal de computação e computabilidade, e pela prova da existência de problemas insolúveis ou intratáveis computacionalmente.
Também foi possível a construção e formalização do conceito de linguagem de computador, sobretudo linguagem de programação, uma ferramenta para a expressão precisa de informação metodológica flexível o suficiente para ser representada em diversos níveis de abstração.
Para outros campos científicos e para a sociedade de forma geral, a Ciência da Computação forneceu suporte para a Revolução Digital, dando origem a Era da Informação.
A computação científica é uma área da computação que permite o avanço de estudos como o mapeamento do genoma humano (ver Projeto Genoma Humano).

Blaise Pascal, desenvolveu a calculadora mecânica e tem seu nome em uma linguagem de programação;
Charles Babbage, projetou um computador mecânico, a máquina analítica;
Ada Lovelace, considerada a primeira pessoa programadora, deu nome à uma linguagem de programação;
Alan Turing, participou do projeto Colossus e foi um dos cérebros que decifra a Enigma. Também inventou um tipo teórico de máquina super-simples capaz de realizar qualquer cálculo de um computador digital, a Máquina de Turing
John von Neumann, descreveu o computador que utiliza um programa armazenado em memória, a Arquitetura de von Neumann, que é a base da arquitetura dos computadores atuais
John Backus, líder da equipe que criou o Fortran e criou a notação BNF
Maurice Vicent. Wilkes, inventor do somador binário
Howard Aiken, inventor do Mark I
Walter H. Brattain, inventor do transístor
William Shockley, inventor do transístor
John Bardeen, inventor do transístor
Fred Williams, inventor da memória RAM
Tom Kilburn, inventor da memória RAM
Konrad Zuse, inventor independente do computador digital e de linguagens de programação na Alemanha nazista
John Atanasoff, inventor do primeiro computador digital, o Atanasoff–Berry Computer, ABC
Clifford Berry, assistente de Atanasoff
Almirante Grace Hopper, programadora do Mark I, desenvolveu o primeiro compilador; primeira mulher a receber um Ph.D. em matemática
Edsger Dijkstra, líder do ALGOL 60, publicou o artigo original sobre programação estruturada
J. Presper Eckert, criador do ENIAC
John William Mauchly, criador do ENIAC

Abrange
Arquitetura de computadores — o desenvolvimento, a organização, a otimização e a verificação de sistemas computacionais
Computação distribuída — computação sendo executada em diversos dispositivos interligados por uma rede, todos com o mesmo objetivo comum
Computação paralela — computação sendo executada em diferentes tarefas; geralmente concorrentes entre si na utilização de recursos
Computação quântica — representação e manipulação de dados usando as propriedades quânticas das partículas e a mecânica quântica
Sistemas operacionais — sistemas para o gerenciamento de programas de computador e para a abstração da máquina, fornecendo base para um sistema utilizável
Por ser uma disciplina recente, existem várias definições alternativas para a Ciência da Computação. Ela pode ser vista como uma forma de ciência, uma forma de matemática ou uma nova disciplina que não pode ser categorizada seguindo os modelos atuais. Várias pessoas que estudam a Ciência da Computação o fazem para tornarem-se programadores, levando alguns a acreditarem que seu estudo é sobre o software e a programação. Apesar disso, a maioria dos cientistas da computaçao são interessados na inovação ou em aspectos teóricos que vão muito além de somente a programação, mais relacionados com a computabilidade.
Apesar do nome, muito da Ciência da Computação não envolve o estudo dos computadores por si próprios. De fato, o conhecido cientista da computação Edsger Dijkstra é considerado autor da frase “Ciência da Computação tem tanto a ver com o computador como a astronomia com o telescópio […]”. O projeto e desenvolvimento de computadores e sistemas computacionais são geralmente considerados disciplinas fora do contexto da Ciência da Computação. Por exemplo, o estudo do hardware é geralmente considerado parte da engenharia da computação, enquanto o estudo de sistemas computacionais comerciais são geralmente parte da tecnologia da informação ou sistemas de informação.
Por vezes a Ciência da Computação também é criticada por não ser suficientemente científica, como exposto na frase “Ciência é para a Ciência da Computação assim como a hidrodinâmica é para a construção de encanamentos”, credita a Stan Kelly-Bootle.
Apesar disso, seu estudo frequentemente cruza outros campos de pesquisa, tais como a inteligência artifical, física e linguística.
Ela é considerada por alguns por ter um grande relacionamento com a matemática, maior que em outras disciplinas. Isso é evidenciado pelo fato que os primeiros trabalhos na área eram fortemente influenciados por matemáticos como Kurt Gödel e Alan Turing; o campo continua sendo útil para o intercâmbio de informação com áreas como lógica matemática, teoria das categorias e álgebra. Apesar disso, diferente da matemática, a Ciência da Computação é considerada uma disciplina mais experimental que teórica.

Várias alternativas para o nome da disciplina já foram cogitadas. Em francês ela é chamada informatique, em alemão Informatik, em espanhol informática, em holandês, italiano e romeno informatica, em polonês informatyka, em russo информатика e em grego Πληροφορική. Apesar disso, tanto em inglês quanto em português informática não é diretamente um sinônimo para a Ciência da Computação; o termo é usado para definir o estudo de sistemas artificiais e naturais que armazenam processos e comunicam informação, e refere-se a um conjunto de ciências da informação que engloba a Ciência da Computação. Em Portugal, no entanto, apesar de a palavra estar dicionarizada com esse sentido amplo, o termo é usado como sinónimo de Ciência da Computação.
De forma geral, cientistas da computação estudam os fundamentos teóricos da computação, de onde outros campos derivam, como as áreas de pesquisa supracitadas. Como o nome implica, a Ciência da Computação é uma ciência pura, não aplicada. Entretanto, o profissional dessa área pode seguir aplicações mais práticas de seu conhecimento, atuando em áreas como desenvolvimento de software, telecomunicação, consultoria, análise de sistemas, segurança em TI, governança em TI, análise de negócios e tecnologia da informação. O profissional de computação precisa ter muita determinação na apreensão tecnológica, uma vez que esta área sofre contínuas transformações, modificando rapidamente paradigmas.

13.266 – Bioquímica – Como os primeiros compostos orgânicos teriam se formado na terra primitiva?


terra primitiva
há cerca de 3 biliões de anos atrás, quando a Vida começou na Terra… A jovem Terra, com 1,5 biliões de anos, tinha todas as condições para a vida como a conhecemos: uma temperatura estável, nem muito quente nem muito fria, energia abundante proveniente do Sol, massa suficiente para manter uma atmosfera e alguns ingredientes de que os organismos vivos são formados – carbono, oxigénio, hidrogênio e azoto, elementos estes que formam 98% dos organismos vivos. E como é que tudo começou? Como é que as moléculas complexas que foram os seres vivos se formaram a partir destes átomos e moléculas simples que existiam no nosso planeta?
Em 1923 A. I. Oparin, um químico russo, apresentou uma teoria sobre a forma como teria aparecido o primeiro composto orgânico, o precursor da Vida. Segundo ele na atmosfera da Terra havia pouco ou nenhum oxigénio livre, mas havia um conjunto de gases contendo vapor de água (H2O), assim como dióxido de carbono (CO2), azoto (N2), amoníaco (NH3) e metano (CH4). O Sol diminuiu de intensidade, formaram-se nuvens, relâmpagos, e a chuva caiu. As substâncias radioativas no interior da Terra decaíram libertando energia. A conjunção de todos estes factores permitiu que as primeiras moléculas orgânicas se formassem e evoluíssem permitindo a Vida. Ou seja, gases simples desintegraram-se e os seus componentes juntaram-se de forma mais complexa.

Um pouco mais:
Estima-se que o planeta Terra surgiu há aproximadamente 4,6 bilhões de anos e que, durante muito tempo, permaneceu como um ambiente inóspito, constituído por aproximadamente 80% de gás carbônico, 10% de metano, 5% de monóxido de carbono, e 5% de gás nitrogênio. O gás oxigênio era ausente ou bastante escasso, já que sua presença causaria a oxidação e destruição dos primeiros compostos orgânicos – o que não ocorreu, propiciando mais tarde o surgimento da vida.
Nosso planeta foi, durante muito tempo, extremamente quente em razão das atividades vulcânicas, jorrando gases e lava; ausência da camada de ozônio; raios ultravioletas, descargas elétricas e bombardeamento de corpos oriundos do espaço. Sobre isso, inclusive, sabe-se que a maioria do carbono e de moléculas de água existentes hoje foi parte constituinte de asteroides que chegaram até aqui.
Foi esta água que permitiu, ao longo de muito tempo, o resfriamento da superfície terrestre, em processos cíclicos e sucessivos de evaporação, condensação e precipitação. Após seu esfriamento, estas moléculas se acumularam nas depressões mais profundas do planeta, formando oceanos primitivos.
Agregadas a outras substâncias disponíveis no ambiente, arrastadas pelas chuvas até lá; propiciaram mais tarde o surgimento de primitivas formas de vida. Muitas destas substâncias teriam vindo do espaço, enquanto outras foram formadas aqui, graças à energia fornecida pelas descargas elétricas e radiações.
Um cientista que muito contribuiu para a compreensão de alguns destes aspectos foi Stanley Lloyd Myller, que, em 1953, criou um dispositivo que simulava as possíveis condições da Terra primitiva; tendo como resultado final a formação de moléculas orgânicas a partir de elementos químicos simples.

13.265 – Cinema – Roger Moore, ator de James Bond, morre aos 89 anos


007-roger_moore

O ator britânico Roger Moore, que interpretou o agente “James Bond” em sete filmes, morreu, aos 89 anos, na Suíça, vítima de câncer, anunciou a família nesta terça-feira.
“Com grande pesar anunciamos que nosso querido pai, Sir Roger Moore, morreu hoje na Suíça após a uma batalha breve mas corajosa contra o câncer”, afirma a família em uma nota divulgada no Twitter.
Nascido em Londres em 1927, Moore trabalhou como modelo até o começo dos anos 1950. Depois disso assinou um contrato de sete anos com a MGM, mas suas produções iniciais não fizeram muito sucesso.
A fama só veio com seu papel como Ivanhoé, na série britânica “O Santo”, entre 1962 e 1969, e como Brett Sinclair, em “The Persuaders”.
A carreira como James Bond começou em 1973, no filme “Só Viva e Deixe Morrer”. Moore tinha a árdua missão de substituir Sean Connery, que encarnou o espião por quase uma década.
Moore encarnou o 007 em seis filmes e foi o ator a encenar o agente secreto por mais tempo: durante 12 anos.
“Ser eternamente conhecido como Bond não têm desvantagem”, afirmou Moore em 2014. “As pessoas às vezes me chamam de ‘Sr. Bond’ quando eu estou fora e eu não me importo nada com isso. Por que eu deveria?”

13.250 – Biologia – A Tartaruga-das-galápagos


Galapagos_giant_tortoise_Geochelone_elephantopus
O nome científico é Chelonoidis nigra (Quoy & Gaimard, 1824), é uma espécie de tartaruga da família Testudinidae, endêmica do arquipélago de Galápagos, no Equador.
É a maior espécie de tartaruga terrestre existente e o 10º réptil mais pesado do mundo, podendo chegar a 400 kg, com um comprimento de mais de 1,8 m. É também um dos vertebrados de vida mais longa. Um exemplar mantido em um zoológico australiano, chamado Harriet, atingiu a idade de 170 anos. São conhecidas várias subespécies, embora sua classificação seja polêmica. São herbívoras e se alimentam de, frutas, líquens, folhas e cactos.
Desde o descobrimento do arquipélago no século XVI elas foram caçadas intensamente para alimentação, especialmente de marinheiros, e seu número original, que se calcula em torno de 250 mil indivíduos, decaiu para pouco mais de 3 mil na década de 1970. Outros fatores também contribuíram para o declínio acentuado, como a introdução de novos predadores pelo homem e a destruição de seu habitat. Em breve começaram a ser realizados projetos de recuperação das populações, e hoje o total de indivíduos chega a quase 20 mil. Mesmo assim ainda é considerada uma espécie vulnerável pela IUCN. Pelo menos duas subespécies já foram extintas – C. n. abingdoni e C. n. nigra – e somente dez das cerca de quinze originais ainda existem em liberdade.
As características morfológicas da carapaça óssea das tartarugas-das-galápagos variam de acordo com o ambiente de cada ilha. Esta variabilidade permite subdividir a espécie em vários subtipos, cada um característico de uma ilha, ou de uma parte dela. Esta diversidade morfológica foi reconhecida por Charles Darwin, durante a sua visita ao arquipélago em 1835, e foi um dos argumentos para a sua teoria da evolução das espécies.
As Ilhas Galápagos foram descobertas em 1535, mas só foram incluídas nos mapas em torno de 1570.
A primeira pesquisa sistemática sobre esses animais foi realizada em 1875 por Albert Günther, associado ao Museu Britânico. Ele identificou pelo menos cinco populações diferentes nas ilhas Galápagos, e três nas ilhas do oceano Índico. Em 1877 a sua lista foi expandida para cinco populações nas Galápagos, quatro nas ilhas Seychelles e quatro nas ilhas Mascarenhas. Günther imaginava que todas derivavam de uma única população ancestral que havia se dispersado através de pontes de terra mais tarde submersas.
Sua teoria foi refutada quando se compreendeu que as Galápagos, bem como as Seychelles e as Mascarenhas, eram ilhas de formação vulcânica recente, e jamais haviam sido interligadas por pontes de terra. Hoje se acredita que as tartarugas-das-galápagos provêm de um ancestral sulamericano. No fim do século XIX Georg Baur e Walter Rothschild reconheceram a existência de mais cinco populações.
Em 1906 a Academia de Ciências da Califórnia coletou espécimens os confiou a John Van Denburgh para que os estudasse, resultando identificadas quatro populações adicionais e postulando a existência de quinze espécies diferentes.
Hoje sobrevivem na natureza apenas cerca de dez subespécies – o número exato também é polêmico. Charles Darwin visitou as ilhas em 1835, a tempo de ver cascos dos últimos representantes da subespécie Chelonoidis nigra nigra, supostamente extinta na década de 1850. Em 24 de junho de 2012 a subespécie Chelonoidis nigra abingdoni foi extinta com a morte do último exemplar, conhecido como “Jorge Solitário”.

George_1
Último exemplar da espécie extinta

13.242 – Mega Memória – Comercial do Sujismundo: Povo Desenvolvido é Povo Limpo


SUJISMUNDO - ANOS 70 - DITADURA - 0004
O Sujismundo surgiu em 1972, quando o governo militar incentivava e patrocinava campanhas educativas, nos moldes de “Brasil, ame-o ou deixe-o”, “Este é um país que vai pra frente” e “Ninguém segura este país”. O personagem fazia parte justamente deste conceito. Nos comerciais, em animação, ele mostrava seus maus hábitos (como jogar lixo no chão ou espalhar objetos pelo escritório) e acabava punido.
O personagem foi ao ar em setembro de 1972, numa série de quatro filmetes, que variavam entre 60 e 90 segundos de duração, e eram exibidos na TV e no cinema. Também foram produzidos cartazes e jingles. A campanha foi retirada do ar em novembro do mesmo ano. Em 1973, Sujismundo voltou, na companhia de Sujismundinho, uma criança que abandonava os maus hábitos dos adultos mais rapidamente.

13.240 – Cinema – Ator e diretor Nelson Xavier morre aos 75 anos em Minas Gerais


nelsonxavier5
O ator Nelson Xavier morreu aos 75 anos na madrugada desta quarta (10 de maio de 2017), em Uberlândia (Minas Gerais), em decorrência de um câncer.
Nascido em São Paulo em 1941, Nelson Agostini Xavier tinha uma carreira quase 60 anos na TV, no cinema e no teatro.
Ele integrou o Teatro de Arena, os Seminários de Dramaturgia e o MCP (Movimento de Cultura Popular de Recife) e, na década de 1960, destacou-se como ator nos espetáculos “Dois Perdidos Numa Noite Suja”, em 1967, e “Navalha na Carne”, em 1968, ao lado de Tônia Carrero – ambos textos de autoria de Plínio Marcos, sob direção de Fauzi Arap.
No início da carreira, atuou em peças como “Eles Não Usam Black-tie” (1958), de Gianfrancesco Guarnieri, e “Chapetuba Futebol Clube” (1959) —no qual criou o papel de Maranhão—, de Oduvaldo Vianna Filho.
Na década de 1950 foi revisor da revista “Visão”, emprego conseguido por meio do futuro cineasta Eduardo Coutinho —com quem viria a trabalhar em “O ABC do Amor (1967). Na publicação, ele também escreveu críticas de cinema e de teatro.
No Recife, participou em 1962 das atividades do MCP (Movimento de Cultura Popular), para o qual dirigiu sua primeira peça, “Julgamento em Novo Sol”, e criou um seminário de dramaturgia, inserindo o teatro em cursos de alfabetização, debates comunitários e comícios políticos.

De Lampião a Chico Xavier

lampiao_869x635

Xavier passou a trabalhar no cinema a partir da década de 1960, quando a sede da UNE no Rio, onde ele fazia ensaios periódicos para uma peça, foi incendiada logo após o golpe militar de 31 de março de 1964, e com as consequentes dificuldades impostas pela censura ao teatro político.
No cinema, trabalhou com diretores como Domingos de Oliveira, Ruy Guerra e Bruno Barreto; integrou o elenco de filmes como “Dona Flor e seus Dois Maridos” (1976), de Barreto, e “A Queda”, de Guerra, que lhe rendeu o Urso de Prata no Festival de Berlim de 1978.
Em 2010 protagonizou a cinebiografia sobre Chico Xavier em filme de Daniel Filho que leva o nome do médium.
Premiado como melhor ator no Festival do Rio em 2016, Nelson Xavier interpreta em “Comeback”, filme que estreia no próximo dia 25, personagem que, enquanto planeja seu retorno ao crime, se vira tentando emplacar máquinas caça-níqueis em botecos suburbanos e se envolve em situações tragicômicas.
O corpo do ator será levado ao Rio de Janeiro, onde deve ser cremado nesta quinta (11).
Nelson Xavier deixa a mulher e quatro filhos —Tereza Villela Xavier, uma das filhas do ator, lamentou a morte do pai em seu perfil na rede social.

13.239 – Museu do Automóvel – Aero Willys, o Rebelde


aero willys
Foi um automóvel sedan fabricado pela Willys Overland do Brasil entre 1960 e 1971.
O Aero Willys brasileiro foi lançado em 25 de março de 1960, mas seu projeto vinha sendo discutido na montadora brasileira desde 1958. O Aero Willys era um carro herdado de um projeto americano que havia sido desativado por insucesso. Lá as versões desse automóvel eram conhecidas como Aero-Ace, Aero-Eagle, Aero-Wing, Bermuda (um cupê duas portas), fabricados pela Willys Overland dos EUA, com os componentes mecânicos dos Jeep Willys.
O ferramental veio para o Brasil e a Willys começou a produzir automóveis (apenas os modelos 4 portas). Toda a linha Aero foi concebida sobre a plataforma do Jeep, com suspensão e direção do Jeep, e com freios a tambor nas quatro rodas. Eram carros duros, com uma linha arredondada, típica do início dos anos 50, que representavam à época a única opção para quem não quisesse entrar num Simca Chambord e precisasse de um automóvel maior que os Volkswagen, DKW e Dauphine. Seu motor era de seis cilindros em linha, o mesmo usado no Jeep (que mais tarde passou a ser usado no modelo Rural, e nos demais modelos derivados do Jeep, e até mesmo nos Mavericks fabricados pela Ford), a partir de 1973. Esse motor tinha uma característica incomum: a válvula de admissão situava-se no cabeçote, mas a válvula de escapamento ficava no bloco.
O início da fabricação deu-se em outubro de 1962 e sua primeira aparição foi em Paris, no mais famoso Salão do Automóvel do mundo. Entre as muitas novidades internacionais aparecia, um carrão com monobloco brasileiro, 110 cavalos no motor, concepção e estilos novos. Era o primeiro carro inteiramente concebido na América Latina.
Em julho de 1963 era lançado o Aero Willys 2600, o primeiro carro genuinamente brasileiro. As primeiras peças, como os primeiros carros eram inteiramente feitas à mão. O sucesso foi imediato, tanto que em 1966 foi lançado uma nova versão mais luxuosa batizada de Itamaraty, também chamado de Palácio sobre Rodas. O Itamaraty vinha equipado com acessórios a época sofisticados como bancos de couro e ar condicionado. Em 1967, foi lançada a Itamaraty Executivo, a primeira limusine fabricada em série no Brasil.
Em 1968 a Willys foi comprada pela Ford, que aos poucos foi fundindo o Aero Willys no seu Ford Galaxie. Houve uma tentativa de adaptação do motor V8 do Galaxie no Aero. Um dos engenheiros testou o desempenho do automovel, na estrada para Santos. Entretanto, a falta de estabilidade e deficiência de frenagem do carro com o potente motor V8, na estrada em descida e cheia de curvas, encerrou o episódio. Em 1971 a Ford anunciou que aquele seria o último ano de fabricação do automóvel, devido à queda nas vendas. Em 1972 foram vendidos os últimos Aero e Itamaratys, sendo sua mecânica utilizada como base do futuro Maverick, em 1973.

Aerowillys_original

13.238 – História da Aviação – Impulsionada pela Guerra


teco teco
Pode não ser ou parecer bonito, mas o melhor incentivo para o desenvolvimento de inovação em tecnologia é o conflito armado. A guerra incentiva os militares a buscar equipamentos melhores que os do inimigo. E eles têm a verba para isso. Nesse sentido, a aviação militar foi a grande parteira da aviação civil.
Quando você entra hoje em um avião de passageiros produzido pela maior empresa da área, a americana Boeing, fundada em 1916 no meio da guerra, mas antes de os americanos entrarem nela, você está literalmente seguindo nos passos de uma velha tradição de aviões de guerra produzidos pela companhia americana baseada em Seattle.
O bombardeiro Boeing B-17 “Flying Fortress” (Fortaleza Voadora) transformou a Alemanha em ruínas; o Boeing B-29 “Superfortress” (Super Fortaleza) incendiou o Japão e lançou sobre o país asiático duas bombas atômicas; o Boeing B-52 “Stratofortress” (Fortaleza Estratosférica) foi projetado para levar a União Soviética de volta à Idade da Pedra com armas nucleares, mas, como não houve a 3a Guerra Mundial, passou boa parte do tempo lançando bombas em lugares como o Vietnã, o Iraque e o Afeganistão.
Isso tudo ajudou a produzir, por exemplo, o bimotor Boeing 737, o avião a jato mais vendido na história da aviação comercial, e um clássico da ponte aérea Rio-São Paulo.

História Antiga
A ficha de que a aviação tinha vocação militar caiu em 1909, quando Louis Blériot fez a travessia do Canal da Mancha e chegou à Grã-Bretanha. O feito horrorizou os militares britânicos: eles possuíam a maior marinha de guerra do mundo e de repente poderiam ser vulneráveis a um ataque pelo ar.
Também em 1909 os franceses criaram o Service Aéronautique, a primeira força aérea do planeta. Em 1910 os alemães criam a sua. Mas o primeiro uso em combate da nova arma foi obra dos italianos. Em 1911 eles fizeram os primeiros voos de reconhecimento e de bombardeio na guerra com o Império Otomano travada na Líbia.
Paralelamente, o que viria a ser chamado de aviação civil engatinhava. E parou de vez com o início da 1a Guerra Mundial, em 1914. Motores mais poderosos foram criados, aviões com mais motores também. Terminada a guerra, estavam prontos para levar passageiros no lugar de bombas.
No período entre as duas guerras mundiais a tecnologia também evoluiu e foi quando os aviões de lona e madeira, em geral biplanos, foram substituídos por monoplanos de metal bem mais velozes e com maior alcance. Rotas de transporte aéreo civil passaram a ser comuns. Nas décadas de 1920 e 1930 foi criada a base da aviação civil moderna. Não só muitos modelos de aviões foram produzidos por empresas como Sikorsky, Tupolev ou Boeing; foram lançadas linhas aéreas como KLM, Air France e Pan Am. Além da brasileira Condor, estabelecida no país pela alemã Lufthansa.
Novos desenvolvimentos tecnológicos decolaram na 2a Guerra; três exemplos bastam para mostrar sua contundência. São fundamentais para a aviação comercial hoje: radar, propulsão a jato e computador. Todos são frutos de pesquisas com fins militares e, sem eles, a indústria moderna da aviação civil não teria sido possível.

13.234 – Segurança Pública – Habilitações passam a utilizar código de segurança digital para evitar fraude


habilitação
As Carteiras Nacionais de Habilitação (CNHs) emitidas a partir deste mês passarão a ter um QR Code –códigos de barra que podem ser escaneados por aparelhos ou dispositivos móveis com câmeras fotográficas.
De acordo com o Denatran (Departamento Nacional de Trânsito), do Ministério das Cidades, a mudança é uma forma de aumentar a segurança contra fraudes e cópias ilícitas do documento.
Através da leitura do QR Code, informações biográficas e foto do documento original dos motoristas armazenadas no banco de dados do Denatran poderão ser acessadas.
Segundo Elmer Vicenzi, diretor do departamento, a novidade permite que “qualquer setor da sociedade tenha acesso às informações, seja numa relação civil, seja numa relação empresarial, como bancos, cartórios e empresas de locadoras de veículos, por exemplo. Antes, a verificação se dava apenas dos dados presentes na CNH, podendo a foto não ser a do titular de fato, configurando fraude”.
A leitura do código –que fica na parte interna do documento–, é feita por um aplicativo, o “Lince”, disponível para os sistemas Android e iOS e foi desenvolvido pelo Serpro (Serviço Federal de Processamento de Dados).
A checagem das informações pode ser feita offline, o que permite que autoridades como as polícias rodoviárias possam ter acesso aos dados mesmo em lugares distantes.
Apesar de Vicenzi ressaltar que não há nenhum custo adicional que justifique o aumento da taxa de emissão, o órgão reconhece que faz parte da autonomia administrativa de cada Estado definir se haverá ou não aumento.
Mais de 300 mil habilitações foram emitidas com a funcionalidade desde 1º de maio, data em que a iniciativa entrou em vigor. A previsão é que, dentro de cinco anos, todos os motoristas brasileiros já possuam a nova CNH.

13.223 – História – Amazônia já teve partes inundadas e teve até tubarões


tutu barão
Durante dois momentos no passado partes da Amazônia no Brasil e Colômbia estiveram temporariamente ocupadas por mar. Não era muito profundo e tinha menos salinidade que os atuais oceanos, mas sua fauna incluía até tubarões. Mas isso, que pareceria ser apenas uma curiosidade científica, foi de vital importância para o aumento da biodiversidade da região –a maior do planeta.
Uma equipe internacional de 16 pesquisadores –incluindo o brasileiro Carlos D’Apolito Júnior, da UFMT (Universidade Federal do Mato Grosso)–, distribuídos por instituições de oito países, publicou a descoberta na atual edição da revista científica americana “Science Advances”.
Os dois “eventos de inundação” ocorreram na época geológica conhecida como Mioceno, que durou de 23 a 5,3 milhões de anos atrás. Essa época constitui o momento mais antigo do período geológico chamado Neogeno, que terminou há 2,5 milhões de anos, passando então para o atual período Quaternário. Cada época ou período é caracterizado por mudanças importantes na geologia, na fauna e na flora da Terra.
Hoje cerca de 80% da Amazônia é ocupada por florestas em terra firme e 20% por regiões inundáveis. A equipe, cujo principal pesquisador é Carlos Jaramillo, do Instituto Smithsonian de Pesquisas Tropicais, Panamá, examinou sedimentos em núcleos obtidos nas bacias de Llanos, Colômbia, e Amazonas/Solimões, Brasil.
Um total de 933 tipos de microfósseis (“palinomorfos”), ou 54.141 indivíduos, foram contados nos dois núcleos geológicos de Saltarin (Colômbia) e 105-AM (Brasil).
O brasileiro Carlos D’Apolito Júnior obteve seu doutorado, no ano passado na Universidade de Birmingham, Reino Unido, justamente sobre a evolução antiga, durante o Mioceno, da paisagem da Amazônia ocidental na Formação Solimões.
A evidência marinha fez o pesquisador analisar mais amostras; “comecei a encontrar mais e mais dinoflagelados. Bem, o resultado você já sabe –evidência direta e inquestionável de ambientes costeiros na Amazônia ocidental durante o Mioceno”.
O próximo passo foi comparar os resultados com o material colombiano que vinha sendo coletado pelo grupo de Jaramillo. “Vimos que tínhamos ali a comprovação de uma ideia antiga de que esses ambientes costeiros avançaram via Caribe durante o Mioceno”.

13.213 – Mossoró: a cidade que disse NÃO ao Lampião


LAMPIO~1
Ele distribuía algumas moedas para crianças pobres, mas não tinha nada a ver com Robin Hood.
O jogo era o seguinte: Lampião chantageava políticos, em especial prefeitos de pequenas e médias cidades do Norte e Nordeste do Brasil.
Os políticos deveriam pagar altas quantias ao cangaço. Se isso não acontecesse, uma invasão violenta da trupe de Lampião praticamente liquidaria o que visse pela frente.
Saques, estupros, humilhações, decapitações…Essas eram algumas das atitudes tomadas pelos cangaceiros ao invadirem uma cidade.
O natural era que os políticos cedessem. Isso mudou quando Rodolfo Fernandes, prefeito da cidade de Mossoró, resolveu encarar.
A cidade se juntou para uma defesa nunca antes vista. Mordidos pela inédita negativa, os cangaceiros atacariam Mossoró com tudo.

O resultado dessa briga?

13.195 – Quando Surgiu a Paleontologia?


paleontologia
A paleontologia é a disciplina científica que estuda o registro fóssil deixado pelos organismos vivos, procurando compreender a história da vida na Terra. Apesar de ser um campo da biologia, durante o seu desenvolvimento inicial esteve mais relacionada com a geologia, pois os fósseis eram objeto de estudo de áreas como a mineralogia e a estratigrafia. Até praticamente o final do século XVIII a palavra fóssil denominava qualquer objeto escavado, não importando sua origem, e mediante este tratamento os fósseis eram estudados por aquelas áreas científicas.
A história da paleontologia analisa a trajetória da relação que o homem estabeleceu com os fósseis desde a pré-história humana. Primeiramente, vistos como “joguetes da natureza” ou curiosidades, os fósseis somente passaram a ser objeto de um estudo sistematizado, após a constatação de sua origem biológica e de sua posição em uma escala de tempo, também ampliada por este mesmo estudo. Assim o estudo dos fósseis (o termo paleontologia, somente viria a ser cunhado no século XIX, por Ducrotay de Blainville) emergiu como parte integral das mudanças na filosofia natural que ocorreram durante a Idade da Razão.
A origem dos fósseis e o seu significado na História Natural passaram a ser melhor compreendidos no final do século XVIII e início do século XIX, quando a comunidade científica passou a adotar como modelo os resultados dos trabalhos de Georges Cuvier (1769-1832). Estes estudos estavam baseados em seus princípios da anatomia comparada e levaram a instauração da paleontologia como ciência moderna, assim como da geologia . Desta forma, durante a primeira metade do século XIX houve um grande incremento na aquisição do conhecimento sobre a história da vida na Terra e também uma ampliação na escala de tempo geológico. Isto possibilitou a constatação de que houve algum tipo de ordenamento sucessivo no desenvolvimento da vida na Terra. Este fato contribuiu para a formulação de teorias de transmutação de espécies.
Após 1859, com a publicação do livro de Charles Darwin, A Origem das Espécies, a paleontologia passou a ter como um de seus principais objetivos a composição de sequências filogenéticas, procurando estabelecer as vias evolutivas.
Durante a segunda metade do século XIX houve uma grande expansão na atividade paleontológica, especialmente na América do Norte. A tendência continuou no século XX, com regiões adicionais da Terra tornando-se abertas ao estudo sistemático dos fósseis, como por exemplo a China, onde importantes descobertas foram realizadas. Na última metade do século XX intensificou-se o interesse no esclarecimento das extinções em massa e o seu papel na evolução da vida na Terra.
Ainda no século VI a.C., Xenófanes de Cólofon foi mencionado por escritores posteriores de ter observado os restos de conchas de moluscos pelágicos nas montanhas, impressões de folhas em rochas de Paros, assim como várias evidências da presença antiga do mar nas terras altas de Malta, e atribuiu essas aparições às invasões periódicas do mar.
historiador Xanthus da Sardenha (circa 500 a.C.) também chamou a atenção para a ocorrência de conchas fósseis na Armênia, Frígia e Lídia, regiões distantes do mar, e concluiu que as localidades onde tais restos ocorriam tinham sido anteriormente o leito do oceano, e que os limites da terra e do oceano vinham constantemente sofrendo mudanças.
Leonardo da Vinci (1452-1519), em um trabalho não publicado, chegou à mesma conclusão dos antigos gregos sobre as variações dos oceanos. No entanto, em ambos os casos, os fósseis eram restos completos de organismos marinhos que detinham grande semelhança com espécies atuais e como tal fáceis de serem identificadas, permanecendo a questão se os fósseis não assemelhados à nenhuma forma de organismo conhecida, também tinham origem orgânica.
No século XVII Nicolau Steno (1638 – 1686), estabeleceu um ordenamento temporal para os estratos geológicos, nos quais os fósseis eram encontrados. Esta relação estendeu-se para os fósseis contidos nestes estratos, levando-os a serem tratados como registros da história da vida na Terra.
Com este tratamento surgiu o questionamento sobre o destino dos organismos que somente eram encontrados na forma fóssil. Os naturalistas que estudavam os fósseis, dividiam-se entre a defesa da ocorrência da extinção e a defesa da hipótese que propunha que tais organismos ainda deveriam ser descobertos em algum lugar do Globo. Somente após os trabalhos da anatomia comparada de Georges Cuvier serem aceitos pela comunidade científica, esta questão foi resolvida, pois possibilitaram as reconstruções paleontológicas, inclusive destes organismos extintos.
Shen Kuo (chinês: 沈括) (1031 – 1095), da dinastia Song, usou a evidência de fósseis marinhos escavados nas montanhas Taihang para inferir a existência de processos geológicos de geomorfologia e alterações do nível do mar ao longo do tempo.[9] Usando a suas observações de bambus preservados e petrificados, encontrados soterrados em Yan’an, região de Shanbei, província de Shaanxi province, defendeu uma teoria de mudança do clima gradual, uma vez que Shaanxi ao se tratar de uma região de clima seco não seria um habitat propício para o crescimento de bambus.
Como resultado da nova enfase na observação, classificação e catalogação da natureza, os filósofos naturais do século XVI na Europa começaram a estabelecer extensivas coleções de objetos fósseis, assim como também coleções de espécimes vegetais e animais, que eram frequentemente armazenados em gabinetes construídos para ajudá-los a organizar as coleções. Conrad Gesner publicou em 1565 um trabalho sobre fósseis que continha uma das primeiras descrições detalhadas sobre gabinetes e coleções. A coleção pertencia a um membro da extensa rede de correspondentes que Gesner se baseou para suas obras. Tais redes de correspondência informal entre os filósofos naturais e colecionadores tornou-se cada vez mais importante durante o curso do século XVI e foram precursores diretos das sociedades científicas que começam a se formar no século XVII. Essas coleções de gabinete e redes de correspondência desempenharam um papel importante no desenvolvimento da filosofia natural.
Durante a Idade da Razão, mudanças fundamentais na filosofia natural foram refletidas na análise dos fósseis. Em 1665, Athanasius Kircher atribuiu os ossos gigantes à extintas raças de humanos gigantes em seu livro Mundus subterraneus. No mesmo ano, Robert Hooke publicou o Micrographia, uma coleção ilustrada das suas observações com um microscópio. Uma dessas observações foi intitulada Of Petrify’d wood, and other Petrify’d bodies, que incluía uma comparação entre madeira comum e petrificada. Hooke acreditou que os fósseis provinham evidência sobre a história da vida na Terra.
Em 1667, Nicholas Steno escreveu um artigo sobre uma cabeça de tubarão que tinha dissecado. Ele comparou os dentes do tubarão com o com objetos fósseis comuns conhecidas como línguas de pedra. Ele concluiu que os fósseis deviam ter sido dentes de tubarão. Steno então teve um interesse na questão dos fósseis, e para abordar algumas das objeções à sua origem orgânica começou a estudar estratos rochosos. O resultado deste trabalho foi publicado, em 1669, como um precursor para a Forerunner to a Dissertation on a solid naturally enclosed in a solid. Neste livro, Steno estabeleceu uma distinção clara entre objetos como cristais de rocha que realmente se formaram dentro das rochas e dos fósseis, como conchas e dentes de tubarão, que se formaram fora dessas rochas. Steno percebeu que certos tipos de rochas foram formados pela deposição sucessiva de camadas horizontais de sedimentos e que os fósseis eram os restos de organismos vivos que tinham sido enterrados naqueles sedimentos. Steno que, como quase todos os filósofos naturais do século XVII, acreditava que a Terra tinha apenas alguns milhares de anos, recorreu ao dilúvio bíblico como uma possível explicação para os fósseis de organismos marinhos que estavam longe do mar.

13.189 – Mega Techs – Trem que viaja em tubo a vácuo tem primeiros projetos apresentados


trem vacuo
Em 2013, Elon Musk, executivo da SpaceX, publicou uma ideia de transporte super-rápido em que um trem viajava por dentro de um grande tubo a vácuo. Com isso, era possível conseguir grande eficiência energética e, ainda assim, altas velocidades. Meses depois, uma empresa foi criada para materializar essa ideia e, recentemente, os primeiros progressos no projeto foram apresentados.
A empresa em questão se chama Hyperloop Transportation Technologies (HTT) e já tem projetos que precisam agora serem construídos em caráter experimental. A ideia original do Hyperloop de Musk foi alterada a certo ponto para se tornar economicamente mais viável. Agora, a companhia precisa de financiamento para tirar os esquemas do papel.
Quem trabalha na HTT
Entre os engenheiros que estão trabalhando na HTT, temos pessoas que também fazem parte da SpaceX, da NASA, Boeing e outras grandes instituições como essas. Acontece que, por enquanto, nenhum deles está recebendo nenhum centavo pelo seu trabalho. A estrutura da companhia prevê que os colaboradores recebam seus pagamentos somente quando ela começar a dar lucro. Quando isso acontecer, todos serão “sócios” do negócio que pode render bilhões.
A primeira rota do Hyperloop que poderia ser construída considerava operar em San Francisco e Los Angeles, nos EUA. Entretanto, acredita-se que o trecho possa ser alterado para Las Vegas e Los Angeles. De qualquer maneira, estima-se que sejam gastos de US$ 6 bilhões a US$ 10 bilhões para cada 650 km de percurso construído. Isso levando em conta estações e trens.
O funcionamento do veículo seria basicamente o de um metrô mais elaborado que corre por um tubo sem ar e, portanto, praticamente sem atrito. Dentro da cabine, haveria pressão e oxigênio para os ocupantes permanecerem vivos durante a viagem. Mesmo assim, a eficiência energética do veículo seria alta. Ele percorreria seus tubos a velocidades um pouco menores que a do som, chegando a 1,2 mil km/h.

13.188 – Veterinária – Gatos: Por que tanto barulho no acasalamento?


gatos-acasalamento_01
As gatas começam a miar em alto volume já quando entram no cio para chamar atenção dos machos.Mas, essa gritaria toda tem um motivo. Alguns gatos que não foram castrados possuem o órgão genital espinhoso e isso acaba fazendo com que a gata sinta muita dor.
A função desses espinhos ainda não é muito clara, mas pensa-se que sirvam para estimular a ovulação de suas parceiras.Portanto, os espinhos podem desempenhar um papel importante na fecundação e reprodução desses animais. Quando acontece de um gato ser castrado ainda muito jovem os espinhos não se desenvolvem completamente, pois eles se formam a partir de estímulos hormonais.

13.187 – Saúde – Cerca de 35% das mulheres com atraso menstrual têm aborto espontâneo e acham que só menstruaram


aborto
Normalmente a gravidez possui 38 semanas e corresponde ao período da fecundação até o nascimento do bebê.
O que todas as mães desejam é que a sua gestão seja tranquila e seu bebê nasça com saúde. Mas infelizmente, nem tudo sai como o planejado. Durante este período, muitas mulheres sofrem aborto espontâneo ou interrupção da gravidez (IIG). Este problema ocorre quando a gravidez não completa o tempo certo devido a complicações. O que também pode acontecer é o aborto esporádico, quando a mulher sofre o aborto, porém continua com as gestações normais. Outro caso típico é o aborto habitual, em que a mulher sofre três ou mais abortos seguidos.
Os especialistas consideram o aborto a interrupção da gravidez até a 20ª semana. O feto também deve ter menos que 500 gramas para se caracterizar como aborto espontâneo. Entre a 22ª até a 36ª semana, os médicos consideram como parto prematuro, que pode ser espontâneo ou iatrogênico – necessitando que o médico interrompa a gravidez por algum motivo.
O aborto espontâneo é muito comum nos seres humanos. Quando a mulher percebe a gravidez, a taxa de abortamento marca 15%. Quando considerado o período antes da confirmação da gravidez, essa taxa aumenta para 30% a 40%. Isso é comum depois do atraso menstrual, em que a mulher perde muito sangue acreditando ser a menstruação, quando na verdade estava eliminando o embrião recém-formado. São diversas as causas para este fenômeno, mas em 60% dos casos é possível saber a causa de acordo com o momento em que ocorreu o aborto. Muitos especialistas acreditam que o problema ocorre pelo sistema imunológico rejeitar o novo embrião no corpo da mulher.
Além disso, o aborto espontâneo é um sinal de malformação do feto ou de uma gravidez inadequada. Quanto mais cedo esta fatalidade ocorre, maior a chance de o feto não estar bem formado. O motivo pode ser explicado de acordo com a semana que o aborto ocorreu. Um aborto espontâneo, também chamado de precoce, acontece até a 12ª semana. Nestes casos, a principal causa é genética, infecciosa ou imunológica.
Já nos abortos tardios, (da 12ª à 20ª semana) o problema é com a dificuldade de expansão, de crescimento do útero, malformações uterinas e a incompetência cervica l– dificuldade de manter o colo do útero fechado para ter uma gravidez normal. No aborto precoce, o casal passa por uma avaliação genética para ver se há casos de problemas na família, além de realizar um mapa dos cromossomos do casal –cariótipo. Se o problema for genético, pode estar ocorrendo a translocação não balanceada. Este problema ocorre em 3% a 4% dos casais. Como é impossível mudar a genética, o casal pode tentar a fertilização assistida com a doação de oócitos ou de espermatozoides.
As grávidas devem ficar atentas com as infecções, como a toxoplasmose – doença transmitida pelo gato. A melhor forma para prevenir é não ter contato com as fezes ou urina do animal. É importante que, antes de engravidar,sejam feitos exames de sorologias para infecções como toxoplasmose, rubéola e citomegalovírus e de outros possíveis empecilhos.
A alimentação não deve ficar de fora. Não é indicado comer carnes malcozidas, verduras sem lavar e sanduíches feitos em lugares sem higiene. A alimentação reflete na gestação, já que alivia a ansiedade. A mulher não é a única causa do abortamento. Os homens têm um papel fundamental na gravidez, tanto genético, quanto auxiliando em todas as fases.

Fonte: [ Diário de Biologia ]

13.186 – Mega Cidades – Estocomo


Stockholm_lead_image
É a sede do governo sueco, representado na figura do Riksdagen, o parlamento nacional do país, além de ser a residência oficial dos membros da monarquia sueca. Em 2008, a área metropolitana de Estocolmo era o lar de cerca de 21% da população da Suécia e contribuía com mais de 1/3 do Produto Interno Bruto (PIB) do país. Segundo dados de 2010, a cidade de Estocolmo propriamente dita tinha uma população de 807 311 habitantes, enquanto que a área urbana (em sueco tätort) tinha cerca de 1,3 milhão de moradores, e sua região metropolitana, a maior aglomeração urbana do país, que engloba as demais cidades periféricas ou próximas de Estocolmo, além dela própria, cerca de 2 milhões.
Estocolmo é o maior e mais importante centro urbano, cultural, político, financeiro, comercial e administrativo da Suécia desde o século XIII. Sua localização estratégica sobre 14 ilhas no centro-sul da costa leste da Suécia, ao longo do lago Mälaren, tem sido historicamente importante. Uma vez que a capital sueca está situada sobre ilhas conhecidas por sua beleza, a cidade é destino de turistas de todo o mundo, tendo sido apelidada nos últimos anos de “Veneza do Norte”. Estocolmo é conhecida pelos seus edifícios e monumentos extremamente bem preservados, por seus arborizados parques, por sua riquíssima vida cultural e gastronômica, e pela gigantesca qualidade de vida que oferece a seus moradores.
Há décadas, Estocolmo figura como uma das cidades mais visitadas dos países nórdicos, com mais de um milhão de turistas internacionais anualmente.
O nome Stockholm nasce da junção de dois nomes; a primeira parte, stock, que significa literalmente “tronco de madeira”, pode ser relacionado com uma palavra do antigo alemão (Stock), que significa “fortificação”, enquanto que a segunda parte, holm significa ilha, referindo-se à ilhota de Helgeandsholmen na zona central de Estocolmo, de onde a cidade surgiu.
No século XVII a Suécia atingiu grande prosperidade e respeito por parte dos países europeus, reflectindo-se no desenvolvimento de Estocolmo. Desde 1610 até 1680, a população multiplicou-se seis vezes. Em 1634, a cidade tornou-se na capital oficial do Império Sueco. Foram aprovadas leis que deram a Estocolmo o monopólio do comércio da Suécia e dos territórios escandinavos.
Estocolmo fica na parte da costa oriental da Suécia. Está situada num arquipélago de catorze ilhas e ilhotas, unidas por 53 pontes, na região onde o lago Mälaren encontra o mar Báltico. A fisiografia da cidade é muito homogénea, sendo que predominam as planícies, chegando no máximo a 200 m de altitude em alguns pontos. Cerca de 30% da cidade está coberta de canais e outros 30% são ocupados por parques e zonas verdes, proporcionando à cidade um clima mais favorável do que se deveria esperar, principalmente devido à elevada latitude no contexto europeu.
A cidade de Estocolmo tem um clima continental. Devido à latitude da capital sueca, o clima deveria ser mais frio, no entanto é ameno devido à influência da Corrente do Golfo. A duração do dia, em média, varia entre 18 horas, no Verão, e 6 horas no Inverno, sendo que a cidade desfruta de 1821 horas de sol anualmente.
O município de Estocolmo é uma unidade administrativa com limites geográficos bem definidos. Está dividido em distritos municipais que têm ao seu cargo a gestão das escolas, dos serviços sociais, culturais e de lazer da respectiva zona. Estes por sua vez estão divididos em bairros. A cidade está dividida em três partes: Estocolmo Central (Innerstaden), Estocolmo Meridional (Söderort) e Estocolmo Ocidental (Västerort). Os distritos municipais e respectivos bairros de cada uma dessas três fracções são:
Estocolmo Central:

Kungsholmen – Fredhäll, Kristineberg, Kungsholmen, Lilla Essingen, Marieberg, Stadshagen e Stora Essingen
Norrmalm – Norrmalm, Skeppsholmen, Vasastaden e Östermalm
Södermalm – Långholmen, Reimersholme, Södermalm e Södra Hammarbyhamnen
Östermalm – Djurgården, Hjorthagen, Ladugårdsgärdet, Norra Djurgården e Östermalm
Estocolmo Meridional:

Enskede-Årsta-Vantör – Enskedefältet, Enskede Gård, Gamla Enskede, Johanneshov, Stureby, Årsta, Östberga, Bandhagen, Högdalen, Örby, Rågsved e Hagsätra.
Farsta – Fagersjö, Farsta, Farstanäset, Farsta Strand, Gubbängen, Hökarängen, Larsboda, Sköndal, Svedmyra e Tallkrogen
Hägersten-Liljeholmen – Fruängen, Hägersten, Hägerstensåsen, Mälarhöjden, Västertorp, Liljeholmen, Aspudden, Gröndal, Midsommarkransen e Västberga
Skarpnäck – Hammarbyhöjden, Björkhagen, Enskededalen, Kärrtorp, Bagarmossen, Skarpnäcks gård, Flaten, Orhem e Skrubba
Skärholmen – Bredäng, Sätra, Skärholmen e Vårberg
Älvsjö – Herrängen, Långbro, Långsjö, Älvsjö, Solberga, Örby Slott e Liseberg
Estocolmo Ocidental:

Bromma – Abrahamsberg, Alvik, Beckomberga, Blackeberg, Bromma Kyrka, Bällsta, Eneby, Höglandet, Lunda, Mariehäll, Nockeby, Nockebyhov, Norra Ängby, Olovslund, Riksby, Smedslätten, Stora Mossen, Södra Ängby, Traneberg, Ulvsunda, Ulvsunda industriområde, Åkeshov, Åkeslund, Ålsten e Äppelviken
Hässelby-Vällingby – Hässelby gård, Hässelby strand, Hässelby villastad, Grimsta, Kälvesta, Nälsta, Råcksta, Vinsta e Vällingby
Rinkeby-Kista – Rinkeby, Akalla, Husby, Kista e Hansta
Spånga-Tensta – Bromsten, Flysta, Solhem, Lunda, Sundby e Tensta
A grande maioria dos habitantes de Estocolmo trabalham no sector dos serviços, que representa aproximadamente oitenta e cinco por cento dos empregados da cidade. A quase total ausência de indústria pesada na cidade faz com que esta seja uma das mais limpas da Europa e do Mundo. Na última década geraram-se muitos postos de trabalho na capital sueca, principalmente na área da alta tecnologia, devido ao desenvolvimento caseiro de empresas dessa natureza tal como a fixação de companhias multi-nacionais desse género. A IBM, Ericsson e Electrolux têm assento na cidade.

Estocolmo é o centro financeiro da Suécia; na cidade encontram-se sediados os maiores bancos do país, tais como o Swedbank, o Handelsbanken, e o Skandinaviska Enskilda Banken, e também muitas companhias de seguros, como por exemplo a Skandia e Trygg-Hansa. Os principais índices bolsistas suecos estão representados na Bolsa de Estocolmo (Stockholmsbörsen). Também estão instaladas na cidade as principais sedes de lojas de venda a retalho tal como a H&M.

O sector do turismo representa também uma importante fatia na economia local. Entre 1991 e 2004 o número de visitantes da cidade, por ano, aumentou de quatro milhões para sete milhões e meio.
Em Estocolmo o ensino é até os 18 anos, e as crianças aprendem 4 línguas diferentes, para os imigrantes que vivem no município e tem filhos, tem o direito de aprender a língua materna.Um costume nas escolas de Estocolmo é que precisa tirar o sapato para entrar.

Estocolmo é mais conhecida pela cerimônia de entrega do Prémio Nobel que ocorre todos os anos, mas a cidade é também sede da maior concentração de universidades e de instituições de ensino superior isoladas da Suécia. Entre elas estão as seguintes:

Universidade de Estocolmo (Stockholms Universitet)
Real Instituto de Tecnologia (Kungliga Tekniska Högskolan ou “KTH”)
Escola de Economia de Estocolmo (Handelshögskolan i Stockholm ou “Handels”)
Instituto Karolinska (Karolinska Institutet ou ‘”KI”‘)
Escola Real de Belas Artes (Kungliga Konsthögskolan ou “Mejan”)
Escola Real de Música (Kungliga Musikhögskolan)
Universidade-Escola de Artes, Desenho e Design (Konstfack)
Universidade-Escola de Ópera (Operahögskolan)
Universidade-Escola de Educação Musical (Kungliga Musikhögskolan)
Universidade-Escola de Dança (Danshögskolan)
Universidade-Escola do Sul de Estocolmo (Södertörns Högskola)
A cidade de Estocolmo têm um amplo sistema de transporte público. Consiste no Metropolitano de Estocolmo; três sistemas ferroviários regionais ou suburbanos:Trem urbano (Pendeltåg), Roslagsbanan e Saltsjöbanan; um grande número de linhas de ônibus e uma linha de barca na cidade. Todo o setor de transporte público da cidade de Estocolmo, com exceção dos autocarros de aeroporto, são organizados pelo Storstockholms Lokaltrafik. Para a operação e manutenção dos serviços públicos de transporte são delegadas várias empreiteiras. O tráfego de barco do arquipélago é manipulado pelo Waxholmsbolaget.

estolcomo

Arlanda_tower.jpg
Aeroporto de Estocomo

13.185 – Química – Classificação de Ácidos Inorgânicos


bioquímica
Uma função química é caracterizada por um grupo de compostos que apresentam propriedades semelhantes. Inicialmente, pode-se ter compostos de natureza inorgânica (aqueles que não apresentam carbono, com algumas exceções) e orgânicos (os que apresentam carbono). As funções estudadas na química inorgânica são quatro: os ácidos, as bases, os sais e os óxidos.
Como meio teórico para identificação de uma função inorgânica pode-se adotar o critério estabelecido na tabela abaixo, a partir da fórmula molecular do composto.
A primeira das funções inorgânicas apresentadas, os ácidos, podem ser definidos conforme a teoria de Arrhenius, como sendo compostos que em solução aquosa se ionizam, liberando cátions H+.

O termo ionização refere-se à reação química que irá “produzir” cátions hidrônios (H+), liberados a partir de uma ligação química de natureza covalente.

Conforme seu comportamento físico e químico, os ácidos admitem algumas classificações essenciais, de acordo com os critérios abaixo:

QUANTO AO NÚMERO DE HIDROGÊNIOS
Monoácidos ou monopróticos: apresentam apenas um hidrogênio ionizável na molécula. Ex. ácido clorídrico (HCl).
Diácidos ou dipróticos: apresentam dois hidrogênios ionizáveis na molécula. Ex. ácido sulfúrico (H2SO4).
Triácidos ou tripróticos: apresentam três hidrogênios ionizáveis na molécula. Ex. ácido fosfórico (H3PO4).
QUANTO AO NÚMERO DE ELEMENTOS
Binários: apresentam apenas dois elementos distintos na molécula. Ex. ácido bromídrico (HBr).
Ternários: apresentam três elementos distintos na molécula. Ex. ácido fosfórico (H3PO4).
Quaternário: apresentam quatro elementos distintos na molécula. Ex. ácido tiocianóico (HSCN).
QUANTO À PRESENÇA DE OXIGÊNIO
Oxiácidos: possuem oxigênio na molécula. Ex. ácido perclórico (HClO).
Hidrácidos: não possuem oxigênio na molécula. Ex. ácido fluorídrico (HF).
QUANTO AO GRAU DE IONIZAÇÃO (força de acidez)
Os hidrácidos fortes são aqueles que apresentam os halogênios cloro, bromo ou iodo. Ex. ácido clorídrico (HCl).
Em relação aos oxiácidos, diminui-se o número de átomos de oxigênio pelo número de átomos de hidrogênio existentes na molécula. Quando a resposta for 2 ou mais, o ácido será considerado forte. Ex. ácido sulfúrico (H2SO4).
Os ácidos que não se enquadrarem em nenhuma das regras acima, incluindo todos os ácidos orgânicos (que apresentam carbono, excetuando-se o ácido carbônico, H2CO3, e o ácido cianídrico, HCN, que não são orgânicos, mas também são fracos) são considerados todos ácidos de baixo grau de ionização, portanto, fracos.
De acordo com as classificações ácidas apresentadas, os ácido clorídrico e sulfúrico, respectivamente mostradas abaixo, podem ser classificadas como:

HCl: monoácido, binário, hidrácido e forte.
H2SO4: diácido, ternário, oxiácido e forte.

13.184 – Cinema – ALIEN: COVENANT


alien covenant

2104. Viajando pela galáxia, os tripulantes da nave colonizadora Covenant encontram um planeta remoto com ares de paraíso inexplorado. Encantados, eles acreditam na sorte e ignoram a realidade do local: uma terra sombria que guarda terríveis segredos e tem o sobrevivente David (Michael Fassbender) como habitante solitário.
O filme será realizado por Ridley Scott, responsável pelo filme anterior e pelo primeiro da saga, Alien, de 1979. Do elenco fazem parte atores como Michael Fassbender, James Franco e Danny McBride.
Alien: Covenant deve marcar a volta da criatura xenomorfa conhecida desde o primeiro Alien e funcionará tanto como um prelúdio do longa de 1979 quanto como uma continuação de Prometheus. Michael Fassbender, Katherine Waterston, Danny McBride são alguns dos destaques do elenco dirigido por Ridley Scott.
A estreia é prevista para 11 de maio.

 

Atividade – Atriz
Nome de nascimento – Katherine Boyer Waterston
Nacionalidade – Americana
Nascimento – 3 de março de 1980 (Westminster, Londres, Inglaterra, Reino Unido)
Idade – 37 anos

waterston

13.183 – Empresa pretende construir arranha-céus que fica pendurado de um asteroide


construção aberraçao
Um prédio com centenas de andares que fica flutuando sobre a superfície da Terra. Parece ideia de ficção científica, mas é um projeto real: trata-se da Analemma Tower, um arranha-céus enorme conceitualizado pelo escritório de arquitetura Clouds Architecture Office.
A torre, que seria “a estrutura mais alta do mundo” se fosse construída, exigiria que um asteroide fosse capturado do espaço para servir como “apoio”. O sistema ateroide+torre ficaria em órbita geossíncrona sobre a Terra, descrevendo uma trajetória semelhante a um número 8 entre Nova York (nos EUA) e Quito (no Peru), como pode ser visto na imagem abaixo:

projeto asteroide

“Manipular asteroides não é mais [um conceito] relegado à ficção científica”, alega a empresa, citando recentes acordos da Europa sobre mineração de rochas espaciais e um plano da NASA para recuperar um asteroide. A partir da rocha, a empresa estenderia cabos que sustentariam o topo da estrutura.
O período de deslocamento da torre seria de 24 horas, para que ela passasse no mesmo lugar a cada dia na mesma hora. A empresa já chegou até mesmo a definir onde a construção da megaestrutura seria feita: Dubai. “[A cidade] tem provado ser uma especialista na construção de edifícios altos a um custo de 20% da construção em Nova York”.
A estrutura ainda teria algum grau de autossuficiência – o que seria importante, já que não seria tão fácil assim levar provisões até lá. Ela teria painéis solares em sua parte superior, acima das nuvens, para coletar energia solar, e usaria um circuito semiaberto para gerenciar suas provisões de água.
Além disso, ela também seria capaz de captar água a partir da umidade do ar, e usaria elevadores eletromagnéticos para contornar as restrições impostas por elevadores a cabo.
O edifício também teria, em alguns andares, plataformas para troca de bens e pessoas. Seria por meio delas que os ocupantes do prédio entrariam, usando algum sistema de transporte aéreo. Para sair, por outro lado, a empresa tem um plano mais empolgante: paraquedas. Os ocupantes que precisassem voltar para casa com urgência poderiam simplesmente pular das janelas de alguns andares e descer até a Terra, como ilustrado pela imagem lá de cima.
Vale notar, no entanto, que o projeto por ora é só isso: um projeto. Não é, porém, algo sem fundamento: numa declaração enviada à NBC News, a empresa ressalta que “se a recente explosão em torres residenciais provou que o preço por metro quadrado aumenta com a altura, então a Analemma Tower baterá recordes de preços, justificando seu custo elevado.
Além disso, a Clouds Architecture Office recentemente fez uma parceria com a NASA para construir uma habitação para humanos em Marte, o que sugere que a empresa já tem algum nível de conhecimento sobre projetos de escala espacial.

asteroide2

 

13.180 – Como impedir que o cabo do seu celular estrague


Enquanto a tecnologia de carregamento sem fio ainda não chega aos principais smartphones do mercado, os consumidores precisam se virar com os tão odiados cabos. Na maioria das vezes, esses acessórios são frágeis e caros.

Use uma mola
A maioria dos defeitos acontece nas extremidades do acessório, que acabam sofrendo muita pressão para algum dos lados. Para evitar que o cabo se dobre, o melhor a fazer é utilizar uma pequena mola (daquelas encontradas dentro de canetas) para envolvê-lo.

mola

 

Misture amido de milho com silicone
Parece algo bizarro, mas um vídeo no YouTube ensina como fazer uma mistura envolvendo amido de milho e silicone para criar uma massa flexível que vai proteger a extremidade dos cabos. A aparência não fica das melhores, mas em temos de usabilidade o método parece bem eficiente.

Protetores de cabo
Uma opção mais barata e bonita são os protetores de cabo. É possível encontrá-los facilmente na internet, principalmente em sites como o Mercado Livre. O preço varia de acordo com o modelo, mas conseguimos encontrar alguns deles custando R$ 1.

Envolva com fita isolante
Se a proteção emborrachada que protege os fios já estiver desgastada, é melhor envolvê-la com fita isolante para evitar que os fios fiquem expostos. O problema é que a fita isolante não é tão protetora e, por isso, é aconselhável que se combine esse método com o da mola.

Utilize um tubo termo retrátil
O produto é encontrado por preços entre R$ 10 e R$ 25 na internet e, além de proteger, deixa o cabo até com um visual bacana. O problema é que a aplicação não é tão fácil e exige que o cabo seja aquecido usando um isqueiro.