11.136 – Teoria do Caos – Por que os acidentes acontecem?


Concorde, o supersônico
Concorde, o supersônico

Em 25 de julho de 2000, um Concorde da Air France acelerava na pista do Aeroporto Charles de Gaulle, em Paris, para atingir a velocidade de 400 quilômetros por hora, como fazia em todas as decolagens. No caminho, passou em cima de uma pedaço de titânio de 45 centímetros que um DC-10 deixara no asfalto minutos antes. Um dos pneus da asa esquerda explodiu e lançou uma tira de borracha de 4,5 quilos contra o fundo do tanque de combustível que estava um pouco à frente. O choque fez um furo no tanque e gerou calor suficiente para incendiar a gasolina que começou a vazar. As chamas atingiram as duas turbinas do avião, que estavam logo atrás. Elas continuaram a funcionar, mas com menos potência, e espalhando o combustível em um rastro de 60 metros. O Concorde subiu. Os sistemas de segurança do avião detectaram então que a origem do fogo eram as turbinas – e não o tanque –, o que fez o piloto desligá-las e tentar um pouso de emergência com os motores que sobravam.
A falta das turbinas fez com que, segundos depois, o avião atingisse o ponto crítico em que o ar sob as asas não faz pressão suficiente para garantir a sustentação. O Concorde – o mais veloz avião de passageiros do mundo – caiu sobre um hotel em Paris. Foram 113 mortos – quatro deles estavam em terra –, um hotel em ruínas, um avião destruído. E tudo começou com um pedacinho de metal de nem 0,5 metro de comprimento.
Diagnóstico: azar. Certo? Talvez não. Claro que ninguém supunha que um simples pedaço de metal poderia derrubar um avião tão moderno. Mas acidentes como esse – em que uma sucessão de pequenas falhas insignificantes dá origem a enormes catástrofes – são corriqueiros. E, segundo os pesquisadores que estudam a chamada “teoria do caos, um dos ramos mais interessantes da Matemática, tendem a se tornar cada vez mais comuns. É como se estivesse funcionando a todo momento, na vida de todos nós, a Lei de Murphy, aquela segundo a qual “se uma coisa pode dar errado, ela dará, e na pior hora possível”.
A explicação para a prevalência cada vez maior da Lei de Murphy é que, pela teoria do caos, os riscos de que fatores insignificantes se transformem em tragédia aumentam à medida que aumenta a potência das fábricas, dos veículos e das máquinas. “Quanto mais energia você concentra em um espaço pequeno, maiores as conseqüências de qualquer ato”, diz Moacyr Duarte, especialista em contenção de catástrofes da Universidade Federal do Rio de Janeiro. Um acidente em uma fábrica no início do século XX poderia ser grave, mas não chega aos pés de um descuido em uma usina nuclear. Quanto maior a complexidade do sistema, mais elementos interagem entre si e maiores as chances de acidente.
Muitas vezes, os próprios equipamentos que cuidam da segurança aumentam a complexidade e acabam causando acidentes. Automatizar o gerenciamento de uma rede de trens, por exemplo, abre a possibilidade de as pessoas não estarem acostumadas com essas máquinas e as configurarem mal, ou de esses equipamentos quebrarem e levarem a colisões ou descarrilamentos. “É impossível eliminar todas as possibilidades de erro. O nosso trabalho consiste em reduzir o risco a níveis aceitáveis”, diz o engenheiro João Batista Camargo Júnior, da Universidade de São Paulo, que pesquisa formas de evitar acidentes em redes de transportes.
Da mesma forma, nossos equipamentos são compostos de várias partes que interagem, se movimentam e podem dar origem a momentos de instabilidade. É nesses momentos que a catástrofe fica mais próxima. As redes elétricas, que estão entre as construções mais complexas já feitas, podem absorver interferências corriqueiras como a queda de uma central. Mas, se essa falha acontecer em um momento de grande demanda, o sistema tende a chegar perto da área de instabilidade, bastando mais um empurrão para o desastre. Uma situação como essa aconteceu em janeiro, quando uma conexão entre Ilha Solteira e Araraquara, no interior de São Paulo, falhou em um momento de sobrecarga. Na tentativa de resolver o problema, outra linha na mesma região foi desligada, piorando a situação e jogando todo o sistema em uma instabilidade irreversível. Resultado: 11 Estados sem luz.
Fenômenos do mesmo tipo são encontrados em campos como engenharia, biologia, medicina, química e, principalmente, nos sistemas humanos. “Empresas e instituições financeiras são formadas por múltiplos agentes interagindo, trocando materiais e informações em uma dinâmica complexa. Às vezes, eles adquirem uma configuração tal em que basta uma fagulha para desencadear o desastre.
A dinâmica desses desastres parece desafiar a lógica da maioria das pessoas. “Quando indivíduos tentam resolver problemas complicados, trazem à tona um tipo de raciocínio que estimula erros. A partir daí, a situação se torna cada vez mais complexa e encoraja decisões que tornam as falhas ainda mais prováveis”, diz o psicólogo Dietrich Dörner, da Universidade de Bamberg, Alemanha, no livro The Logic of Failure (A lógica do fracasso, inédito no Brasil).

A teoria do caos
No século XVII, Isaac Newton mudou a ciência ao descobrir que alguns fenômenos da natureza poderiam ser explicados com leis matemáticas. A partir daí, muitos pesquisadores acreditaram que as leis poderiam explicar e prever o comportamento de todos os fenômenos se fossem reunidas informações suficientes. Até que, em 1961, o meteorologista Edward Lorenz, do Instituto de Tecnologia de Massachusetts (MIT), descobriu por acaso um dos mais importantes argumentos contra essa idéia. Ele havia programado um modelo, nos primitivos computadores da época, que simulava o movimento de ventos e de massas de ar. Um dia, quis repetir uma situação em seu programa e digitou os números correspondentes a ela, só que com algumas casas decimais a menos. Acreditava-se que essa ligeira imprecisão levaria a um resultado só um pouco diferente, mas ele se transformou totalmente. Era como se o bater de asas de uma borboleta na Ásia causasse, meses depois, um tornado na América.
Lorenz percebeu que seu modelo, embora construído com equações simples, poderia se tornar caótico e imprevisível. Nascia a “teoria do caos”. Pesquisas feitas depois mostraram que o “efeito borboleta”, como ficou conhecido, poderia ser encontrado em milhões de fenômenos, como o trânsito, o movimento de partículas em um líquido e as cotações da Bolsa. Cada um desses sistemas, apesar de obedecer a regras simples, pode adquirir infinitas configurações, de acordo com a influência de fatores aparentemente insignificantes – como casas decimais ou o bater das asas das borboletas. “A própria história funciona dessa forma”, diz o físico Celso Grebogi, da USP. “A modificação de um pequeno acontecimento séculos atrás poderia levar o mundo para uma outra situação”.

Como evitar desastres
Segundo o psicólogo alemão Dietrich Dörner, operar sistemas complexos é como jogar xadrez sem saber todas as regras, em um tabuleiro com peças amarradas entre si, onde movimentar um peão muda a posição de todas as outras figuras. Ele dá as dicas de como se dar bem nessas situações:
1. Defina objetivos
Saiba com clareza o que você quer fazer. Se for algo pouco específico, como “aumentar a produtividade da empresa”, procure desdobrar em outras metas, tomando o cuidado de não perder de vista o objetivo final. Evite objetivos contraditórios: saiba sempre qual deles é prioritário.
2. Crie um modelo
Estude os elementos do sistema e as relações entre eles, sem se confundir com detalhes excessivos nem reunir todos os fatores em uma explicação só. Entenda com0 o sistema funciona.
3. Faça previsões e extrapolações
Mais importante do que o estado atual de um sistema é a forma como ele tem evoluído. Uma dúzia de casos de uma doença infecciosa pode dar origem a uma epidemia em pouquíssimo tempo. Concentre-se nas tendências.
4. Planeje e execute as ações
Mas não sem antes imaginar quais serão os efeitos secundários de cada ato. Evite repetir uma solução vitoriosa para todos os casos. Os generais mais experientes foram os que mais sofreram baixas nas guerras do começo do século XX. Acostumados às guerras do século anterior, perderam todos os soldados quando a metralhadora foi inventada.
5. Analise os efeitos
Use suas ações como laboratório para saber se o modelo e a estratégia ainda são válidos. Se o trator não virou quando você girou o volante, problema: o modelo que você tinha do veículo precisa ser revisto urgentemente, antes que aquele muro chegue.