Complexidade técnica, risco e psicologia humana

David Brooks, numa coluna de opinião no The New York Times, há pouco mais de duas semanas:

Ao longo das últimas décadas, passámos a depender de um conjunto intrincado de sistemas de alta tecnologia. Estes sistemas de hardware e software são essenciais para os mercados financeiros, para a exploração de energia, exploração do espaço, viagens aéreas, programas de defesa e para as fábricas mais modernas.

Estes sistemas, que nos permitem viver como vivemos, são demasiado complexos para serem compreendidos por uma única pessoa. No entanto, todos os dias, é pedido a indivíduos que monitorizem o funcionamento destas redes, pesem os riscos de uma falha nos sistemas, e tomem medidas adequadas para reduzir esses riscos.

Se há uma coisa que [já] aprendemos, é que os humanos não são bons a medir e responder ao risco quando são colocados em situações demasiado complexas para serem compreendidas.

in Drilling for Certainty, um artigo que é, na minha opinião, enlightening, e que vale os 10 minutos que vão passar a lê-lo, sobretudo pelas razões que são apresentadas para justificar a resposta humana, a psicologia subjacente nessa resposta, quando somos confrontados com situações que requerem uma avaliação do risco. Go read.

(Post-Scriptum Uma das razões que suportam decisões no IT que são contrárias a uma gestão do risco adequada, é precisamente a que é apresentada pelo autor numa referência a Richard Feynman — Tal como numa Roleta Russa, é fácil ajustarmos o nosso cérebro: se não aconteceu até agora, provavelmente não vai acontecer nada a segu... ¡¡BUUUMM!! )