quarta-feira, 7 de abril de 2010

Matemática, lógica e misticismo


Pitágoras de Samos está entre os pensadores mais antigos de que se tem registro. Foi um grego que viveu mais de dois mil e quinhentos anos atrás. A ele é atribuída uma escola, hoje conhecida como Escola Pitagórica, cujos ensinamentos eram mantidos em absoluto segredo por seus discípulos. O conhecimento da Escola Pitagórica tinha um caráter hermético. Somente os iniciados tinham acesso. Com isso, muitas lendas surgiram sobre este importante pensador pré-socrático que influenciou tantos outros filósofos gregos, como Heráclito, Parmênides e Zenão. Tais lendas conferiam um ar de misticismo em torno de Pitágoras. E o pouco que se sabe hoje sobre ele apenas alimenta a imaginação dos mais afoitos. Pois aquilo que desconhecemos sempre teve um poder de sedução muito maior do que o conhecido. Esta sedução pode ter efeitos indesejáveis, como a mistificação em torno de pessoas e de idéias. Mas é também uma das forças motrizes que impulsiona o desenvolvimento da própria ciência.


Hoje em dia o conhecimento científico, muito modificado e amadurecido desde os tempos do filósofo de Samos, é produzido em grande parte nas instituições acadêmicas, como universidades e centros de pesquisa. Em geral não há regras impostas de sigilo sobre tal conhecimento, com a óbvia excessão de algumas patentes tecnológicas desenvolvidas em outro segmento importante da produção intelectual: empresas (privadas e estatais) e corporações. No entanto, o conhecimento das bases da ciência de hoje está acessível a praticamente quaisquer indivíduos da sociedade através de livros, revistas, internet, instituições de ensino, palestras e documentários.

Não obstante, mesmo o conhecimento científico básico ainda parece ter um forte caráter hermético e, por isso, às vezes ainda é visto de forma um tanto mística. Exemplos disso estão em documentários como O Segredo, Quem Somos Nós e Ponto de Mutação, nos quais uma disciplina como a mecânica quântica é vista como uma ferramenta de auto-ajuda e sob um prisma não-crítico, mas de revelação. O acesso ao conhecimento científico crítico não tem se mostrado tão democrático, mesmo nas sociedades mais desenvolvidas. Ainda existem porções significativas da população mundial que desconhecem o fato de que a Terra gira em torno do Sol. Isso acontece até mesmo em nações como os Estados Unidos, que contam com a maioria das melhores instituições de ensino superior do mundo. E pouco se sabe, fora de certos círculos do ambiente acadêmico ou de casos específicos de profissionais, sobre inúmeros outros conhecimentos básicos de ciência e seus respectivos impactos sobre o dia-a-dia do cidadão comum.

Parte da população leiga tem acompanhado pela mídia os avanços em ciências biológicas, como aqueles ligados à genética. Décadas atrás, a era nuclear também despertou a atenção do público leigo, dada a invenção da bomba atômica e o desenvolvimento de tecnologias que permitem dominar a energia associada à fusão e fissão de átomos. Mas uma educação fragmentada, sem uma devida contextualização, na qual uma pessoa estuda sobre epidemias e doenças contagiosas, mas pouco sabe sobre matemática, pode servir de base para preocupações descabidas e ações impensadas, como aquelas que passam pela cabeça da personagem fictícia Sofia da postagem anterior. Em parte, a culpa por esta situação reside no fato de que geralmente é muito difícil divulgar matemática ou mesmo educar em matemática, dado o fato de que a matemática quase sempre usa linguagens próprias que não são familiares para a maior parte da população. Quando um geneticista divulga em um jornal ou na televisão alguma descoberta importante em sua área, ele consegue fazer isso usando linguagens naturais, como o português ou o inglês. É claro que há termos técnicos que podem momentaneamente dificultar o entendimento. Mas a consulta a um bom dicionário técnico pode resolver rapidamente essa dificuldade. Isso porque os termos usados por um geneticista têm significado freqüentemente associável ao dia-a-dia do cidadão comum. O conceito de gene pode ser estranho para muitos. No entanto, as pessoas facilmente se identificam com a idéia de que características genéticas podem ser passadas através de gerações, podendo definir aspectos como cor dos olhos e até temperamento. Afinal, com freqüência as pessoas questionam se o recém nascido herdou os traços do pai ou da mãe. E a ideia de que um gene pode ser fisicamente descrito como uma parte fundamental em um ser vivo também apela para a noção de um todo que é formado por partes, algo muito intuitivo diante das experiências pessoais da maioria.

Em matemática isso não acontece de forma tão facilmente perceptível. A matemática faz uso constante de linguagens cujos termos não têm significado concreto e cujas regras gramaticais não são facilmente traduzíveis para um idioma como o português. Um exemplo dramático é o teorema de Banach-Tarski, segundo o qual uma esfera pode ser repartida em, digamos, cinco pedaços, os quais podem ser reagrupados sem deformações e sem que se deixem espaços vazios, de maneira a se formar duas esferas do mesmo tamanho da original. Ninguém espera cortar uma laranja em cinco pedaços e reuni-los de forma a se obter duas laranjas. Isso é contra-intuitivo, e qualquer tentativa prática resultará em fracasso. No entanto, no mundo abstrato da matemática esse resultado é uma conseqüência natural de pressupostos muito intuitivos, os quais ajudam a formular teorias que hoje encontram aplicações em ciências que freqüentemente lidam com o concreto, como a física. Mesmo assim, parte da dificuldade de se compreender intuitivamente um teorema como o de Banach-Tarski reside no fato de que não é correto traduzir o conceito de esfera para algo com o qual estamos acostumados em nosso mundo físico, como uma laranja ou mesmo uma bola de futebol. Esferas, em teorias usuais da matemática, não são arredondadas como bolas no mundo real. Elas não têm forma. Por isso, compreender o conceito de esfera na matemática é algo que demanda um esforço que vai além das intuições desenvolvidas a partir de nossas experiências no dia-a-dia.

Há um ramo do conhecimento científico, mais sensível ainda, que freqüentemente é subestimado ou ignorado pela mídia e, portanto, pela população em geral. É um ramo que é subestimado até mesmo em instituições de ensino fundamental, médio e superior, especialmente em nosso país. É uma área do saber que, apesar de extremamente abstrata, permitiu a concepção e o desenvolvimento dos modernos computadores, utensílios concretos que permitem fazer coisas concretas e extremamente relevantes. É uma área do conhecimento que permitiu e permite profundas e surpreendentes análises sobre os fundamentos, os alicerces, de ciências como a física, a economia, a lingüística, e até mesmo a matemática. Essa área do conhecimento fornece respostas sobre o alcance e os limites do próprio conhecimento científico. É uma área de estudo que tem encontrado aplicações em inteligência artificial, engenharia, medicina e mesmo direito. Este ramo do conhecimento científico se chama lógica.

A lógica, enquanto instrumento que ajuda a entender os fundamentos da matemática, pode ser mais abstrata ainda do que vastos ramos da própria matemática. Um teorema como o de Banach-Tarski é algo que não é possível provar em certos tipos de matemática. Mas é demonstrável em outros tipos. Para diferenciar uma situação da outra, faz-se necessária uma análise aprofundada do que se pode fazer e do que não é realizável no domínio da matemática. Este é um dos objetivos do estudo da lógica e dos fundamentos da matemática.

Existe a idéia comumente divulgada em dicionários, e mesmo em livros usados nas universidades, de que a lógica é um ramo da filosofia ou da matemática que trata das formas de pensamento em geral, como dedução e indução. Entre os tópicos abordados há assuntos como sofismas, silogismos, argumentos, entre outros. Mas essa visão é muito pobre nos dias de hoje. Encarar a lógica como o estudo de formas de pensamento é como tentar visualizar um iceberg, olhando somente para a sombra de sua pequena parte que desponta acima da superfície da água.

Tradicionalmente a lógica nasceu, de fato, como uma disciplina que se ocupa da compreensão de formas de inferência em um discurso, independentemente dos conteúdos de tal discurso. Um tipo de inferência bastante comum, conhecido como um caso especial de silogismo, pode ser descrito da seguinte maneira: se todo A é B e se C é A, então C é B. Por exemplo, se todo homem é mortal e se Pitágoras é homem, então Pitágoras é mortal. Outro exemplo seria o seguinte: se todo satélite natural é feito de queijo suíço e se a lua é um satélite natural, então a lua é feita de queijo suíço. As inferências feitas pelo silogismo são válidas (em um sentido que é tornado rigorosamente preciso pelos lógicos) independentemente do conteúdo do discurso. Não importa se é verdade ou não que a lua é feita de queijo suíço ou se Pitágoras era de fato mortal. O fato é que a partir de premissas como “todo satélite natural é feito de queijo suíço” e “a lua é um satélite natural”, pode-se deduzir que “a lua é feita de queijo suíço”. Pelo menos esse é um tipo de argumento ou dedução que é amplamente usado tanto no dia-a-dia de pessoas comuns que querem simplesmente argumentar em favor de suas ideias, quanto em atividades científicas como a defesa em favor de uma dada teoria. Argumentos desse tipo têm sido usados para nos ajudar a compreender o mundo no qual vivemos. E não são apenas cientistas que querem entender o mundo, mas o homem comum, o leigo, também deseja isso.

Com o passar de milênios, porém, a lógica ampliou seus domínios. É uma característica intrínseca do ser humano a busca por domínios cada vez maiores. O homem sempre gostou de conquistar territórios, seja através de guerras, de colonização, ou de outras iniciativas. A eterna insatisfação do ser humano o faz avançar por territórios e o faz sonhar com conquistas mais ousadas. Hoje em dia se sonha com a conquista do espaço, a colonização da Lua e de Marte, o domínio da fusão nuclear, a manipulação do código genético, o conhecimento dos mistérios da mente humana. A ficção científica, seja na literatura, no cinema ou na televisão, é um retrato parcial e poético dessa necessidade de se ampliar territórios, de se conquistar novos mundos. Um exemplo claro na matemática ocorre na história do desenvolvimento dos números. Grosso modo, o primeiro conjunto numérico a surgir foi o dos números naturais, os quais podem ser usados em processos de contagem, como 0, 1, 2, 3 etc. Era possível somá-los e multiplicá-los. E tais operações são úteis justamente no que se refere a contagem. Dez caixas contendo trinta laranjas, cada, correspondem a um total de trezentas laranjas. Mas não era possível subtraí-los. Isso porque um número natural subtraído de outro nem sempre resulta em um número natural. Quantas frutas correspondem a 10 menos 18? Os matemáticos então estenderam o domínio dos números naturais de modo a incluir números inteiros que admitiam sinais positivos e negativos. E assim veio também a interpretação física da operação 10 menos 18? Isso pode ser entendido como uma dívida de 8 frutas. Neste novo conjunto de números inteiros positivos e negativos é possível subtrair, mas ainda não é possível dividir. Algumas divisões entre números inteiros resultam em inteiros, mas nem todas. Foi então que o novo conjunto dos inteiros foi estendido para o dos números racionais, aqueles que podem ser representados na forma de frações com numerador e denominador inteiros, desde que o denominador seja diferente de zero. Para que fosse possível definir novas operações como raiz quadrada, raiz cúbica e outras, os números racionais acabaram sendo estendidos para os números reais e posteriormente para os números complexos. É claro que a história dos números não foi propriamente linear, como aqui se apresenta. Mas uma possível visão sobre seu desenvolvimento é a operacional, no sentido de se estender operações numéricas. O que diferencia um conjunto numérico de outro são essencialmente as operações que podem ser definidas sobre tais conjuntos. E essas operações são definidas por suas propriedades, hoje comumente conhecidas como axiomas, as quais auxiliaram mais ainda a matemática na conquista de domínios que não comprometem necessariamente com o mundo real. Curiosamente, matemáticos precisam definir operações, entre outros motivos, para que suas ideias sejam melhor aplicáveis ao mundo real, o qual tem exigido modelagens matemáticas cada vez mais elaboradas. Há, portanto, um fascinante emaranhamento entre o abstrato e o real no desenvolvimento de teorias matemáticas.

A lógica, como todo fenômeno social, não escapa à regra de ampliação de domínios. A lógica não é um agente estranho à sociedade. Ela é um fenômeno social. E assim como a proibição de subtração, divisão e outras operações entre números naturais foi uma tentação aos matemáticos para que eles saíssem daquele paraíso natural e invadissem novos territórios como os dos números inteiros, racionais, reais e complexos, as regras da lógica também despertam desconfianças entre pesquisadores. Lógicos querem saber como brincar com as regras, como transgredi-las em novos universos, como explorar esses novos mundos.

Os filósofos, desde a antiguidade, já haviam percebido que certos modos de pensamento poderiam ser formalizados de maneira independente dos conteúdos de um dado discurso. Estes mesmos filósofos começaram a perceber que havia uma distinção entre linguagem e lógica. As linguagens que foram naturalmente desenvolvidas ao longo de eras tinham conteúdo, tinham significado, tinham semântica. Mas a lógica, através de suas inferências, tinha vida própria. Diferentes povos poderiam raciocinar de maneira análoga, não importando o idioma que falam. Matemáticos perceberam que essas formas de pensamento poderiam ser descritas em linguagens artificiais criadas pelos próprios matemáticos, as quais eram, a princípio, desprovidas de significado concreto, de qualquer semântica usual.

Foi quando surgiram as primeiras propostas de algebrização da lógica, ou seja, a idéia de descrever tais formas de pensamento através de uma linguagem conhecida como álgebra. Muitos avanços importantes foram feitos nesse sentido. Mas com o passar do tempo, outros matemáticos começaram a questionar se a lógica não poderia ir além daquelas simples descrições algébricas de formas específicas de raciocínio. A algebrização da lógica parecia refletir, na opinião de alguns, um espírito de sistematização, de procedimentos efetivos, de algoritmos, pelo menos em certas formas de raciocínio. Será que não haveria a esperança de se criar máquinas que, de algum modo, pensassem?

O século 20 foi marcado por uma explosão de descobertas de extrema relevância na lógica. O matemático inglês Alan Turing, que ajudou o exército inglês a decifrar códigos de guerra nazistas, concebeu uma teoria lógico-matemática que descreve com rigor o que é, afinal, uma máquina capaz de executar um algoritmo. Outros pesquisadores propuseram ideias similares. Mas foi a obra de Turing que encontrou maior receptividade, dada a sua simplicidade e alcance. O trabalho abstrato de Turing viabilizou a concepção do primeiro computador eletrônico da história, protótipo dos modernos computadores que hoje se mostram como indispensáveis na sociedade contemporânea. Não importa se a máquina é um PC, um McIntosh, um videogame, um sistema de controle automatizado, um sistema de identificação eletrônica ou um computador de grande porte, a teoria matemática que justifica seu funcionamento e suas limitações é a mesma: aquela concebida na década de 1930 por Alan Turing, na forma de um artigo que não tinha sequer 40 páginas.

É claro que um texto com menos de 40 páginas não pode ser o responsável por toda a teoria da computação. Desenvolvimentos posteriores foram feitos, no sentido de se criar técnicas lógico-matemáticas, bem como novas tecnologias, que permitissem que máquinas reais conseguissem efetivamente realizar cada vez mais operações em cada vez menos tempo. Afinal, recursos tecnológicos e físicos limitados sempre demandam um processo de otimização de gerenciamento e processamento de dados. Mas o fato é que todas essas técnicas se sustentam nas ideias fundamentais de Turing. Todas as técnicas lógicas usadas para melhorar o desempenho de computadores devem estar contextualizadas nas idéias de Alan Turing sobre algoritmos e máquinas, o qual, diga-se, sonhava também com máquinas que pensam.

O impacto do trabalho de Turing é óbvio, tendo em vista que não se concebe o mundo de hoje sem computadores e micro-processadores.

Quando a revista Time fez, na última virada de milênio, a lista dos cem cientistas mais importantes do século 20, havia apenas dois matemáticos presentes. Um deles era Alan Turing. O outro, o austríaco Kurt Gödel. Os dois foram lógicos. A contribuição de Turing foi no estabelecimento de bases para o sistemático desenvolvimento da ciência da computação. Já a contribuição de Gödel foi algo que causou forte impacto na matemática pura.

Gödel ampliou os domínios da lógica de modo a permitir que certas teorias como a aritmética (teoria que fundamenta o abstrato conceito de número natural) pudessem ser estudadas no sentido de se responder quais eram os limites de dedução (inferência) delas. Ele teve que ser criativo, com técnicas de demonstração novas, mas que eram suficientemente razoáveis a ponto de fazer com que matemáticos rapidamente percebessem o impacto daquele resultado. O que, afinal, estava ao alcance de ser demonstrado em teorias como a aritmética? E o que elas definitivamente não poderiam deduzir? É claro que ninguém espera que uma teoria como a aritmética responda a questões sobre o sentido da vida, como cozinhar um ovo ou como ganhar na loteria. Mas o fato perturbador é que Gödel provou a existência de certas fórmulas da aritmética que a própria aritmética não tinha condições de provar ou refutar. Era como uma pessoa não saber o que fazer em um jogo meticulosamente criado por ela mesma. Matemáticos e lógicos conceberam teorias como a aritmética, esperando um comportamento e observando na prática outro.

Hoje em dia, não é apenas a aritmética que é analisada, no que se refere aos seus limites epistemológicos. Outras teorias também passam por testes similares, incluindo aspectos teóricos da física e da economia. O próprio Turing, com seu conceito lógico de algoritmo, já havia percebido a existência de problemas que poderiam ser formulados em uma linguagem adequada para a máquina, mas que não poderiam ser decididos por esta mesma máquina ou por qualquer outra. A matemática, enquanto sonhada por alguns de seus criadores, como uma ciência de deduções, de demonstrações, estava se revelando uma caixa de surpresas. A matemática foi concebida como um ambiente sob pleno controle, que não dependia da experiência para operar bem. E mesmo assim ela conseguiu surpreender com resultados que iam em desencontro ao desejo ou à intuição de muitos de seus criadores. Era como um filho pródigo a surpreender seus genitores, se revoltando contra seus pais. E essa característica, na prática, acaba tornando a lógica um desafio mais atraente ainda. É como se a investigação da lógica tivesse começado como uma investigação sobre formas de se pensar e, a partir de algum momento, ela começou a revelar aspectos até então ignorados sobre essas formas de se pensar, provocando grande perplexidade. Estudar lógica não parece ser uma atividade muito distante do estudo das entranhas do pensamento dos próprios lógicos e, conseqüentemente, do ser humano. Como a lógica tem se refletido de maneira significativa em nosso dia-a-dia, o estudo dela passa a refletir a intimidade de alguns dos processos mentais de todos nós.

Uma outra característica da lógica até a primeira metade do século 20 é que ela não sabia como "administrar" contradições. Na aritmética, por exemplo, é possível provar que 1 + 1 = 2. Mas não é possível provar que 1 + 1 = 3. Pelo contrário, é possível provar que 1 + 1 ≠ 3, o que é a negação da fórmula anterior. Se algum matemático quisesse criar uma nova aritmética na qual fosse possível provar que 1 + 1 = 2 e que 1 + 1 ≠ 2, ele teria um problema muito sério. Isso porque um competente colega poderia facilmente provar que qualquer fórmula desta nova teoria pode ser deduzida, ou seja, provada. Este é um resultado bem conhecido do ponto de vista da lógica clássica, a qual historicamente remonta a uma tradição aristotélica: se uma teoria admitir pelo menos uma fórmula F tal que F é teorema (é demonstrável) e a negação de F também é (isso resulta em uma contradição), então todas as fórmulas da teoria passam a ser teoremas também. E teorias nas quais todas as fórmulas ou afirmações podem ser provadas, não se figuram úteis. Afinal, somente se consagram na comunidade científica e na sociedade as teorias que permitem diferenciar o que é possível daquilo que não é possível. Imagine o leitor, qual seria a utilidade de uma teoria de gravitação que dissesse que os corpos caem sob a ação da gravidade, mas também não caem. Sob o prisma da lógica clássica, contradições apresentam efeitos devastadores sobre teorias inteiras. Uma maneira de se lidar com contradições é evitá-las. Mas mesmo essa postura cria dificuldades, pois em geral não há procedimentos efetivos que garantam que uma teoria qualquer é não-contraditória.

Insatisfeitos com essa restrição, alguns matemáticos pensaram em maneiras de mudar a lógica para permitir que certas contradições possam ocorrer sem que isso implique que todas as afirmações da teoria possam ser demonstradas. Ou seja, insatisfeitos com alguns dos limites da lógica que dominou a matemática até a primeira metade do século 20, alguns matemáticos decidiram ampliar os domínios dessa área do saber. Afinal, toda proibição é tentadora. E, na época, contradições eram de fato uma proibição. O que alguns queriam era uma lógica mais abrangente, que permitisse a existência de certas contradições, sem que isso resultasse em uma teoria que não encontre interesse ou aplicações. Essas lógicas passaram a se chamar de lógicas paraconsistentes e foram essencialmente concebidas pelo brasileiro Newton da Costa. Hoje em dia elas têm encontrado aplicações em diversas áreas da ciência e da tecnologia, demonstrando o impacto que um desafio à tradição pode causar.

A lógica tem se expandido no sentido de esclarecer conceitos até então vagos, como os de argumento, algoritmo e verdade, entre outros. Tem também se expandido no sentido de ser empregada como ferramenta para avaliar os limites de certos ramos do conhecimento científico, como ocorreu nos trabalhos de Gödel. Mas outra forma de expansão da lógica é através de sua penetração em demais áreas do conhecimento, e não apenas na matemática em si ou na ciência da computação.

Em 1900 o matemático alemão David Hilbert, o mais importante de sua época, chamou a atenção para uma lista de vinte e três problemas que ele considerava como sendo de extrema relevância para a futura matemática do século 20. Essa lista é muito famosa, sendo lembrada em livros e artigos especializados até os dias de hoje. Tal lista serviu para nortear muitas pesquisas de ponta realizadas no novo século. Alguns dos problemas de sua lista foram resolvidos por lógicos, dado o caráter das questões. O primeiro problema da lista, por exemplo, dizia respeito a teorias de conjuntos, assunto fundamentalmente lógico. O décimo era sobre equações diofantinas, que são equações definidas no domínio dos números inteiros. Apesar de ser assunto normalmente ligado à álgebra ou teoria dos números, acabou sendo resolvido por técnicas da lógica. Mas o sexto problema da lista tem mais a ver com a penetração da lógica e da matemática em outros domínios do conhecimento científico. Segundo o sexto problema de Hilbert, certas teorias da física poderiam passar por uma sistematização lógico-matemática em moldes parecidos com o tratamento que se dava na época à geometria. Era uma sistematização que Hilbert chamava de axiomatização. Ele sugeriu que certas teorias físicas eram candidatas naturais, como a mecânica e a teoria de probabilidades. A visão vigente sobre probabilidades, até então, era mais voltada ao seu significado intuitivo no mundo real, do que a uma devida fundamentação matemática. Décadas depois um matemático russo chamado Andrei Nicolaevich Kolmogorov conseguiu criar um tratamento lógico-matemático, em moldes parecidos com aqueles sugeridos por Hilbert, que fundamentava o conceito de probabilidade a partir de pouquíssimos princípios, os quais, por sinal, tinham um apelo intuitivo muito forte. Esse sistema é até hoje estudado e usado em áreas como matemática, economia, física, engenharias, geografia, estatística e outras.

Físicos, estatísticos, biólogos e demais profissionais que desenvolvem ou aplicam ciência, precisam de uma sólida base para o conceito de probabilidade. Afinal, a qualidade de seus trabalhos depende disso, para que tais profissionais não tirem conclusões equivocadas no momento em que eles mais precisam do conceito de probabilidade. Mas mesmo o cidadão comum, que apesar de não se tratar de alguém que precise saber o que são probabilidades para seu trabalho ou sua vida pessoal, também deve ter um conhecimento básico, porém sólido, sobre o que é uma probabilidade. Esse tipo de formação básica pode ajudar a evitar mal-entendidos e atitudes impensadas.

O que percebemos nas escolas de nosso país é um atraso significativo para acompanhar os desenvolvimentos da matemática. Conteúdos como biologia, geografia, português, inglês, história e química são constantemente atualizados em livros e apostilas. Mas a matemática ainda é tratada nos ensinos fundamental e médio como um conhecimento que se esgotou séculos atrás, como algo indiscutível e uma verdade inquestionável.
 
A própria visão da essência da matemática em nossas escolas não apenas está desatualizada, como também se apresenta na forma de uma colcha de retalhos com conteúdos não relacionados entre si. Esse tipo de postura é reflexo da falta de transposição de conhecimentos matemáticos hodiernos para uma linguagem acessível às nossas crianças e jovens. Isso porque a cultura matemática da maioria de nossos autores de livros e apostilas de matemática é insípida, preconceituosa e dogmática.
 
Matemática não é misticismo. O mirabolante misticismo de Pitágoras é tão somente uma lenda. A concepção de que o mundo é governado pela matemática é apenas mais um caminho para essa irracional mistificação. Precisamos de uma matemática enquanto exercício de tirocínio crítico e não de doutrinação patrocinada e empreendida por professores e autores ignorantes. E uma forma da encaminhar uma educação dessa natureza é através de uma política educacional meritocrática que premie profissionais do ensino de reconhecida competência.

segunda-feira, 5 de abril de 2010

Histórias e probabilidades


Sofia é uma bela jovem que pratica yoga três vezes por semana, é vegetariana, não fuma e só consome bebida alcoólica com moderação. Um dia ela decide realizar um exame clínico. Sofia leu em um jornal que já surgiram vítimas no mundo inteiro - com um caso no Brasil - de uma nova forma de gripe que é rara, mas pode ser fatal. É uma gripe que tem contaminado uma a cada 10.000 pessoas nos países onde a doença está presente, através de verduras e cereais, os quais são agentes transmissores. Como ela está com uma leve, mas insistente, dor de cabeça, decide fazer uma consulta com sua médica, Dr.a Cassandra.


Cassandra: “Não se preocupe por antecipação, Sofia. Essa gripe é rara, e o teste para diagnóstico é muito seguro. Ele tem um índice de acerto de 99%. Mesmo assim, quero que me mantenha o tempo todo informada sobre quaisquer alterações em seu estado de saúde. Por enquanto não vou receitar coisa alguma para sua dor de cabeça, já que ela nem é tão forte assim. Desse modo poderemos acompanhar o desenvolvimento de eventuais sintomas.”

Sofia: “OK. Quando a senhora diz que o índice de acerto do exame é de 99%, isso quer dizer que em 99% dos casos o teste fornece um resultado verdadeiro, seja positivo ou negativo. É isso?”

Cassandra: “É, é isso mesmo. Somente para uma a cada cem pessoas que o teste erra, dando um falso positivo ou um falso negativo. É o exame que o mundo todo está usando. Vou indicá-la para um laboratório muito bom.”

Sofia faz o exame no laboratório indicado pela médica e o resultado é positivo. Sofia fica seriamente preocupada. Mais que preocupada, ela fica estressada. Já começa a lamentar por não ter uma dieta limitada a massas, pelo menos enquanto a doença não é controlada pela Saúde Pública. Ela percebe que sua dor de cabeça voltou mais forte. Retorna à Dra. Cassandra, a qual a examina e diz que Sofia não tem sintoma algum da gripe, com exceção da dor de cabeça.

Cassandra: “Se você estivesse com o vírus, a essa altura outros sintomas já teriam se desenvolvido. O vírus, uma vez no corpo, provoca alguns dos sintomas mais graves em poucos dias.”

Sofia conversa com um amigo, Pascal, sobre uma possível ação judicial contra o laboratório, por danos morais. Afinal, o estresse que ela sofreu com o falso positivo, prejudicou seu trabalho e sua vida pessoal. Dra. Cassandra diagnosticou a dor de cabeça de Sofia como somatização das excessivas preocupações de Sofia. Já na opinião de Sofia, o Brasil é um país que não conhece direito a nova gripe e, por isso, o laboratório deve ter sido incompetente ao se propor a fazer um exame sobre o qual não estava qualificado a fazer. Afinal, não são tantas as pessoas que fazem esse exame, uma vez que a doença praticamente inexiste no país. Não é possível que justamente com ela o laboratório foi cair na margem de erro do teste, pensou Sofia.

Pascal percebe que Sofia está sendo irracional.

...

Essa história de Sofia é bastante parecida com muitas outras que conhecemos, testemunhamos ou até vivenciamos. Estamos mergulhados em um mundo no qual inúmeras ações e julgamentos admitem margem de erro inerente, como um campeonato de tiro ao alvo, o testemunho de pessoas sobre algum evento supostamente real, exame de DNA para fins de determinação de paternidade ou um diagnóstico médico.

No entanto, mesmo o conhecimento científico básico, como as noções elementares de probabilidade obviamente pouco dominadas pela jovem Sofia, ainda parece ter um forte caráter hermético e, por isso, às vezes ainda é visto de forma um tanto confusa.

...

Pascal explica a Sofia.

Pascal: “Não acho uma boa idéia essa ação na Justiça. O laboratório não foi necessariamente negligente ou incompetente, se seu único argumento é apenas o falso positivo. Se quiser processar o laboratório, precisará de alguma base argumentativa mais sólida. Em primeiro lugar, você sabia que havia a probabilidade de erro na análise. Isso, por si só, já é motivo para repensar qualquer ação judicial. Mesmo assim, você deve ponderar com muito cuidado o que realmente significa uma margem de erro de 1%, em um país como o Brasil, no qual a doença praticamente não existe. Segundo dados internacionais, uma em cada 10.000 pessoas fica contaminada nos países onde a doença se mostra presente, certo? Isso significa que apenas cerca de cem pessoas em cada milhão têm o vírus no corpo, em tais países. E com 1% de probabilidade de erro, o teste aplicado a um milhão de pessoas falhará para cerca de dez mil pessoas, sejam contaminadas ou não. Dessas dez mil pessoas, apenas uma, em média, tem o vírus. Ou seja, cerca de 9.999 pessoas a cada milhão diagnosticado terão falsos positivos. Em um país praticamente livre da doença, como o nosso, o total de falsos positivos pode chegar a dez mil. Ou seja, a proporção de falsos positivos seria maior do que a de falsos negativos. Uma coisa é a probabilidade de o teste dizer que você está com o vírus, quando realmente está. Outra é a probabilidade de você estar com o vírus, quando o teste disser que está. São dois números calculados de formas diferentes. Você precisaria conhecer um pouco sobre probabilidades, antes de emitir julgamentos precipitados. Os mais precisos testes freqüentemente fornecem falsos positivos em populações saudáveis nas quais a doença é muito rara. Por mais preciso que seja um teste, ele é muito mais confiável em populações de risco do que em populações saudáveis, como é o caso do Brasil, que teve apenas um registro oficial de pessoa contaminada. De maneira análoga, testemunhos idôneos sobre eventos raros são muito menos confiáveis do que testemunhos sobre fenômenos comuns, ainda que fornecidos pelas mesmas pessoas; assim como as chances de um profissional do tiro se destacar entre amigos não-profissionais são muito maiores do que as chances de ele se destacar entre outros profissionais do tiro. Margens de erro em testemunhos de cidadãos idôneos jamais podem ser avaliadas separadamente da probabilidade de real ocorrência do evento testemunhado. Por isso, se um indivíduo confiável diz ter avistado no céu uma nave extraterrestre ou a Virgem Maria, fica muito difícil considerar tal testemunho como realmente confiável, uma vez que não se conhece a probabilidade de real ocorrência de eventos como esses. Isso é muito diferente da confiabilidade de um testemunho de assalto ou assassinato, eventos cujas probabilidades de ocorrência são mais ou menos conhecidas. Margens de erro em diagnósticos jamais podem ser avaliadas separadamente da probabilidade de incidência real de doenças. Você, Sofia, foi vítima de um falso positivo em um país no qual a tal da gripe é raríssima.”

...
Se Sofia entendeu os argumentos de Pascal, deixo isso a cargo do leitor. Para tanto basta se colocar no lugar dela. Ou seja, coloco o leitor no papel de Sofia.

Se Sofia pensar somente em termos de probabilidade de erro de diagnóstico de apenas 1%, ela pode ainda insistir que as chances de erro de exame laboratorial extrapolam o fato de que justamente com ela o exame foi falhar. Como no Brasil não há acompanhamento estatístico sistemático de erros médicos e laboratoriais, qualquer sensação de desconforto pode facilmente se transformar em paranóia. No entanto, se Sofia perceber que teoria de probabilidades não é um luxo intelectual, mas que encontra aplicações fundamentais na vida diária de todos nós, ela poderá compreender que um processo judicial com base em seu raciocínio anterior só pode causar danos a todos os envolvidos.

Em teoria das decisões sabe-se que a boa decisão não é aquela que gera bons resultados, mas aquela que foi tomada em bases racionais. Se uma loteria, por exemplo, paga um milhão de reais para cada real investido, mas com probabilidades de acerto de apenas uma a cada cinqüenta milhões de tentativas, percebe-se que jogar em loteria não é uma boa decisão. Mesmo que um apostador ganhe o tão sonhado prêmio, ainda foi uma decisão ruim. E, na prática, todos os apostadores tomam decisões ruins. Daí o ditado “a casa sempre vence.” Ou seja, o fato de ocasionalmente haver ganhadores de prêmios de loterias apenas alimenta o sonho irracional de ficar milionário do dia para a noite, fazendo com que milhões de apostadores tomem decisões com bases emocionais e não racionais. Um governo federal que alimente tal sistema não apenas está iludindo seu próprio povo, como está em franco desencontro àquilo que deveria ser ensinado nas escolas de maneira ostensiva e competente: teoria de probabilidades.

Para o leitor deste blog que estiver interessado em uma abordagem suave, mas altamente precisa e profunda do uso de probabilidades no dia-a-dia, recomendo o livro de Ian Hacking, An Introduction to Probability and Inductive Logic (Cambridge, Cambridge University Press, 2001).

Teoria de probabilidades é assunto extremamente complicado e demanda conhecimento profundo de matemática. No entanto, a obra de Hacking consegue viabilizar noções elementares, úteis e aprofundadas mesmo para o leitor com pouca familiaridade em matemática. A transposição competente de teoria de probabilidades para o ensino médio ainda não aconteceu de forma sistemática em nosso país. No entanto, noções precisas e úteis sobre probabilidades deveriam ser lecionadas em nossas escolas para que tenhamos chances de contar com novas gerações de cidadãos mais independentes, críticos e capazes de construir um país melhor.