quarta-feira, 7 de abril de 2010

Matemática, lógica e misticismo


Pitágoras de Samos está entre os pensadores mais antigos de que se tem registro. Foi um grego que viveu mais de dois mil e quinhentos anos atrás. A ele é atribuída uma escola, hoje conhecida como Escola Pitagórica, cujos ensinamentos eram mantidos em absoluto segredo por seus discípulos. O conhecimento da Escola Pitagórica tinha um caráter hermético. Somente os iniciados tinham acesso. Com isso, muitas lendas surgiram sobre este importante pensador pré-socrático que influenciou tantos outros filósofos gregos, como Heráclito, Parmênides e Zenão. Tais lendas conferiam um ar de misticismo em torno de Pitágoras. E o pouco que se sabe hoje sobre ele apenas alimenta a imaginação dos mais afoitos. Pois aquilo que desconhecemos sempre teve um poder de sedução muito maior do que o conhecido. Esta sedução pode ter efeitos indesejáveis, como a mistificação em torno de pessoas e de idéias. Mas é também uma das forças motrizes que impulsiona o desenvolvimento da própria ciência.


Hoje em dia o conhecimento científico, muito modificado e amadurecido desde os tempos do filósofo de Samos, é produzido em grande parte nas instituições acadêmicas, como universidades e centros de pesquisa. Em geral não há regras impostas de sigilo sobre tal conhecimento, com a óbvia excessão de algumas patentes tecnológicas desenvolvidas em outro segmento importante da produção intelectual: empresas (privadas e estatais) e corporações. No entanto, o conhecimento das bases da ciência de hoje está acessível a praticamente quaisquer indivíduos da sociedade através de livros, revistas, internet, instituições de ensino, palestras e documentários.

Não obstante, mesmo o conhecimento científico básico ainda parece ter um forte caráter hermético e, por isso, às vezes ainda é visto de forma um tanto mística. Exemplos disso estão em documentários como O Segredo, Quem Somos Nós e Ponto de Mutação, nos quais uma disciplina como a mecânica quântica é vista como uma ferramenta de auto-ajuda e sob um prisma não-crítico, mas de revelação. O acesso ao conhecimento científico crítico não tem se mostrado tão democrático, mesmo nas sociedades mais desenvolvidas. Ainda existem porções significativas da população mundial que desconhecem o fato de que a Terra gira em torno do Sol. Isso acontece até mesmo em nações como os Estados Unidos, que contam com a maioria das melhores instituições de ensino superior do mundo. E pouco se sabe, fora de certos círculos do ambiente acadêmico ou de casos específicos de profissionais, sobre inúmeros outros conhecimentos básicos de ciência e seus respectivos impactos sobre o dia-a-dia do cidadão comum.

Parte da população leiga tem acompanhado pela mídia os avanços em ciências biológicas, como aqueles ligados à genética. Décadas atrás, a era nuclear também despertou a atenção do público leigo, dada a invenção da bomba atômica e o desenvolvimento de tecnologias que permitem dominar a energia associada à fusão e fissão de átomos. Mas uma educação fragmentada, sem uma devida contextualização, na qual uma pessoa estuda sobre epidemias e doenças contagiosas, mas pouco sabe sobre matemática, pode servir de base para preocupações descabidas e ações impensadas, como aquelas que passam pela cabeça da personagem fictícia Sofia da postagem anterior. Em parte, a culpa por esta situação reside no fato de que geralmente é muito difícil divulgar matemática ou mesmo educar em matemática, dado o fato de que a matemática quase sempre usa linguagens próprias que não são familiares para a maior parte da população. Quando um geneticista divulga em um jornal ou na televisão alguma descoberta importante em sua área, ele consegue fazer isso usando linguagens naturais, como o português ou o inglês. É claro que há termos técnicos que podem momentaneamente dificultar o entendimento. Mas a consulta a um bom dicionário técnico pode resolver rapidamente essa dificuldade. Isso porque os termos usados por um geneticista têm significado freqüentemente associável ao dia-a-dia do cidadão comum. O conceito de gene pode ser estranho para muitos. No entanto, as pessoas facilmente se identificam com a idéia de que características genéticas podem ser passadas através de gerações, podendo definir aspectos como cor dos olhos e até temperamento. Afinal, com freqüência as pessoas questionam se o recém nascido herdou os traços do pai ou da mãe. E a ideia de que um gene pode ser fisicamente descrito como uma parte fundamental em um ser vivo também apela para a noção de um todo que é formado por partes, algo muito intuitivo diante das experiências pessoais da maioria.

Em matemática isso não acontece de forma tão facilmente perceptível. A matemática faz uso constante de linguagens cujos termos não têm significado concreto e cujas regras gramaticais não são facilmente traduzíveis para um idioma como o português. Um exemplo dramático é o teorema de Banach-Tarski, segundo o qual uma esfera pode ser repartida em, digamos, cinco pedaços, os quais podem ser reagrupados sem deformações e sem que se deixem espaços vazios, de maneira a se formar duas esferas do mesmo tamanho da original. Ninguém espera cortar uma laranja em cinco pedaços e reuni-los de forma a se obter duas laranjas. Isso é contra-intuitivo, e qualquer tentativa prática resultará em fracasso. No entanto, no mundo abstrato da matemática esse resultado é uma conseqüência natural de pressupostos muito intuitivos, os quais ajudam a formular teorias que hoje encontram aplicações em ciências que freqüentemente lidam com o concreto, como a física. Mesmo assim, parte da dificuldade de se compreender intuitivamente um teorema como o de Banach-Tarski reside no fato de que não é correto traduzir o conceito de esfera para algo com o qual estamos acostumados em nosso mundo físico, como uma laranja ou mesmo uma bola de futebol. Esferas, em teorias usuais da matemática, não são arredondadas como bolas no mundo real. Elas não têm forma. Por isso, compreender o conceito de esfera na matemática é algo que demanda um esforço que vai além das intuições desenvolvidas a partir de nossas experiências no dia-a-dia.

Há um ramo do conhecimento científico, mais sensível ainda, que freqüentemente é subestimado ou ignorado pela mídia e, portanto, pela população em geral. É um ramo que é subestimado até mesmo em instituições de ensino fundamental, médio e superior, especialmente em nosso país. É uma área do saber que, apesar de extremamente abstrata, permitiu a concepção e o desenvolvimento dos modernos computadores, utensílios concretos que permitem fazer coisas concretas e extremamente relevantes. É uma área do conhecimento que permitiu e permite profundas e surpreendentes análises sobre os fundamentos, os alicerces, de ciências como a física, a economia, a lingüística, e até mesmo a matemática. Essa área do conhecimento fornece respostas sobre o alcance e os limites do próprio conhecimento científico. É uma área de estudo que tem encontrado aplicações em inteligência artificial, engenharia, medicina e mesmo direito. Este ramo do conhecimento científico se chama lógica.

A lógica, enquanto instrumento que ajuda a entender os fundamentos da matemática, pode ser mais abstrata ainda do que vastos ramos da própria matemática. Um teorema como o de Banach-Tarski é algo que não é possível provar em certos tipos de matemática. Mas é demonstrável em outros tipos. Para diferenciar uma situação da outra, faz-se necessária uma análise aprofundada do que se pode fazer e do que não é realizável no domínio da matemática. Este é um dos objetivos do estudo da lógica e dos fundamentos da matemática.

Existe a idéia comumente divulgada em dicionários, e mesmo em livros usados nas universidades, de que a lógica é um ramo da filosofia ou da matemática que trata das formas de pensamento em geral, como dedução e indução. Entre os tópicos abordados há assuntos como sofismas, silogismos, argumentos, entre outros. Mas essa visão é muito pobre nos dias de hoje. Encarar a lógica como o estudo de formas de pensamento é como tentar visualizar um iceberg, olhando somente para a sombra de sua pequena parte que desponta acima da superfície da água.

Tradicionalmente a lógica nasceu, de fato, como uma disciplina que se ocupa da compreensão de formas de inferência em um discurso, independentemente dos conteúdos de tal discurso. Um tipo de inferência bastante comum, conhecido como um caso especial de silogismo, pode ser descrito da seguinte maneira: se todo A é B e se C é A, então C é B. Por exemplo, se todo homem é mortal e se Pitágoras é homem, então Pitágoras é mortal. Outro exemplo seria o seguinte: se todo satélite natural é feito de queijo suíço e se a lua é um satélite natural, então a lua é feita de queijo suíço. As inferências feitas pelo silogismo são válidas (em um sentido que é tornado rigorosamente preciso pelos lógicos) independentemente do conteúdo do discurso. Não importa se é verdade ou não que a lua é feita de queijo suíço ou se Pitágoras era de fato mortal. O fato é que a partir de premissas como “todo satélite natural é feito de queijo suíço” e “a lua é um satélite natural”, pode-se deduzir que “a lua é feita de queijo suíço”. Pelo menos esse é um tipo de argumento ou dedução que é amplamente usado tanto no dia-a-dia de pessoas comuns que querem simplesmente argumentar em favor de suas ideias, quanto em atividades científicas como a defesa em favor de uma dada teoria. Argumentos desse tipo têm sido usados para nos ajudar a compreender o mundo no qual vivemos. E não são apenas cientistas que querem entender o mundo, mas o homem comum, o leigo, também deseja isso.

Com o passar de milênios, porém, a lógica ampliou seus domínios. É uma característica intrínseca do ser humano a busca por domínios cada vez maiores. O homem sempre gostou de conquistar territórios, seja através de guerras, de colonização, ou de outras iniciativas. A eterna insatisfação do ser humano o faz avançar por territórios e o faz sonhar com conquistas mais ousadas. Hoje em dia se sonha com a conquista do espaço, a colonização da Lua e de Marte, o domínio da fusão nuclear, a manipulação do código genético, o conhecimento dos mistérios da mente humana. A ficção científica, seja na literatura, no cinema ou na televisão, é um retrato parcial e poético dessa necessidade de se ampliar territórios, de se conquistar novos mundos. Um exemplo claro na matemática ocorre na história do desenvolvimento dos números. Grosso modo, o primeiro conjunto numérico a surgir foi o dos números naturais, os quais podem ser usados em processos de contagem, como 0, 1, 2, 3 etc. Era possível somá-los e multiplicá-los. E tais operações são úteis justamente no que se refere a contagem. Dez caixas contendo trinta laranjas, cada, correspondem a um total de trezentas laranjas. Mas não era possível subtraí-los. Isso porque um número natural subtraído de outro nem sempre resulta em um número natural. Quantas frutas correspondem a 10 menos 18? Os matemáticos então estenderam o domínio dos números naturais de modo a incluir números inteiros que admitiam sinais positivos e negativos. E assim veio também a interpretação física da operação 10 menos 18? Isso pode ser entendido como uma dívida de 8 frutas. Neste novo conjunto de números inteiros positivos e negativos é possível subtrair, mas ainda não é possível dividir. Algumas divisões entre números inteiros resultam em inteiros, mas nem todas. Foi então que o novo conjunto dos inteiros foi estendido para o dos números racionais, aqueles que podem ser representados na forma de frações com numerador e denominador inteiros, desde que o denominador seja diferente de zero. Para que fosse possível definir novas operações como raiz quadrada, raiz cúbica e outras, os números racionais acabaram sendo estendidos para os números reais e posteriormente para os números complexos. É claro que a história dos números não foi propriamente linear, como aqui se apresenta. Mas uma possível visão sobre seu desenvolvimento é a operacional, no sentido de se estender operações numéricas. O que diferencia um conjunto numérico de outro são essencialmente as operações que podem ser definidas sobre tais conjuntos. E essas operações são definidas por suas propriedades, hoje comumente conhecidas como axiomas, as quais auxiliaram mais ainda a matemática na conquista de domínios que não comprometem necessariamente com o mundo real. Curiosamente, matemáticos precisam definir operações, entre outros motivos, para que suas ideias sejam melhor aplicáveis ao mundo real, o qual tem exigido modelagens matemáticas cada vez mais elaboradas. Há, portanto, um fascinante emaranhamento entre o abstrato e o real no desenvolvimento de teorias matemáticas.

A lógica, como todo fenômeno social, não escapa à regra de ampliação de domínios. A lógica não é um agente estranho à sociedade. Ela é um fenômeno social. E assim como a proibição de subtração, divisão e outras operações entre números naturais foi uma tentação aos matemáticos para que eles saíssem daquele paraíso natural e invadissem novos territórios como os dos números inteiros, racionais, reais e complexos, as regras da lógica também despertam desconfianças entre pesquisadores. Lógicos querem saber como brincar com as regras, como transgredi-las em novos universos, como explorar esses novos mundos.

Os filósofos, desde a antiguidade, já haviam percebido que certos modos de pensamento poderiam ser formalizados de maneira independente dos conteúdos de um dado discurso. Estes mesmos filósofos começaram a perceber que havia uma distinção entre linguagem e lógica. As linguagens que foram naturalmente desenvolvidas ao longo de eras tinham conteúdo, tinham significado, tinham semântica. Mas a lógica, através de suas inferências, tinha vida própria. Diferentes povos poderiam raciocinar de maneira análoga, não importando o idioma que falam. Matemáticos perceberam que essas formas de pensamento poderiam ser descritas em linguagens artificiais criadas pelos próprios matemáticos, as quais eram, a princípio, desprovidas de significado concreto, de qualquer semântica usual.

Foi quando surgiram as primeiras propostas de algebrização da lógica, ou seja, a idéia de descrever tais formas de pensamento através de uma linguagem conhecida como álgebra. Muitos avanços importantes foram feitos nesse sentido. Mas com o passar do tempo, outros matemáticos começaram a questionar se a lógica não poderia ir além daquelas simples descrições algébricas de formas específicas de raciocínio. A algebrização da lógica parecia refletir, na opinião de alguns, um espírito de sistematização, de procedimentos efetivos, de algoritmos, pelo menos em certas formas de raciocínio. Será que não haveria a esperança de se criar máquinas que, de algum modo, pensassem?

O século 20 foi marcado por uma explosão de descobertas de extrema relevância na lógica. O matemático inglês Alan Turing, que ajudou o exército inglês a decifrar códigos de guerra nazistas, concebeu uma teoria lógico-matemática que descreve com rigor o que é, afinal, uma máquina capaz de executar um algoritmo. Outros pesquisadores propuseram ideias similares. Mas foi a obra de Turing que encontrou maior receptividade, dada a sua simplicidade e alcance. O trabalho abstrato de Turing viabilizou a concepção do primeiro computador eletrônico da história, protótipo dos modernos computadores que hoje se mostram como indispensáveis na sociedade contemporânea. Não importa se a máquina é um PC, um McIntosh, um videogame, um sistema de controle automatizado, um sistema de identificação eletrônica ou um computador de grande porte, a teoria matemática que justifica seu funcionamento e suas limitações é a mesma: aquela concebida na década de 1930 por Alan Turing, na forma de um artigo que não tinha sequer 40 páginas.

É claro que um texto com menos de 40 páginas não pode ser o responsável por toda a teoria da computação. Desenvolvimentos posteriores foram feitos, no sentido de se criar técnicas lógico-matemáticas, bem como novas tecnologias, que permitissem que máquinas reais conseguissem efetivamente realizar cada vez mais operações em cada vez menos tempo. Afinal, recursos tecnológicos e físicos limitados sempre demandam um processo de otimização de gerenciamento e processamento de dados. Mas o fato é que todas essas técnicas se sustentam nas ideias fundamentais de Turing. Todas as técnicas lógicas usadas para melhorar o desempenho de computadores devem estar contextualizadas nas idéias de Alan Turing sobre algoritmos e máquinas, o qual, diga-se, sonhava também com máquinas que pensam.

O impacto do trabalho de Turing é óbvio, tendo em vista que não se concebe o mundo de hoje sem computadores e micro-processadores.

Quando a revista Time fez, na última virada de milênio, a lista dos cem cientistas mais importantes do século 20, havia apenas dois matemáticos presentes. Um deles era Alan Turing. O outro, o austríaco Kurt Gödel. Os dois foram lógicos. A contribuição de Turing foi no estabelecimento de bases para o sistemático desenvolvimento da ciência da computação. Já a contribuição de Gödel foi algo que causou forte impacto na matemática pura.

Gödel ampliou os domínios da lógica de modo a permitir que certas teorias como a aritmética (teoria que fundamenta o abstrato conceito de número natural) pudessem ser estudadas no sentido de se responder quais eram os limites de dedução (inferência) delas. Ele teve que ser criativo, com técnicas de demonstração novas, mas que eram suficientemente razoáveis a ponto de fazer com que matemáticos rapidamente percebessem o impacto daquele resultado. O que, afinal, estava ao alcance de ser demonstrado em teorias como a aritmética? E o que elas definitivamente não poderiam deduzir? É claro que ninguém espera que uma teoria como a aritmética responda a questões sobre o sentido da vida, como cozinhar um ovo ou como ganhar na loteria. Mas o fato perturbador é que Gödel provou a existência de certas fórmulas da aritmética que a própria aritmética não tinha condições de provar ou refutar. Era como uma pessoa não saber o que fazer em um jogo meticulosamente criado por ela mesma. Matemáticos e lógicos conceberam teorias como a aritmética, esperando um comportamento e observando na prática outro.

Hoje em dia, não é apenas a aritmética que é analisada, no que se refere aos seus limites epistemológicos. Outras teorias também passam por testes similares, incluindo aspectos teóricos da física e da economia. O próprio Turing, com seu conceito lógico de algoritmo, já havia percebido a existência de problemas que poderiam ser formulados em uma linguagem adequada para a máquina, mas que não poderiam ser decididos por esta mesma máquina ou por qualquer outra. A matemática, enquanto sonhada por alguns de seus criadores, como uma ciência de deduções, de demonstrações, estava se revelando uma caixa de surpresas. A matemática foi concebida como um ambiente sob pleno controle, que não dependia da experiência para operar bem. E mesmo assim ela conseguiu surpreender com resultados que iam em desencontro ao desejo ou à intuição de muitos de seus criadores. Era como um filho pródigo a surpreender seus genitores, se revoltando contra seus pais. E essa característica, na prática, acaba tornando a lógica um desafio mais atraente ainda. É como se a investigação da lógica tivesse começado como uma investigação sobre formas de se pensar e, a partir de algum momento, ela começou a revelar aspectos até então ignorados sobre essas formas de se pensar, provocando grande perplexidade. Estudar lógica não parece ser uma atividade muito distante do estudo das entranhas do pensamento dos próprios lógicos e, conseqüentemente, do ser humano. Como a lógica tem se refletido de maneira significativa em nosso dia-a-dia, o estudo dela passa a refletir a intimidade de alguns dos processos mentais de todos nós.

Uma outra característica da lógica até a primeira metade do século 20 é que ela não sabia como "administrar" contradições. Na aritmética, por exemplo, é possível provar que 1 + 1 = 2. Mas não é possível provar que 1 + 1 = 3. Pelo contrário, é possível provar que 1 + 1 ≠ 3, o que é a negação da fórmula anterior. Se algum matemático quisesse criar uma nova aritmética na qual fosse possível provar que 1 + 1 = 2 e que 1 + 1 ≠ 2, ele teria um problema muito sério. Isso porque um competente colega poderia facilmente provar que qualquer fórmula desta nova teoria pode ser deduzida, ou seja, provada. Este é um resultado bem conhecido do ponto de vista da lógica clássica, a qual historicamente remonta a uma tradição aristotélica: se uma teoria admitir pelo menos uma fórmula F tal que F é teorema (é demonstrável) e a negação de F também é (isso resulta em uma contradição), então todas as fórmulas da teoria passam a ser teoremas também. E teorias nas quais todas as fórmulas ou afirmações podem ser provadas, não se figuram úteis. Afinal, somente se consagram na comunidade científica e na sociedade as teorias que permitem diferenciar o que é possível daquilo que não é possível. Imagine o leitor, qual seria a utilidade de uma teoria de gravitação que dissesse que os corpos caem sob a ação da gravidade, mas também não caem. Sob o prisma da lógica clássica, contradições apresentam efeitos devastadores sobre teorias inteiras. Uma maneira de se lidar com contradições é evitá-las. Mas mesmo essa postura cria dificuldades, pois em geral não há procedimentos efetivos que garantam que uma teoria qualquer é não-contraditória.

Insatisfeitos com essa restrição, alguns matemáticos pensaram em maneiras de mudar a lógica para permitir que certas contradições possam ocorrer sem que isso implique que todas as afirmações da teoria possam ser demonstradas. Ou seja, insatisfeitos com alguns dos limites da lógica que dominou a matemática até a primeira metade do século 20, alguns matemáticos decidiram ampliar os domínios dessa área do saber. Afinal, toda proibição é tentadora. E, na época, contradições eram de fato uma proibição. O que alguns queriam era uma lógica mais abrangente, que permitisse a existência de certas contradições, sem que isso resultasse em uma teoria que não encontre interesse ou aplicações. Essas lógicas passaram a se chamar de lógicas paraconsistentes e foram essencialmente concebidas pelo brasileiro Newton da Costa. Hoje em dia elas têm encontrado aplicações em diversas áreas da ciência e da tecnologia, demonstrando o impacto que um desafio à tradição pode causar.

A lógica tem se expandido no sentido de esclarecer conceitos até então vagos, como os de argumento, algoritmo e verdade, entre outros. Tem também se expandido no sentido de ser empregada como ferramenta para avaliar os limites de certos ramos do conhecimento científico, como ocorreu nos trabalhos de Gödel. Mas outra forma de expansão da lógica é através de sua penetração em demais áreas do conhecimento, e não apenas na matemática em si ou na ciência da computação.

Em 1900 o matemático alemão David Hilbert, o mais importante de sua época, chamou a atenção para uma lista de vinte e três problemas que ele considerava como sendo de extrema relevância para a futura matemática do século 20. Essa lista é muito famosa, sendo lembrada em livros e artigos especializados até os dias de hoje. Tal lista serviu para nortear muitas pesquisas de ponta realizadas no novo século. Alguns dos problemas de sua lista foram resolvidos por lógicos, dado o caráter das questões. O primeiro problema da lista, por exemplo, dizia respeito a teorias de conjuntos, assunto fundamentalmente lógico. O décimo era sobre equações diofantinas, que são equações definidas no domínio dos números inteiros. Apesar de ser assunto normalmente ligado à álgebra ou teoria dos números, acabou sendo resolvido por técnicas da lógica. Mas o sexto problema da lista tem mais a ver com a penetração da lógica e da matemática em outros domínios do conhecimento científico. Segundo o sexto problema de Hilbert, certas teorias da física poderiam passar por uma sistematização lógico-matemática em moldes parecidos com o tratamento que se dava na época à geometria. Era uma sistematização que Hilbert chamava de axiomatização. Ele sugeriu que certas teorias físicas eram candidatas naturais, como a mecânica e a teoria de probabilidades. A visão vigente sobre probabilidades, até então, era mais voltada ao seu significado intuitivo no mundo real, do que a uma devida fundamentação matemática. Décadas depois um matemático russo chamado Andrei Nicolaevich Kolmogorov conseguiu criar um tratamento lógico-matemático, em moldes parecidos com aqueles sugeridos por Hilbert, que fundamentava o conceito de probabilidade a partir de pouquíssimos princípios, os quais, por sinal, tinham um apelo intuitivo muito forte. Esse sistema é até hoje estudado e usado em áreas como matemática, economia, física, engenharias, geografia, estatística e outras.

Físicos, estatísticos, biólogos e demais profissionais que desenvolvem ou aplicam ciência, precisam de uma sólida base para o conceito de probabilidade. Afinal, a qualidade de seus trabalhos depende disso, para que tais profissionais não tirem conclusões equivocadas no momento em que eles mais precisam do conceito de probabilidade. Mas mesmo o cidadão comum, que apesar de não se tratar de alguém que precise saber o que são probabilidades para seu trabalho ou sua vida pessoal, também deve ter um conhecimento básico, porém sólido, sobre o que é uma probabilidade. Esse tipo de formação básica pode ajudar a evitar mal-entendidos e atitudes impensadas.

O que percebemos nas escolas de nosso país é um atraso significativo para acompanhar os desenvolvimentos da matemática. Conteúdos como biologia, geografia, português, inglês, história e química são constantemente atualizados em livros e apostilas. Mas a matemática ainda é tratada nos ensinos fundamental e médio como um conhecimento que se esgotou séculos atrás, como algo indiscutível e uma verdade inquestionável.
 
A própria visão da essência da matemática em nossas escolas não apenas está desatualizada, como também se apresenta na forma de uma colcha de retalhos com conteúdos não relacionados entre si. Esse tipo de postura é reflexo da falta de transposição de conhecimentos matemáticos hodiernos para uma linguagem acessível às nossas crianças e jovens. Isso porque a cultura matemática da maioria de nossos autores de livros e apostilas de matemática é insípida, preconceituosa e dogmática.
 
Matemática não é misticismo. O mirabolante misticismo de Pitágoras é tão somente uma lenda. A concepção de que o mundo é governado pela matemática é apenas mais um caminho para essa irracional mistificação. Precisamos de uma matemática enquanto exercício de tirocínio crítico e não de doutrinação patrocinada e empreendida por professores e autores ignorantes. E uma forma da encaminhar uma educação dessa natureza é através de uma política educacional meritocrática que premie profissionais do ensino de reconhecida competência.

6 comentários:

  1. Professor, encontrei o seguinte livro na web:
    http://en.bookfi.org/book/1453222
    O senhor conhece mais biografias de cientistas escritas nesse estilo?

    ResponderExcluir
    Respostas
    1. Sebastião

      Tentei fazer o download, mas a conexão estava muito ruim. Poderia, por favor, dizer o que o atraiu para este livro?

      Excluir
    2. É uma biografia voltada para físicos e pesquisadores, com muitos detalhes técnicos sobre o trabalho do Dirac. Nunca tinha visto uma biografia desse tipo. Encontrei por acaso, estava fazendo um pesquisa sobre o trabalho do Bohr e esbarrei neste livro.
      Tenta baixar novamente, vale a pena!

      Excluir
    3. Grato pela dica, Sebastião. De fato não conheço biografias dessa natureza.

      Excluir
  2. O Filme "O ponto da mutação", que mais parece um documentário, não é mistíco e não fala
    de cura quântica. Tanto o filme quanto o livro de mesmo nome de Fritjof Capra é uma crítica ao método de Descartes.

    ResponderExcluir
  3. Seria, talvez, o caso de entrar na grade curricular o ensino médio o estudo da lógica. Além dela ser fantástica por si só, podendo ser aplicada no cotidiano e no trabalho. Os concursos públicos têm provas complexas de lógica, seus idealizadores sabem que um profissional com bom raciocínio lógico é mais produtivo, pode melhor solucionar problemas na repartição pública (essas que exigem que o servidor tem bom conhecimento em informática e direito administrativo entre outros direitos, lógica torna-se obrigatória!). Nas empresas privadas funciona da mesma forma, com os seus testes na seleção dos candidatos, os que passam podem fazer um entrevista, se passarem na entrevista serão contratados, lógica serve na triagem de bons candidatos a empregos. Ou seja o mundo demanda profissionais quem sejam bons em lógica, e que simplesmente tenham o ensino médio, mas as escola não ensina, é preciso mudar.


    Creio o o preenchimento da grade com um bom curso de lógica atualizaria a matemática ensinada ajudando o entendimento dela e auxiliando para as demais disciplinas. Já vi muitos professores defendendo o ensino do cálculo no ensino médio, eu mesmo teria gostado de aprender nessa época, mas talvez a lógica seja mais urgente.

    ResponderExcluir

Respostas a comentários dirigidos ao Administrador demoram usualmente até três dias.