Mostrando postagens com marcador aplicações. Mostrar todas as postagens
Mostrando postagens com marcador aplicações. Mostrar todas as postagens

segunda-feira, 3 de novembro de 2014

Psicologia cognitiva ajudando a prever o futuro


Scientia potentia est. Conhecimento é poder. Esta frase, frequentemente atribuída a Francis Bacon, está adquirindo um novo significado a partir deste ano. 

Vivemos em uma época em que muitas informações são coletadas, processadas, usadas e até vendidas. E uma das prioridades do conhecimento científico é justamente a previsão do futuro, para fins de antecipação de fatos e informações. Existem várias teorias científicas que viabilizam isso. Conhecimentos elementares de astronomia permitem antecipar épocas mais adequadas para plantio e colheita. A teoria da gravitação universal de Newton permite prever quando um objeto tocará o chão, após ser abandonado a partir de uma altura conhecida. E cadeias de Markov são empregadas para o desenvolvimento de modelos estatísticos que conseguem antecipar o comportamento de mercados de ações em curtos intervalos de tempo.

Mas agora é a psicologia cognitiva que está desenvolvendo novas técnicas para a previsão do futuro. E, desta vez, o objetivo é antecipar o futuro político de nações e do mundo.

Treze pesquisadores da University of Pennsylvania, Rice University e University of California (Berkeley) publicaram este ano um artigo no prestigiado periódico Psychological Science, no qual é relatado um torneio de previsões geopolíticas durante um período de dois anos. 

Este trabalho já está sendo citado em artigos publicados em Proceedings of the National Academy of Sciences, um dos mais impactantes periódicos científicos multidisciplinares do mundo, e despertou a atenção de unidades da inteligência militar dos Estados Unidos. A US Intelligence Advanced Research Projects Activity (IARPA) decidiu apoiar financeiramente o Projeto Bom Julgamento, com o objetivo de desenvolver novas abordagens para previsões políticas nacionais e internacionais. 

No artigo original acima citado é relatada a existência de pessoas com habilidades especiais de previsão do futuro. No entanto, tais pessoas não podem fazer previsões sozinhas, se o objetivo é torná-las mais precisas. Elas precisam formar equipes devidamente orientadas por profissionais da cognição humana.

Entre as pessoas testadas (recrutadas a partir de sociedades profissionais, centros de pesquisas, associações de ex-alunos e blogs de ciências), foram formados grupos que interagiam entre si e com os pesquisadores envolvidos. Mais de duas mil pessoas (chamadas de previsores) fizeram parte deste torneio e Philip Tetlock (líder do projeto) identificou uma parcela de 2% desta população como super forecasters (super previsores). 

Tetlock e colaboradores orientaram os previsores com técnicas de colaboração em equipe, treinos específicos sobre probabilidades (para fins de correção de tendências humanas naturais) e a efetiva identificação de super previsores para a formação de equipes de elite. O principal resultado foi o seguinte: apesar de previsões serem frequentemente compreendidas como um problema estatístico, elas podem se tornar consideravelmente mais precisas e corretas diante de intervenções comportamentais. 

A equipe liderada por Tetlock também identificou que as pessoas com maior habilidade para previsão do futuro são aquelas que têm desempenho melhor em testes de inteligência e que apresentam a mente mais aberta. Mente aberta, do ponto de vista da psicologia cognitiva, corresponde à habilidade para se lidar com incertezas. Apesar de visão política ajudar, um dos super previsores, por exemplo, é um farmacêutico. Isso ilustra muito bem o fato de que super previsores podem ser encontrados nos mais inesperados lugares.

Diante da realidade política de elevada instabilidade como hoje se encontra o nosso país, vejo como obrigação o comprometimento de nossas autoridades no desenvolvimento de pesquisas aplicadas nesta área. Afinal, se o futuro político de uma nação pode ser cientificamente antecipado, certamente erros podem ser evitados. 

O futuro é incerto sim. Mas já existem evidências significativas (levadas muito a sério) não apenas de tendências para a ocorrência de certos eventos políticos como também da real antecipação dos resultados de tais tendências. Cabe ao Brasil não errar novamente, como já o fez em outras oportunidades, por falta de cultura científica

Os resultados de Tetlock e colaboradores precisam ser conhecidos e aplicados em nossa nação. É o nosso futuro que está em jogo.

Ao leitor interessado, o periódico Psychological Science disponibilizou aqui uma versão não técnica do trabalho de Tetlock.

sexta-feira, 24 de outubro de 2014

O Retorno de Estudante Brilhante


No final de 2011 publiquei neste blog a primeira postagem sobre o Estudante Brilhante, uma personagem fictícia que serve para ilustrar a constrangedora situação na qual o discípulo é mais inteligente e melhor informado do que o mestre. 

Na primeira parte da história, Brilhante perigosamente se destacava por conta de questionamentos sobre os limites da cognição humana. Mas, desta vez, ele aprendeu que deve descer um degrau intelectual se quiser conviver civilizadamente entre os seus pares. E agora apela a situações já antecipadas por outros.

...

Durante aula professor Mula afirma que observações empíricas sob rigoroso controle laboratorial permitem inferir verdades científicas. E cita como exemplo a órbita da Lua ao redor do planeta Terra. Segundo Mula, esta é uma prova científica incontestável de que a Lua está em queda livre, sob a ação da força de gravidade que nosso planeta exerce sobre aquele satélite natural. Brilhante não se contém e novamente contesta:

- Quando o senhor fala de força de gravidade, está se referindo a qual tipo de força? Força newtoniana? Qual força newtoniana? Aquela que é discutida nos Principia de Isaac Newton, sem o emprego de cálculo diferencial e integral? Ou o senhor fala da força newtoniana discutida por Vladimir Arnol'd sob o ponto de vista de espaços de fase e grupos de Lie? Além disso, a concepção de força não é exclusiva de visões newtonianas! Há as forças de Hoyle e Narlikar, assim como as forças da mecânica relacional. E nem toda teoria gravitacional emprega o conceito de força. A relatividade geral de Einstein é um exemplo bem conhecido de teoria de gravitação sem força. Isso sem falar na mecânica de Hertz, que permite tratar de gravitação sem menção a força ou qualquer processo de geometrização. Mas a parte realmente intrigante da suposta verdade científica de que a Lua está em queda livre é que esta queda ocorre para cima.

Professor Mula se irrita com a aparente verborragia de Brilhante e questiona: "Como assim, queda para cima?" 

Brilhante responde:

- Mesmo que nos limitemos a tratar de gravitação newtoniana nos moldes intuitivos do que hoje se entende sobre esta teoria, o fato é que o sistema Terra-Lua pode ser matematicamente tratado como um sistema de três corpos: Terra, Lua e marés oceânicas e terrestres que circulam pelo nosso planeta por ação gravitacional da Lua. E essas mesmas marés são responsáveis por perdas de energia total do sistema, obrigando a rotação da Terra ao redor de seu próprio eixo a diminuir ao longo de milhões de anos. Se considerarmos o sistema Terra-Lua-marés como isolado, por conta de conservação de momento angular do sistema é possível concluir que a Lua se afasta da Terra, algo que também encontra verificação experimental. Portanto, a Lua cai para cima, relativamente ao nosso planeta.

Professor Mula respira fundo e então responde: "Eu estava me referindo à gravitação newtoniana. Mas eu gosto da maneira como você pensa".

Estudante Brilhante, desta vez melhor humorado, reage:

- Professor, eu tenho uma pergunta a fazer.

Mula não sabe se deve se sentir aliviado ou preocupado: "Qual é a pergunta?"

- Três moças tomam sorvete. Uma delas lambe o sorvete, a outra morde o sorvete e a terceira chupa o sorvete. Qual delas é casada?

Desconcertado (e desconsertado!), Mula responde: "Não sei. Eu acho que a casada é aquela que chupa o sorvete."

- Não, professor. A casada é aquela que usa aliança na mão esquerda. Mas eu gosto da maneira como o senhor pensa.

Os alunos da turma riem da resposta de Brilhante e Mula tenta manter a postura de líder intelectual. E então sentencia: "Tudo bem. A brincadeira acabou. Agora, quem responder à próxima pergunta poderá ir para casa."

Brilhante rapidamente joga sua mochila pela janela, fazendo-a cair ao chão, do lado de fora da sala. Mula questiona, irritado: "Quem jogou essa mochila para fora?"

Brilhante responde:

- Fui eu, professor. Estou indo pra casa.

A fragilidade de demonstrações em matemática


Na última terça-feira, dia 21, o professor Newton da Costa ministrou uma palestra para uma pequena turma minha de graduação. Ele falou sobre o conceito de demonstração em matemática. Faço aqui uma transcrição livre desta palestra, devidamente revisada pelo próprio professor Newton. 

Desejo a todos uma leitura crítica.
_______________
Demonstração
transcrição livre de palestra de Newton da Costa

Quando Euclides de Alexandria utilizou o método axiomático para apresentar a geometria em seu célebre livro Elementos, ele deixou muito clara (para os padrões da época) a visão de que axiomas e postulados permitem a inferência dedutiva de novas afirmações sobre geometria, conhecidas como teoremas. Este é o mais antigo registro do uso do método axiomático em matemática.  

Desde então houve grandes avanços no método axiomático. Postulados e axiomas passaram a ser sinônimos e este método deixou de ser uma mera ferramenta didática no estudo de geometria para se tornar objeto de estudos dos próprios matemáticos em contextos muito mais amplos. Isso porque o conceito de demonstração, pelo menos em matemática, passou de mera intuição para algo que deveria ser compreendido com grande rigor

Grosso modo, uma teoria axiomática consiste de dois ingredientes: linguagem e lógica. A linguagem permite explicitar quais são os conceitos primitivos da teoria e quais são os seus princípios fundamentais, também conhecidos como axiomas. Quanto à lógica, ela se refere a regras de inferência e postulados específicos que permitem a dedução de novas afirmações (chamadas de teoremas) a partir dos axiomas. Neste contexto, uma demonstração é uma sequência de afirmações (ou fórmulas, no jargão usual da matemática) que atende a certas condições impostas pela lógica da teoria axiomática. E um teorema é a última fórmula de uma demonstração. 

Portanto, para qualificar com rigor os conceitos de demonstração e teorema, faz-se necessário o emprego do método axiomático. E, diante deste fato, o processo de formalização é imprescindível. 

Na prática matemáticos raramente são formais. Mas o estudo de lógica garante, entre outras coisas, que mesmo demonstrações feitas de forma meramente intuitiva (como ocorre na maioria das vezes em livros e mesmo em salas de aula) podem ser tratadas de forma rigorosa e formal. 

No entanto, o conceito de demonstração em matemática jamais ficou restrito ao domínio da mera formalização. Sempre foi necessária uma contraparte social, no sentido de que demonstrações possam ser compartilhadas entre matemáticos e no sentido de que matemáticos precisam sentir se uma dada demonstração está correta ou não. Apesar da noção de "sentir" ser vaga, é justamente a troca de ideias e críticas entre pares profissionais que legitima ou descarta uma ideia matemática, como uma demonstração. 

Mas a partir da segunda metade do século 20 esse quadro todo começou a mudar. 

Em 1976 Kenneth Appel e Wolfgang Haken "provaram" o célebre teorema das quatro cores utilizando um computador IBM 360. O enunciado não rigoroso do teorema é o seguinte: "Dado um mapa plano, dividido em regiões, bastam quatro cores para colori-lo de modo que regiões separadas por apenas uma fronteira não tenham a mesma cor." Apesar de existir uma infinidade de possíveis mapas planos, Kenneth e Haken reduziram todos os casos possíveis a apenas 1936 configurações redutíveis. E, após consumirem mais de mil horas de processamento, conseguiram "demonstrar" o teorema. 

Por que, neste contexto, colocar a palavra "demonstrar" entre aspas? O motivo é simples. Por um lado, até hoje nenhum ser humano conseguiu acompanhar a demonstração do teorema das quatro cores feita pela máquina, mesmo após a impressão de todas as milhares de páginas que exibem as supostas 1936 configurações que contemplem todos os possíveis mapas planos. E, por outro lado, programas de computador são naturalmente não confiáveis. Desde os primórdios da computação sabe-se que não é possível conceber um programa de computador secundário que verifique o desempenho de um outro programa executado por uma máquina.

Em 1996 uma versão mais simples da demonstração do teorema das quatro cores foi publicada. No entanto, os problemas da não verificabilidade humana e da não confiabilidade da máquina ainda persistem. 

Em 1997 William McCune publicou em Journal of Automated Reasoning um artigo sobre a demonstração da conjectura de Robbins feita por uma máquina. A conjectura estabelece que toda álgebra de Robbins é uma álgebra booleana. Este é um segundo exemplo de demonstração matemática feita originalmente por um computador e, neste caso, de forma praticamente acidental.

Mas outros exemplos aquecem ainda mais as discussões sobre o que, afinal, é uma demonstração em matemática. 

Em 1611 o grande astrônomo Johannes Kepler conjecturou que o mais denso empacotamento de esferas de mesmo tamanho é o cúbico ou hexagonal. E em 1997 Thomas Hales publicou uma série de relatórios, totalizando 250 páginas, nos quais uma abordagem completamente nova era apresentada para resolver a conjectura de Kepler. Hales fez extenso uso de um programa de computador! O prestigiado periódico Annals of Mathematics reuniu doze avaliadores para decidir se a prova apresentada por Hales estava correta. Após quatro anos de árduo trabalho, o parecer final foi de que os avaliadores estavam 99% certos de que não havia erros na demonstração sugerida por Hales.

Um exemplo fascinante sobre os limites da aplicabilidade da computação em matemática é a conjectura de Mertens. Esta estabelece que a função de Mertens é cotada pela raiz quadrada de seu argumento. E, mais importante ainda, se a conjectura de Mertens fosse verdadeira, ela implicaria na hipótese de Riemann, um dos problemas matemáticos do milênio. Para bilhões de valores do argumento da função de Mertens, programas de computador apenas apontavam para a validade da conjectura. No entanto, em 1985 Andrew Odlyzko e Herman te Riele apresentaram uma demonstração indireta da falsidade da conjectura de Mertens, usando justamente recursos computacionais. Hoje se sabe que deve existir pelo menos um contra-exemplo em valores de argumento acima de dez elevado a catorze. 

Mas o exemplo mais fascinante que permite questionar o conceito de demonstração em matemática nada tem a ver com computação. Trata-se da célebre classificação dos grupos simples finitos, a qual permite a classificação de todos os grupos finitos. A demonstração deste teorema de classificação está disponível na forma de dezenas de milhares de páginas publicadas em centenas de artigos em periódicos especializados ao longo de cerca de meio século. Nenhum algebrista até hoje conseguiu acompanhar esta extensa demonstração em sua totalidade. O melhor que se consegue é apenas a garantia de uns e de outros de que partes da demonstração estão corretas. Mas falta a visão holística da demonstração deste teorema de classificação, a qual parece ser inacessível à mente de uma só pessoa. 

Portanto, levando em conta que matemática é uma atividade social, fortemente dependente da interação entre profissionais desta área e fundamentalmente sustentada pelo conceito de demonstração, o que, afinal de contas, é uma demonstração?

sexta-feira, 19 de setembro de 2014

A percepção dos alunos sobre os melhores professores


Dois anos atrás publiquei neste blog uma brincadeira na qual uma pessoa deveria aplicar matemática para decidir se casaria com a paixão de sua vida

Apesar do tom irônico da postagem, as ferramentas indicadas na postagem acima citada são instrumentos básicos e bem conhecidos sobre teoria das decisões. 

Decisões fazem parte do cotidiano de todas as pessoas, desde processos de escolha sobre o que comer no café da manhã até momentos em que um professor deve definir se aprova um aluno em uma disciplina ou não. 

Quando fui chefe do Departamento de Matemática da Universidade Federal do Paraná, tentei convencer professores de que eles deveriam ser avaliados pelos seus alunos. No entanto, docentes parecem se sentir ameaçados diante da perspectiva de avaliações tendenciosas. Esta não deixa de ser uma visão meramente espelhada dos próprios profissionais do ensino, uma vez que, como já demonstrei em outra oportunidade, pessoas são incapazes de serem imparciais.

Pois bem. O que isso tudo tem a ver com o título da postagem?

No mês passado Michela Braga, do Departamento de Economia da Università degli Studi di Milano (Itália) e colaboradores publicaram artigo em Economics of Education Review no qual demonstram que os melhores professores são aqueles que recebem as piores avaliações de seus alunos. 

O critério para definir os melhores professores é justamente o desempenho de seus alunos em disciplinas cursadas posteriormente. Neste contexto, os melhores docentes são aqueles que exigem mais de seus pupilos. 

Os dados foram obtidos a partir de documentos administrativos da Università Bocconi, em Milão, Itália. Para ter acesso a uma versão preliminar do artigo sem ter que pagar os US$ 19,95 exigidos pela editora Elsevier, clique aqui.

Um dos aspectos mais interessantes do artigo de Braga e colaboradores é a concepção de um modelo que ajuda a compreender os resultados obtidos e que, além disso, permite apresentar evidências de que alunos avaliam professores a partir das utilidades percebidas.

Esta é uma informação extremamente importante, uma vez que percepção de utilidades é ingrediente fundamental em tomadas de decisão. Na postagem mencionada sobre teoria das decisões, pequei por não reforçar o eventual aspecto subjetivo na determinação de utilidades. E no artigo de Braga e colaboradores fica assumido que, intuitivamente, alunos empregam rudimentos muito elementares da teoria das decisões quando avaliam seus professores.

A avaliação de alunos sobre o desempenho de seus professores tem sido cada vez mais comum em universidades do mundo inteiro, apesar de serem quase inaplicáveis ou inócuas em universidades públicas de nosso país. Elas ajudam a determinar a clareza de um professor em sala de aula, a logística da disciplina ministrada e até mesmo aspectos mais básicos como assiduidade e pontualidade. Normalmente tais avaliações são usadas como instrumentos de seleção e motivação de profissionais do ensino. 

No entanto, o recente e importantíssimo trabalho de Braga e colaboradores mostra de maneira clara e objetiva que mesmo instrumentos de avaliação devem ser avaliados. Neste sentido, tanto instrumentos que avaliam desempenho de alunos quanto aqueles que avaliam desempenho de professores devem ser contextualizados com a política educacional de cada instituição. Sem uma definição clara dos propósitos de uma instituição de ensino, não há como se beneficiar com instrumentos de avaliação. Isso porque cada pessoa neste mundo, seja aluno ou professor, tem suas próprias peculiaridades, interesses pessoais e tendências.

E apesar da multiplicidade de interesses frequentemente divergentes entre docentes e discentes em uma instituição de ensino, ainda há elementos universais detectáveis, como a correlação negativa entre bons professores e a percepção de alunos sobre seus mestres.

Aproveito para agradecer ao professor Carlos de Brito Pereira pela indicação do artigo de Braga.

sexta-feira, 1 de agosto de 2014

A matemática das confusões mentais


Esta é a postagem de número 200. Por isso publico aqui um texto especial, como forma de celebração. O objetivo neste artigo é divulgar um modelo matemático que justifica por que é tão difícil as pessoas entenderem o que ouvem e leem (e até mesmo o que falam e escrevem). Para alguém como eu, que trabalha com ensino, pesquisa e extensão há algum tempo, a motivação é clara. Só espero que o leitor se interesse tanto pelo tema quanto eu.

A discussão que se segue demanda um pouco de paciência do leitor, uma vez que faço uso de conceitos matemáticos raramente conhecidos entre leigos. Evito certos detalhes técnicos, sempre que possível. Afinal, este blog não é um veículo científico, no sentido estrito do termo. Mas se o leitor não dedicar uma certa dose de esforço para acompanhar os conteúdos aqui abordados, provavelmente continuará seguindo o caminho usual da incompreensão, que tanto isola as pessoas umas das outras. Os únicos pré-requisitos matemáticos para esta postagem são 

(i) a noção usual de que todo conjunto é subconjunto de si mesmo, bem como o conceito de subconjunto próprio, 

(ii) o conceito de função e 

(iii) a definição de conjuntos disjuntos (conjuntos sem elementos em comum). 

Estas são noções usualmente estudadas até mesmo no ensino médio.

Pois bem. Aqui vai.

Intuitivamente falando, álgebra é um ramo da matemática que foca no estudo de operações definidas sobre certos conjuntos. Um ramo bem conhecido da álgebra é a teoria de grupos. Um grupo é um conjunto G, munido de uma operação binária *, que satisfaz os seguintes postulados (ou princípios):

G1) Se a e b são elementos de G, então a*b também é elemento de G.

G2) Se a, b e c são elementos de G, então (a*b)*c = a*(b*c).

G3) Existe um elemento e de G tal que para todo elemento a de G tem-se a*e = a.

G4) Para todo elemento a de G existe um elemento b de G tal que a*b = e, sendo que e é o mesmo elemento de G citado no postulado G3.

A constante e citada nos postulados G3 e G4 é chamada de elemento neutro do grupo G.

Um exemplo típico de grupo é o conjunto dos números inteiros (que inclui tanto os números inteiros positivos quanto os negativos e o zero), munido da operação de adição usual +. Com efeito, um número inteiro somado com outro número inteiro resulta em um número inteiro (postulado G1); Se m, n e p são números inteiros, então (m+n)+p = m+(n+p) (postulado G2, também conhecido como a propriedade da associatividade da operação *); O número inteiro 0 (zero) é o elemento neutro deste exemplo de grupo, ou seja, qualquer número inteiro m somado com 0 resulta no próprio m (postulado G3); E, finalmente, qualquer número inteiro m somado com o seu simétrico aditivo -m resulta em 0 (postulado G4).

Se o postulado G4 for eliminado, diz-se que G é um semigrupo. Em outras palavras, um semigrupo é um conjunto G munido de uma operação binária *, que satisfaz os seguintes postulados:

G1) Se a e b são elementos de G, então a*b também é elemento de G.

G2) Se a, b e c são elementos de G, então (a*b)*c = a*(b*c).

G3) Existe um elemento e de G tal que para todo elemento a de G tem-se a*e = a.

Logo, todo grupo é um semigrupo, apesar da recíproca não ser verdadeira. Consegue dar um exemplo de semigrupo que não seja grupo?

Para efeitos da discussão que pretendo promover nesta postagem, preciso agora de mais um conceito importante, a saber, o de semigrupo livre. 

Um semigrupo livre é um semigrupo G cuja operação binária * é a justaposição de elementos de G. Levando em conta os postulados de semigrupo, fica claro que a aplicação da operação binária * de justaposição em um semigrupo G simplesmente forma sequências finitas de elementos de G, o que não ocorre necessariamente em um semigrupo qualquer.

Ou seja, a única diferença entre semigrupos e semigrupos livres reside na imposição sobre a natureza da operação binária *. Se a e b são elementos de um semigrupo livre, então a*b é denotado simplesmente por ab. Como se observa no site Wolfram MathWorld, a operação binária * aplicada a elementos de um semigrupo livre G resulta em elemento de G que jamais pode ser reduzido a elementos mais simples de G.

Neste contexto, fica fácil perceber que o conjunto dos números naturais (inteiros positivos) munido da operação de justaposição de números naturais é um semigrupo livre. Consegue determinar qual é o elemento neutro neste semigrupo livre?

Vale observar que semigrupos livres G jamais podem ser grupos, uma vez que não existem elementos simétricos (relativamente à operação de justaposição) para todos os elementos de G. Além disso, semigrupos livres nunca são comutativos. Com efeito, se a e b são elementos de um semigrupo livre G, distintos entre si, então ab é uma sequência finita diferente de ba.

Existe um conceito relacionado a semigrupos livres, que pretendo explorar a partir do próximo parágrafo: linguagem

Um alfabeto é qualquer conjunto finito. No caso da linguagem portuguesa brasileira o alfabeto é o conjunto de todas as palavras dicionarizadas de nosso idioma (por exemplo, aquelas que ocorrem no Dicionário Houaiss de língua portuguesa) e de todos os nomes próprios. E este é um conjunto finito, denotado aqui por ALP (Alfabeto da Língua Portuguesa).

A linguagem conhecida como português brasileiro permite a formação de frases a partir de seu alfabeto ALP. E frases são formadas a partir da justaposição de elementos do alfabeto. Ou seja, frases são simplesmente sequências finitas de elementos de um alfabeto. Considere como exemplo os elementos "ela" e "come". É possível fazer a seguinte justaposição: "ela*come", a qual normalmente se lê "ela come". Em outras palavras, a justaposição de elementos do alfabeto é uma operação binária, aqui denotada pelo símbolo *. Neste contexto, a linguagem português brasileiro é um subconjunto do semigrupo livre obtido a partir de ALP

O que significa dizer que um semigrupo é obtido a partir de um alfabeto? Significa simplesmente que a partir de um alfabeto (como ALP) é possível definir o conjunto de todas as sequências finitas de elementos do alfabeto. Tal conjunto é um semigrupo livre.

No exemplo acima citado do conjunto dos números naturais, o alfabeto é o conjunto cujos elementos são 0, 1, 2, 3, 4, 5, 6, 7, 8 e 9. Todos os números naturais são apenas frases obtidas a partir deste alfabeto, pela justaposição dos elementos 0, 1, 2, 3, 4, 5, 6, 7, 8 e 9. 

Em outras palavras, o conjunto dos números naturais é uma linguagem. Isso porque uma linguagem é simplesmente qualquer subconjunto de um semigrupo livre. Logo, qualquer subconjunto do conjunto dos números naturais é uma linguagem obtida a partir do alfabeto formado pelos elementos 0, 1, 2, 3, 4, 5, 6, 7, 8 e 9.

Vejamos mais detalhadamente o exemplo da linguagem português brasileiro: 

(i) de acordo com o axioma G1, a justaposição de dois elementos quaisquer do alfabeto ALP pode resultar em uma frase da linguagem português brasileiro ou, pelo menos, em uma sequência finita que pertence a um conjunto H que contém o conjunto de todas as frases da linguagem português brasileiro; 

(ii) de acordo com o axioma G2 a frase "(ela*come)*calmamente" é igual à frase "ela*(come*calmamente)", eliminando a necessidade do emprego de parênteses e permitindo escrever simplesmente "ela*come*calmamente" ou, de forma abreviada, "ela come calmamente"; 

(iii) de acordo com o axioma G3 a frase " " (conjunto vazio) é o elemento neutro. 

É importante que se faça uma observação sobre a notação aqui empregada. Enquanto no exemplo do conjunto dos naturais denotamos, por exemplo, "2*3" por "23", no exemplo da linguagem português brasileiro denotamos "ela*come*calmamente" por "ela come calmamente".

A vantagem de caracterizar o conceito de linguagem como subconjunto de um semigrupo livre é considerável. Isso porque tal visão é aplicável a qualquer linguagem finitária conhecida pelo ser humano, seja natural (português, inglês, persa, italiano etc.) ou formal (cálculos proposicionais, cálculos predicativos, teorias de tipos, linguagens de computador etc.).

Agora é possível apresentar uma definição recursiva para o importante conceito de string

(I) Todo elemento de um alfabeto é um string

(II) Se S e T são strings de um semigrupo livre G (obtido a partir do alfabeto), então S*T é um string do mesmo semigrupo. 

Portanto, frases de uma linguagem natural como o português brasileiro são exemplos de strings. Neste texto estou interessado somente em strings que pertencem a uma dada linguagem, seja formal ou natural.

No entanto, na prática, uma linguagem natural é muito mais do que um simples subconjunto de um semigrupo livre. Isso porque frases de uma linguagem natural têm significado. E é aí que a coisa toda começa a ficar complicada. Supostamente, frases de uma linguagem natural significam coisas. 

Até este momento nada de novo foi apresentado ao leitor. É a partir dos próximos parágrafos que apresento ideias que não existem na literatura especializada sobre linguística e matemática. Ao final desta postagem justifico a origem das ideias aqui apresentadas.

Qual é o significado de um string de uma linguagem qualquer, como o português brasileiro? A resposta mais abrangente que conheço a esta pergunta é a seguinte: o significado de um string de uma dada linguagem L é um conjunto (ou classe) de objetos que não tem um único elemento em comum com L. Essa correspondência entre strings de L e conjuntos disjuntos de L é promovida por uma função específica. Como é esta função?

Considere o string "ela", da linguagem português brasileiro. Qual é o significado deste string? O significado de "ela" é o conjunto que tem como elementos os seguintes objetos: Madame Curie, Hipacia de Alexandria, a primeira amiga do(a) leitor(a), a mãe do(a) leitor(a), a jovem que estacionou seu Peugeot vermelho na esquina das ruas curitibanas Brigadeiro Franco e Comendador Araújo às 14:32h (hora local) do dia 26 de março de 2007 etc. Ou seja, é um conjunto com muitos elementos. Já o string "ela come" pode significar todos os elementos correspondentes ao significado de "ela" ou algum subconjunto próprio do significado de "ela". No entanto, o significado de "ela come" jamais pode ter elementos que não pertencem ao significado de "ela". Isso porque, à medida em que se escrevem frases mais longas a partir de uma mesma frase mais curta, os possíveis significados dessas novas frases vão se especializando. Por exemplo, o significado da frase "ela come carne" exclui o elemento "Hipacia de Alexandria", se assumirmos que Hipacia de Alexandria era vegetariana. 

Semântica é o estudo de significados em linguagens. Neste sentido, as ideias acima apresentadas constituem uma teoria semântica. As vantagens desta abordagem são as seguintes:

1) É aplicável para qualquer forma de linguagem finitária, natural ou formal.

2) É independente de qualquer teoria usual de verdade. Portanto, não se compromete com a polêmica noção de verdade em filosofia da ciência.

3) É independente de operadores usuais da lógica, uma vez que não se compromete com noções como "e", "ou", "se, então" ou "não".

A grande desvantagem desta teoria semântica é a seguinte: É geral demais.

Teorias demasiadamente gerais são extremamente úteis ou extremamente inúteis. Como esta visão semântica admite que o significado de uma mesma frase (ou string) pode ser um conjunto grande demais, resta a questão: esta teoria semântica pode ser útil?

A resposta, creio, é positiva. Linguistas reconhecem que nenhuma teoria semântica para linguagens naturais pode ser completa (em sentido intuitivo do termo) sem uma visão da contraparte pragmática das mesmas linguagens.

O que é pragmática? Existem várias visões na literatura especializada sobre o conceito de pragmática em linguística. Adoto aqui a seguinte concepção: pragmática é o estudo de significados linguísticos que são dependentes de contextos sociais. 

Por exemplo, a frase "Você sabe que horas são?" pode ser interpretada como um pedido de informação ou um pedido para uma pessoa sair. O significado pretendido pela pessoa que verbalizou a frase (ou interpretado por quem ouviu) depende de um contexto de interação social. A nova questão agora é a seguinte: É possível descrever matematicamente contextos sociais?

A resposta, novamente, é positiva. Dado um string s (de uma dada linguagem) é possível definir uma função de probabilidade (chamada de função de propensão) sobre o conjunto correspondente ao significado de s. Tal função de propensão tem o efeito prático de ponderar o que mais provavelmente significa um string dito, escrito, lido ou ouvido. A partir desta função de propensão é possível, em seguida, definir uma função de pensamento. A função de pensamento de um string s resulta simplesmente no conjunto de elementos do significado de s que têm propensão máxima. Isso permite caracterizar o que mais provavelmente uma pessoa quis dizer ao falar ou escrever o string s

Temos, portanto, uma teoria pragmática aplicável a linguagens naturais (além das formais). 

O problema desta teoria pragmática acima apresentada é que ela genuinamente se identifica com a prática. Explico.

Um indivíduo comunicante que diz o string "ela come carne" pode estar querendo se referir a um significado que tem um único elemento. Tal significado fica caracterizado pela função de pensamento deste indivíduo. No entanto, um outro indivíduo comunicante pode ter uma função de pensamento completamente diferente daquela que é inerente a quem disse o string "ela come carne". E, portanto, ao ouvir o string "ela come carne", entende algo completamente diferente do que o primeiro indivíduo "quis dizer".

Esta é uma forma de caracterizar matematicamente o velho discurso que estabelece "mas o que eu quis dizer foi que...". Daí o título da postagem. 

Tudo o que está escrito nos parágrafos acima é uma versão altamente informal de uma teoria matemática que Otávio Bueno (University of Miami), Newton da Costa (Universidade Federal de Santa Catarina) e eu criamos e desenvolvemos na forma de artigo científico. Nosso trabalho foi recentemente submetido para publicação em um conhecido periódico dedicado a estudos sobre a mente. 

No formalismo que desenvolvemos obtivemos os seguintes resultados:

1) Demonstramos um teorema que permite inferir sintaxes de linguagens a partir de semântica, o que encontra contraparte na vida real. Isso porque usualmente as pessoas começam a aprender idiomas a partir das dimensões semântica e pragmática. Sintaxe é o último objeto de estudo entre aqueles que aprendem uma língua. Fenômeno semelhante ocorre até mesmo no estudo de matemática. Os primeiros passos em estudos de matemática são cálculo diferencial e integral, álgebra linear, geometria e, enfim, áreas com forte identificação no mundo real. Lógica é o último passo no estudo de matemática.

2) Definimos rigorosamente os conceitos de ambiguidade, vaguidade e sinonímia, entre outras noções usuais em estudos sobre semântica. E tais conceitos são aplicáveis a qualquer tipo de linguagem.

3) Mostramos a impossibilidade de definir o conceito de antonímia para uma linguagem qualquer, o que também está de acordo com a realidade. Os tratados sobre antonímia em linguagens naturais são muito extensos, pois o tema é polêmico. Para baixar um texto sobre o problema de definir antonímia clique aqui.

É sempre muito arriscado divulgar trabalhos científicos que ainda estão submetidos para publicação. Mas, neste caso, decidi arriscar. 

Por um lado, faço isso porque confesso estar empolgado com o artigo. E, por outro lado, uso este blog para convocar potenciais interessados em dar continuidade a este trabalho.

Este artigo que Bueno, da Costa e eu submetemos para publicação foi inspirado em uma ideia que estava engavetada há cerca de cinco anos. A grande motivação para levar tal projeto adiante foi uma reportagem recentemente publicada pela revista Polyteck. Trata-se de um artigo sobre o cérebro Google, uma rede de mil computadores que conseguiu aprender (isso mesmo, aprender!) a diferenciar rostos humanos de rostos de gatos. A ideia de que é possível conceber um programa de computador que crie categorias de objetos de uma mesma natureza (como faz o cérebro humano) foi o ponto de partida para crermos que tais categorias se identificam com os conjuntos de significados de strings que usamos em nosso formalismo. Ou seja, acreditamos que nosso trabalho seja um passo para a concepção de máquinas que não apenas aprendam conceitos, mas que também sejam capazes de expressar linguisticamente tais conceitos. 

Isso tudo aponta para uma tendência natural: a criação de um programa de computador que simule interações sócio-linguísticas entre indivíduos comunicantes. Neste sentido precisamos de alguém (preferencialmente jovem) criativo, que saiba criar e desenvolver programas de computador e que esteja determinado a trabalhar em parceria conosco. Tudo o que precisamos é de um protótipo simples, mas rico o bastante para motivar pesquisadores a usarem nosso formalismo para estudos sócio-linguísticos em ambientes virtuais.

Não estou interessado em orientar dissertações, teses ou quaisquer outras maluquices dos desgastantes rituais acadêmicos deste país. Para nenhum de nós faz diferença se eventuais interessados têm algum vínculo institucional com alguma empresa ou universidade. Só queremos alguém que conheça muito bem programação de computadores e que esteja suficientemente motivado a desenvolver estudos sobre inteligência artificial. 

Também não ofereço garantia alguma sobre qualquer projeto a ser desenvolvido nesta linha. Afinal, como já observei, sequer sabemos se nosso artigo será aceito ou não para publicação. Mas temos razões para crer que estamos abrindo uma área de pesquisa muito rica, com ramificações em linguística, matemática, inteligência artificial, neurociências, teoria da cognição, teoria dos jogos, filosofia e talvez até mesmo música. 

Estudiosos de linguística que conheçam bem a obra de Montague também são bem-vindos. Isso porque existem estreitas relações entre o que fizemos e a teoria semântica de Richard Montague.

Aos leitores que desejam apenas acompanhar este processo todo, sem efetiva participação, aviso que veicularei neste blog todas as novidades, assim que elas surgirem.

Alea jacta est.

segunda-feira, 7 de julho de 2014

Apenas alguns livros - Parte III


Esta é a terceira (e, provavelmente, a última) parte de uma lista de recomendações bibliográficas em matemática, física teórica e filosofia da ciência iniciada em março de 2013. Para acessar a lista completa com todas as postagens de recomendações bibliográficas clique aqui

Desta vez o tema da lista é um só: como desenvolver uma visão crítica sobre matemática. Naturalmente não tenho a insana pretensão de oferecer uma visão ampla o bastante para cobrir todas as áreas relevantes da matemática. Mas acredito que a lista abaixo possa propiciar uma bagagem matemática suficientemente madura para lançar eventuais interessados na direção de estudos avançados e independentes. Nesta lista não estão presentes referências sobre lógica ou história da matemática porque tais áreas já foram cobertas na primeira parte desta postagem. Recomendações de literatura sobre física matemática também já foram apresentadas neste link

Aqui vai.

1) Topology, Klaus Jänich (Springer Verlag, 1995). Este é o texto mais didático que conheço sobre topologia geral. O autor assume pré-requisitos mínimos sobre teorias de conjuntos e consegue avançar gradualmente até tópicos avançados (como o inusitado teorema de Tychonoff) concatenando formalismo com visão intuitiva de forma excepcionalmente competente. 

2) Differential & Integral Calculus, Volumes 1 & 2, Richard Courant (Blackie & Son, 1961). Este clássico da literatura é provavelmente a referência mais importante sobre cálculo diferencial e integral. No volume 1 o autor inicia com uma riquíssima visão de pré-cálculo e avança para os conceitos de limite, derivada e integral, abordando até mesmo métodos numéricos, séries de Fourier e equações diferenciais aplicadas em física. No volume 2 discute-se prioritariamente cálculo de funções de várias variáveis. Em 1998 a Springer Verlag editou uma versão atualizada deste livro, co-autorada por Fritz John e dividida em três volumes. 

3) Lectures on the Hyperreals, Robert Goldblatt (Springer Verlag, 1998). Para que o leitor desta postagem não fique com a impressão de que cálculo diferencial e integral se resume àquilo que é discutido na obra de Richard Courant (citada acima), este livro oferece uma visão radicalmente diferente sobre o tema. Enquanto limites desempenham papel central na abordagem usual do cálculo, infinitesimais (números hiperreais estritamente positivos menores do que qualquer número real estritamente positivo) constituem a base para a análise não standard (uma forma diferente para desenvolver cálculo), a qual é tratada de forma magnífica neste livro de Goldblatt. Frequentemente livros sobre análise não standard são de difícil leitura para aqueles que não têm o devido treinamento em lógica matemática. Mas este é uma marcante exceção, devido à sua leitura extremamente fluida.

4) Foundations of Differential Geometry, Volumes 1 & 2, Shoshichi Kobaiashi & Katsumi Nomizu (Wiley, 1996). Confesso que nunca estudei esta obra do início ao fim. Mas aprendi muito com a leitura de diversos capítulos, principalmente na época em que trabalhei com teorias de gauge. É um clássico que tem se mantido atual durante décadas e ainda é a mais importante referência sobre teoria das conexões e classes características. No entanto a leitura não é fácil.

5) Projective Geometry, Volumes 1 & 2, Oswald Veblen & John Wesley Young (University of Michigan, 1910). Uma das idiossincrasias mais estúpidas da edução brasileira é o insistente discurso em sala de aula no qual professores afirmam que retas paralelas se encontram no infinito. Em geometria euclidiana, retas paralelas jamais têm interseção. No entanto, em geometria projetiva retas paralelas se encontram nos chamados pontos impróprios, ou pontos no infinito. Ou seja, sem qualificação de discurso não se faz matemática. Esta clássica obra de Veblen é uma excelente referência sobre geometria projetiva, cujo principal e mais surpreendente resultado é o princípio de dualidade. Geometria projetiva (o estudo de invariantes geométricos sob projeção) encontra importantes aplicações até mesmo em artes. Se o leitor quiser uma referência mais atual sobre o tema, recomendo o excelente Projective Geometry, de H. S. M. Coxeter (Springer Verlag, 2013). 

6) Basic Set Theory, A. Shen & N. K. Vereshchagin (AMS, 2002). Para quem deseja uma visão ampla, indolor, didática e pouco exigente em termos de pré-requisitos, sobre teoria intuitiva de conjuntos, este é simplesmente o melhor livro. Tradução de original russo, o texto é marcado por objetiva visão conceitual seguida de exemplos criativos e exercícios estrategicamente elaborados. É um exemplo claríssimo do enxuto e eficiente estilo russo de aprender matemática. O livro avança de forma muito natural até assuntos importantíssimos como definições recursivas, ordinais, cardinais e o lema de Zorn. Em outros termos, é uma ótima introdução para quem deseja avançar seus estudos para teorias formais de conjuntos.

7) Finite Dimensional Vector Spaces, Paul R. Halmos (Literary Licensing, 2013). Esta é uma reedição (de responsabilidade de John L. Kelley) do grande clássico da álgebra linear. Frequentemente livros sobre álgebra linear são escritos de forma muito descuidada, algo que praticamente não acontece nesta obra. Até mesmo o título inspira confiança sobre o leitor, uma vez que o conceito de base de um espaço vetorial é muito mais ardiloso do que a maioria dos autores assumem. Existe tradução para o português. Quem estiver interessado em avançar seus estudos para análise funcional (conforme se anuncia no apêndice deste fabuloso livro) recomendo a obra de Kreyszig citada nesta lista.

8) Fundamentos da Geometria, Benedito Castrucci (LTC, 1978). Este é o mais belo livro de matemática originalmente escrito em português que conheço. Fortemente baseado na visão de David Hilbert sobre geometria euclidiana, mas em uma linguagem atual, esta obra rompe com a ingênua, infeliz, mas comum visão de que geometria teria alguma coisa a ver com o estudo de posição e forma de objetos no espaço. Uma vergonha este precioso livro estar fora de catálogo.

9) Real Analysis, Norman B. Haaser & Joseph A. Sullivan (Dover, 1991). A Dover é uma editora enfaticamente empenhada na reedição de clássicos da matemática, incluindo este. São poucos os livros de análise matemática tão dedicados na explicitação da linguagem usada para fundamentar este fundamental ramo do conhecimento. O corpo dos números reais, por exemplo, é discutido detalhadamente dos pontos de vista sintático e semântico, colocando esta obra como uma das mais cuidadosamente escritas sobre o tema.

10) An Introduction to Probability and Inductive Logic, Ian Hacking (Cambridge University Press, 2001). Os matemáticos que me perdoem por recomendar este livro e não outras obras mais ricas (do ponto de vista técnico) sobre teoria de probabilidades. Mas este texto apresenta a melhor motivação que já li a respeito do tema. O livro inicia com uma curta lista de problemas que supostamente podem ser resolvidos de forma meramente intuitiva e, ao longo de todo o texto, mostra claramente como as intuições humanas são gravemente falhas. E isso tudo é feito sem perder de vista a noção matematicamente precisa de que probabilidades são definidas a partir dos axiomas de Kolmogorov. É também uma ótima introdução à teoria das decisões.

11) Multivariate Data Analysis, Joseph F. Hair Jr, William C. Black, Barry J. Babin & Rolph E. Anderson (Prentice Hall, 2009). Traduzi duas edições deste espetacular livro para o nosso idioma. Texto extraordinariamente didático e completo sobre aplicações de métodos estatísticos em administração de empresas. No entanto, as mesmas técnicas podem ser aplicadas em todas as áreas do conhecimento que envolvam a análise de grandes volumes de dados ou informações, como certos ramos da engenharia e até mesmo da genética, entre outros. 

12) Number Theory, George E. Andrews (Dover, 1994). Esta série de postagens sobre recomendações bibliográficas começou a partir de um pedido de um leitor, interessado em teoria dos números. Lamentavelmente nunca estudei de forma detalhada sobre esta fundamental área do conhecimento. Por isso, neste momento, serei guiado pelo critério de receptividade da comunidade matemática. Este é um dos livros mais citados na literatura especializada. Porém, levando em conta a data de publicação e o fato de que a teoria dos números tem avançado de maneira muito marcante nos últimos anos (incluindo o algoritmo AKS e até mesmo algoritmos quânticos, como o de Peter Shor), certamente é recomendável literatura complementar.

13) How to Teach Mathematics, Steven G. Krantz (AMS, 1999). Este é um texto que já recomendei diversas vezes neste blog. A maioria esmagadora dos livros sobre ensino de matemática não demonstra a mais remota preocupação com a prática de sala de aula, apesar de muitos anunciarem o contrário. Este é uma marcante exceção, talvez por ser escrito por um matemático e não um teórico da educação. Neste link discuto um pouco sobre o livro. E aqui o leitor encontra um texto de Krantz escrito exclusivamente para este blog.

14) Science Without Numbers, Hartry H. Field (Princeton University Press, 1980). Apesar do autor ser um tanto confuso quando fala, é brilhantemente claro quando escreve. Nesta referência única no gênero, Field defende de forma extraordinariamente convincente a tese nominalista de que objetos matemáticos (enquanto objetos abstratos) são desnecessários no estudo de física teórica. E, além disso, Field consegue demonstrar que sua formulação para a mecânica newtoniana (sem o emprego de números) é equivalente (em sentido preciso) a certas formulações usuais.

domingo, 6 de julho de 2014

Apenas alguns livros - Parte II


Esta postagem é uma das continuações prometidas de uma lista de recomendações bibliográficas nas áreas de física, matemática e filosofia da ciência. Como a primeira parte desta lista teve uma boa receptividade (com 1279 visualizações e 51 comentários até a presente data) decidi criar um novo marcador, chamado livros. Desta forma fica facilitado o acesso a todas as obras citadas em uma única página. Espero que o leitor faça bom proveito das recomendações. 

Em breve será publicada uma terceira lista de referências bibliográficas que, espero, sejam úteis aos leitores deste blog.


Física Matemática

1) Mathematical Methods of Classical Mechanics, Vladimir I. Arnol'd (Springer Verlag, 1989). Tradução de original russo, esta clássica obra de extraordinário apelo didático exige apenas conhecimentos básicos sobre equações diferenciais e álgebra linear para ser lida. Uma das principais vantagens do texto é o fato de proporcionar uma visão ampla, intuitiva e matematicamente madura sobre mecânica clássica, abordando esta área do conhecimento a partir de suas principais formulações: newtoniana, lagrangeana e hamiltoniana. O tratamento da formulação hamiltoniana a partir de estruturas simpléticas é extremamente elegante. Uma versão pdf do livro está disponível aqui.

2) Mathematical Physics, Robert Geroch (The University of Chicago Press, 1985). A teoria de categorias oferece uma visão radicalmente diferente daquela viabilizada pelas teorias usuais de conjuntos. E, normalmente, quando se fala em física matemática ou métodos matemáticos aplicados à física, quase sempre se pensa em termos conjuntistas usuais. Neste sentido esta obra é uma marcante exceção que deveria ser conhecida por todos os físicos. O autor mostra, sem perder tempo com elaborados preciosismos matemáticos, aplicações de extraordinário alcance e generalização da teoria de categorias em física teórica. E, apesar da teoria de categorias ter avançado significativamente desde o lançamento deste livro, a obra de Geroch ainda se mantém atualizada por conta da clara demonstração sobre como categorias podem e devem ser usadas no desenvolvimento e até na criação de teorias físicas. 

3) Introductory Functional Analysis With Applications, Erwin Kreyszig (John  Wiley & Sons, 1978). Apesar de ser um livro bem conhecido no Brasil, ainda assim vale a pena reforçar sua importância. Não são raros os físicos que fazem contas sem ter ideia sobre o que estão realmente fazendo, pelo menos do ponto de vista matemático. No caso do estudo de mecânica quântica, a polêmica se torna ainda mais evidente, uma vez que várias questões fundamentais continuam sem resposta até os dias de hoje. Portanto, se o leitor tiver interesse em conhecer de fato análise funcional antes de começar a aplicá-la em mecânica quântica, este texto é um ótimo ponto de partida. Ele oferece tanto uma excelente introdução a espaços de Hilbert e espaços de Bannach quanto didáticos exemplos de aplicações em física.

4) Gauge Theory and Variational Principles, David Bleecker (Dover, 2005). Dizem que os melhores livros são os menores. E este é um excelente exemplo para ilustrar tal tese. Brilhante texto sobre teorias de gauge. De imediato o autor motiva o leitor com uma articulada e bem qualificada discussão sobre o significado intuitivo da descrição geométrica de campos, tanto em física clássica quanto em teorias de segunda quantização. No entanto, é um texto cuja leitura fica mais facilitada para aqueles que tenham contato prévio com teorias quânticas de campos (pelo menos eletrodinâmica quântica) e teoria da relatividade geral. 

5) The Topology of Fibre Bundles, Norman Steenrod (Princeton University Press, 1999). O emprego de espaços fibrados definidos sobre variedades diferenciáveis é muito presente em física teórica, conforme se percebe, principalmente, nas referências 1, 3 e 4, citadas acima. Como este livro oferece uma sólida compreensão sobre espaços fibrados, os conhecimentos sobre seus conteúdos são simplesmente básicos para qualquer físico teórico que tenha especial interesse em teorias de campos. 

6) Group Theory and Physics, Shlomo Sternberg (Cambridge University Press, 1995). O mais importante conceito em qualquer ramo da física teórica é o de invariância. E é impossível compreender princípios de invariância sem conhecer muito bem a maneira como teorias de grupos de aplicam em física teórica. Este livro é a melhor referência que conheço sobre o tema, incluindo o uso de teoria de grupos na previsão da existência de quarks na estrutura da matéria. 


Física Quântica

1) Conceitos de Física Quântica - Volume 1, Osvaldo Pessoa Jr (Livraria da Física, 2003). São raros os livros científicos originalmente escritos em português que valem a pena ser lidos. E este é um deles. Vencedor do Prêmio Jabuti, esta obra é muito peculiar. Ela oferece uma visão intermediária entre um texto técnico e um de divulgação científica e análise filosófica sobre teorias quânticas. Foi publicado mais recentemente o volume 2. Para um primeiro contato com o tema, é uma excelente opção, tanto pelo extremo cuidado do autor ao escrever quanto pelo poder de provocação do texto.

2) Sneaking a Look at God's Cards, GianCarlo Ghirardi (Princeton University Press, 2007). Impecável tradução do original em italiano, esta obra é simplesmente uma das mais impressionantes surpresas da literatura científica. Trata-se do único livro de divulgação científica (que conheci) capaz de despertar considerável interesse até mesmo entre pesquisadores experientes. O foco é mecânica quântica e o texto já conta com edição revisada, discutindo resultados recentes e relevantes na área. Tive a sorte de revisar este livro para Mathematical Reviews, anos atrás. Referência obrigatória escrita por autor que fez contribuições extremamente relevantes em mecânica quântica.

3) The Feynman Lectures on Physics, Volume 3, Richard P. Feynman, Robert P. Leighton e Mathew Sands (Addison Wesley, 1971). Eu nem deveria recomendar este livro, por ser uma referência óbvia demais. Quem não conhece as famosas Feynman Lectures simplesmente não conhece física. A visão de Richard Feynman (o qual dispensa comentários) era tão avançada e clara que seus textos didáticos parecem ser incapazes de perder atualidade. É uma exposição quase poética sobre a natureza ondulatória da matéria e o papel dos princípios de incerteza, entre outros tópicos. 

4) Quantum Theory as an Emergent Phenomenon, Stephen L. Adler (Cambridge University Press, 2004). Apesar de ser um texto não recomendável para iniciantes, é uma obra originalíssima que certamente precisa ser melhor conhecida e explorada. Físicos renomados como David Bohm e Edward Nelson já haviam tentado explicar (décadas atrás) os inusitados fenômenos quânticos a partir de princípios da mecânica clássica. No entanto, suas concepções ainda estavam fortemente impregnadas de mistérios não explicáveis a partir da física clássica e (pior) praticamente limitadas ao regime não relativístico. Adler, porém, apresenta nesta imponente obra uma proposta impecável tanto do ponto de vista matemático quanto físico: uma clara explicação para os regimes relativístico e não relativístico da física quântica como fenômenos emergentes a partir da mecânica estatística clássica. Desafio qualquer físico a não se sentir provocado por tal ideia.

5) Quantum Electrodynamics, Walter Greiner e Joachim Reinhardt (Springer Verlag, 2008). O primeiro autor já publicou vários livros que se tornaram populares entre estudantes universitários. E este não é exceção. O foco, naturalmente, é a teoria quântica sob o regime relativístico. E o formalismo empregado é o de propagadores de Feynman. Com muitos exercícios estratégicos e exemplos de aplicações, é uma excelente oportunidade para aqueles que querem iniciar seus estudos sobre eletrodinâmica quântica.

6) Quantum Mechanics, Daniel Bes (Springer Verlag, 2004). Apesar de certas indesejáveis idiossincrasias do autor argentino Daniel Bes, trata-se de um competente e atualizado texto introdutório à mecânica quântica (regime não relativístico). No entanto, para um estudo mais aprofundado dos temas abordados, faz-se necessário complementar a leitura com outras referências. Não quero ser injusto com este parecer. Afinal, não é fácil encontrar bons livros para quem deseja realmente conhecer o inusitado mundo quântico. 

sábado, 19 de abril de 2014

A Busca Por Vida e Inteligência Extraterrestres


Anos atrás confessei para o professor Newton da Costa o seguinte: "Se eu não fizer qualquer contribuição realmente relevante para a ciência será por responsabilidade inteiramente minha, pois sorte eu tive." 

De fato sempre tive muita sorte ao longo de minha carreira. O Departamento de Matemática da Universidade Federal do Paraná (UFPR), por exemplo, sempre apoiou meus projetos. Além disso, meus círculos sociais mais próximos também constantemente apoiaram iniciativas minhas. Mas o mais importante é que tive a oportunidade de conhecer indivíduos extraordinários e eventualmente trabalhar com eles. Newton da Costa é um exemplo. Francisco Doria, Décio Krause, Patrick Suppes, Acacio de Barros, Germano Bruno Afonso, Daniel Freitas, Otavio Bueno e Analice Gebauer Volkov são outros que marcaram profundamente meu perfil profissional e até pessoal. Na verdade são muitos os nomes que deveriam ser citados aqui. Mas nesta postagem tenho o prazer de compartilhar o trabalho de uma dessas pessoas: Clovis Achy Soares Maia

Quando Clovis Maia, anos atrás, pediu por uma carta de recomendação para ingressar no programa de pós-graduação do Instituto de Física Teórica (na UNESP) escrevi o seguinte: "Foi simplesmente o melhor aluno que já tive."

Além de brilhante, Maia sempre foi extremamente equilibrado e modesto. Quando aluno de graduação, era incansavelmente movido pela mais genuína curiosidade científica. O melhor projeto de iniciação científica que orientei foi justamente aquele que desenvolvi com ele, o qual rendeu publicação em Foundations of Physics Letters. E os fundamentos do perfil pessoal e profissional de Maia não mudaram, mesmo sendo atualmente professor da Universidade de Brasília e membro da Humboldt Foundation.

Pedi a Clovis Maia por um texto para este blog. A primeira parte de sua contribuição acaba de chegar. E o tema, além de extremamente relevante, evidencia uma visão que eleva o nível deste blog para um novo patamar.

Espero que o leitor aproveite bem a leitura, a qual apresenta resultados muito recentes para uma das questões mais fundamentais da humanidade: afinal, estamos a sós no universo?
_____________________________

Viagens no Espaço-Tempo
Ou: se não estamos sós, o que isso implica para a Física?
escrito por Clovis Maia

12 de Julho de 1945: Philip Morrison, ex-orientado e um dos físicos em quem Robert Oppenheimer mais confiava, coloca no bagageiro de seu Dodge sedan, estacionado em Los Alamos, dois hemisférios de aparência metálica, porém nada frios ao toque. Em sua viagem até o rancho George McDonald, um preocupado Philip irá parar seu carro de hora em hora para medir a estabilidade radioativa da sua bagagem: o núcleo de plutônio da primeira bomba atômica a ser detonada pelo homem.

Aprox. 4h da madrugada de 16 de Julho, 1945: Algumas das mentes mais brilhantes do Séc. 20 amontoam-se para presenciar o ápice do Projeto Manhattan.  Em meio ao atraso do teste por causa de uma chuva, um bem humorado Enrico Fermi dispersa a palpável tensão no ar colhendo apostas: quem acertaria a potência da bomba? As apostas vão de zero, com a bomba falhando, até a completa destruição da atmosfera do planeta Terra.

5h29m45s, 16 de Julho de 1945: A Bomba. Ao sentir o calor da explosão em seu rosto, Fermi ergue o braço e abre sua mão: ele trouxera pequenos pedaços de papel, que repousam em sua palma, até que a onda de choque os leve embora. Simplesmente contando os passos até onde os papéis caíram, Fermi choca seus colegas com uma estimativa tão singela e rápida da energia liberada pela bomba: dez quilotoneladas de TNT. Considerando a simplicidade do método, Fermi chegou bem perto do valor real – vinte quilotons – cuja medida exigiu uma parafernália de equipamentos mais complexos. 

A aposta? Fora vencida pelo pioneiro da ressonância magnética nuclear, Isaac Rabi, que chegara mais perto com o palpite de dezoito quilotons.

Mas esta não será uma história sobre a Bomba, e embora alguns de nossos personagens acima venham a fazer parte dela, tampouco será uma história da Física Nuclear. Esta é uma história de como uma simples observação, tal como contar passos até alguns pedacinhos de papel caídos, pode nos render uma gama de informações surpreendentes sobre a natureza.

A simples observação que procuramos vem da pergunta: “but where is everybody?”. E a reposta que ela nos dá pode, talvez, trazer consigo algum vislumbre até mesmo da física que rege a estrutura mais fundamental de nosso espaço-tempo. 

O paradoxo de Fermi. A pergunta acima – mas onde está todo mundo? - fora feita por Fermi nos idos de 1950, em um almoço no Fuller Lodge (na época o restaurante do laboratório de Los Alamos), dirigida a seus colegas na mesa: Edward Teller (o “pai” da Bomba de Hidrogênio, embora a ideia tenha vindo do próprio Fermi, seu supervisor no passado), Emil Konopinski e Herbert York.

Konopinski trouxe à conversa um cartoon da revista The New Yorker que oferecia uma possível explicação para um misterioso sumiço das lixeiras públicas de Nova York, uma banalidade em voga nas discussões dos jornais da epóca. O cartunista oferecera essa explicação:




No que se seguiu uma discussão sobre a improbabilidade de discos voadores, vida extra-terrestre e objetos superluminais, até a conversa aquiescer para outros assuntos. 

Menos para Fermi que, após alguns minutos de silêncio em sua lendária capacidade para estimativas, chegara à conclusão de que o paradoxo de fato seria: aonde está todo mundo? Seus pares abriram-se em risos com a piada, até perceberem que Fermi tinha algo mais em mente. Segundo York relembrara anos depois, Fermi... “followed up with a series of calculations on the probability of earthlike planets, the probability of life given an earth, the probability of humans given life, the likely rise and duration of high technology, and so on. He concluded on the basis of such calculations that we ought to have been visited long ago and many times over. As I recall, he went on to conclude that the reason we hadn’t been visited might be that interstellar flight is impossible, or, if it is possible, always judged to be not worth the effort, or technological civilization doesn’t last long enough for it to happen.

Tal raciocínio, passado de boca em boca após aquele almoço, até virar o que hoje chamamos de “paradoxo de Fermi”, segue de simples comparação de ordens de grandeza, como exemplificamos a seguir.

Temos prova de que ao menos uma civilização passou de um estágio primata, a la Kubrick na entrada de 2001: Uma Odisseia no Espaço, ao lançamento de foguetes aeroespaciais, em algo como 200.000 anos. Já está dentro do potencial de nossa tecnologia presente lançar satélites para a estrela mais próxima da Terra, Alfa Centauri (aproximadamente quatro anos luz) se estivéssemos realmente dispostos a arcar com seus custos. Podemos conceber que o tempo para sua chegada àquele destino seria algo entre cem a mil anos, a depender de detalhes da tecnologia empregada. Se deixarmos em perspectiva que dentro de mil anos teremos tecnologias ainda mais avançadas, com hipóteses conservadoras concluímos que a colonização de estrelas próximas nos custaria menos que dez mil anos, tempo bem inferior ao de nossa própria espécie. Quando tal argumento é levado à nossa galáxia como um todo, não é difícil estimar um tempo de difusão por toda Via Lactea, com raio de cinquenta mil anos luz, em algo perto de cinco milhões de anos. 

Se tais cálculos ainda lhe parecerem otimistas demais, multiplique por dez e tome cinquenta milhões de anos: algo ainda irrisório comparado à idade da própria galáxia, acima de treze bilhões de anos.

Qualquer civilização parecida com a nossa, que tivesse por acaso atingido nossos níveis há cinco milhões de anos, já poderia dominar a galáxia. Dentro dos 3,7 bilhões de anos que a vida na Terra levou para chegar ao Homo Sapiens, basta que em outro sistema solar o processo tenha se iniciado pouca coisa mais cedo. Ou que nos percalços da evolução Darwiniana, os dados premiados tenham sido sorteados algo mais rápido. Não é como se faltassem oportunidades na Via Láctea para tal: se olharmos somente para estrelas na zona habitável da galáxia (ou seja, longe o suficiente de supernovas nocivas), exigindo níveis mínimos de metalicidade e elementos pesados para a existência de vida complexa, e com ao menos quatro bilhões de anos de idade – para ninguém nos acusar de superestimar a evolução Darwiniana – encontraremos que 75% dessas estrelas são mais velhas que Sol. Em média, um bilhão de anos mais velhas – tempo consideravelmente maior do que os cinco (ou cinquenta, você escolhe) milhões de anos para a colonização da galáxia. Fermi, de fato, não estava apenas fazendo uma piada.

Nem tampouco nosso personagem inicial dessa história. Nada mais natural que, tendo carregado em seu bagageiro a primeira semente capaz destruir nossa civilização, Philip Morrison passasse a se perguntar se outras civilizações duraram tempo o suficiente para deixar rastros. O que o levou, junto a um outro italiano, Giuseppe Cocconi, a inaugurar nossa era moderna de procura por inteligência extra-terrestre, com uma proposta publicada na Nature em 1959

A ideia era simples: é razoável assumir que qualquer civilização avançada teria conhecimentos de astronomia iguais ou melhores que os nossos. Em particular, qualquer radioastrônomo sabe que dentro desse espectro uma linha de emissão se destaca em todo o universo: a de 21 centímetros de comprimento de onda, do hidrogênio. De onde é possível especular sobre várias formas de comunicação intergaláctica usando esse sinal. 

A ideia cativou o radioastrônomo Frank Drake, que em 1960 fez a primeira procura por sinais não-triviais nessa faixa de frequência, dando origem ao que hoje conhecemos como os projetos SETI. Na busca por melhor explicar todos os conceitos envolvidos, ele resumiu em uma fórmula o raciocínio antes feito por Fermi, a hoje bem conhecida equação de Drake.

É claro que, ao se calcular a probabilidade de vida em outros planetas, vários aspectos desse cálculo fogem aos nossos conhecimentos presentes. Mesmo o quadro de como a vida se formou em nosso próprio planeta ainda é bastante incompleto, o que dizer então de outras constelações. Muito do que se faz consiste em “palpites educados”, que têm crescido em uma grande área, a Astrobiologia, com literatura já extensa, journals próprios e quadros em boas universidades espalhadas pelo mundo.

Ainda assim, avanços têm acontecido a passos largos em outras direções. Seguindo o raciocínio de Fermi, antes de se delimitar a probabilidade de vida, faz-se necessário delimitar as chances de haver um ambiente no qual ela se desenvolva. Em outras palavras, quantas “Terras” estão orbitando estrelas em condições “habitáveis” por aí afora?

Até muito pouco tempo - 2013 -  essa era uma pergunta sem resposta. Não mais. As estimativas ainda devem melhorar no decorrer dos próximos anos, mas já temos uma razoável ideia de quantos planetas habitáveis rondam pela Via Láctea: quarenta bilhões deles. Nada mal para uma galáxia que tem algo perto de quatrocentos bilhões de estrelas. 

Mas de onde surgem esses números? Da missão Kepler, cuja meta de descobrir novos planetas tem se mostrado tão revolucionária quanto o astrônomo a quem ela homenageia. Seu princípio é simples: um satélite em órbita ficara cinco anos focado em uma região central de nossa galáxia, monitorando periodicamente a luminosidade das mesmas 140.000 estrelas em seu campo de visão. Uma vez que um planeta passe na frente de uma dessas estrelas, o evento é detectado pela menor luminosidade que chega ao telescópio da Kepler. A simplicidade da ideia certamente cativaria o próprio Fermi, não? Merece uma nota de admiração o fato de que tenhamos – ou melhor, a NASA tenha – tecnologia para diferenciar centenas de planetas distantes dessa maneira. Até o presente foram já confirmados 961 planetas, dentre 3845 candidatos, e se você clicar no link acima da missão Kepler, certamente verá um número atualizado ainda maior. Se somarmos as descobertas de outros planetas por outros metódos, já temos uma lista que chega perto de dois mil planetas extra-solares conhecidos. Mas até aqui estamos falando de qualquer planeta, o que dizer de planetas tal qual a Terra?

Se por planetas habitáveis tipo-Terra, considerarmos aqueles que recebem de ¼ a duas vezes a mesma radiação solar que a Terra – permitindo assim aquele grande facilitador de vida, a água, manter-se em forma líquida – com tamanho de um a dois raios terrestres (garantindo-se um planeta rochoso), e fizermos uma extrapolação estatística  dos dados da Kepler, chegamos a um número de aproximadamente 8,8 bilhões de planetas tipo-Terra, orbitando estrelas tipo-Sol, em nossa galáxia. Se nos conformarmos com vizinhos vivendo sob um sol menos amarelado (como estrelas tipo anãs-vermelhas), chegamos aos quarenta bilhões de planetas habitáveis antes mencionados. Fora sob uma estrela desse tipo que um exemplo de planeta muito parecido com a Terra fora há pouco anunciado, com grande exposição na mídia mundial.

Quais são as chances de que, dentro de quarenta bilhões de planetas como o nosso, em um período de quase treze bilhões de anos, tenhamos tirado o único bilhete premiado? Note que uma solução trivial para o paradoxo de Fermi seria justamente essa possibilidade.

Veja que nossas hipóteses ao expor o paradoxo não exigiram nenhuma tecnologia mais avançada do que temos, ou que concebivelmente venhamos a ter. As escalas de distância dentro da Via Lactéa, tomadas no panorama de milhões de anos, não são intransponíveis mesmo para nossas limitadas capacidades presentes. No que fica fácil entender porque a falta de indícios de visitantes em nossas imediações fora tomada por Fermi como um presságio de que, ou vôos interestelares são impossíveis ou, se possíveis, desinteressantes, ou ainda que civilizações como a nossa não duram muito tempo.

O rol de outras possibilidades que tentem explicar nossa solidão é grande, mas podemos nos focar apenas em um próximo grande suspeito: talvez a formação de vida, e em particular vida inteligente, mesmo quando dadas condições mínimas, seja um evento mesmo muito raro. Outro físico da estatura de Fermi debruçou-se sobre este ponto. Paul Dirac tentou usá-lo para discutir nada menos que a possibilidade da existência de Deus sob um ponto de vista científico:

It could be that it is extremely difficult to start life. It might be that it is so difficult to start life that it has happened only once among all the planets. Let us consider, just as a conjecture, that the chance life starting when we have got suitable physical conditions is 10^-100. I don't have any logical reason for proposing this figure, I just want you to consider it as a possibility. Under those conditions, it is almost certain that life would not have started. And I feel that under those conditions it will be necessary to assume the existence of a god to start off life. I would like, therefore, to set up this connexion between the existence of a god and the physical laws: if physical laws are such that to start off life involves an excessively small chance, so that it will not be reasonable to suppose that life would have started just by blind chance, then there must be a god, and such a god would probably be showing his influence in the quantum jumps which are taking place later on. On the other hand, if life can start very easily and does not need any divine influence, then I will say that there is no god.

Lembrando que Dirac era ateu (ou talvez agnóstico), podemos ver que o paradoxo de Fermi facilmente nos suscita as mais profundas questões.

Algo inspirado no espírito especulativo de Dirac mostrado acima, pretendo aqui elevar o paradoxo de Fermi a mais um nível: o que dizer de vida não só em nossa galáxia, mas em todo o Universo?

Aqui novamente uma análise das ordens de grandeza nos permite interessantes conclusões. O número de galáxias estimado no universo chega perto de 170 bilhões. Há certamente galáxias menores que a nossa, assim como há outras muito maiores, com algo como cem trilhões de estrelas. Se multiplicarmos o número de galáxias pelo número médio de estrelas por galáxia, chegamos em algo perto de 10^24 estrelas. Se nossa galáxia servir de exemplo típico, teríamos então 10% desse número (ou, 10^23) em planetas habitáveis em nosso Universo - coincidentemente, a mesma ordem do número de Avogrado.

No que podemos nos perguntar: quais são as chances de que, em 10^23 possibilidades, somente o nosso planeta abrigue vida? Não chegamos ao número de 10^100 jogado por Dirac, mas ainda assim é um número impressionante. Se nossa estimativa estivesse errada, digamos, por um fator 1000, ainda teríamos um número avassalador de planetas habitáveis em nosso universo.

Um leitor atento poderia aqui apontar que minha expansão do paradoxo de Fermi para o universo inteiro sofre de um grave defeito: diferente do caso intra-galático, não há nenhuma possibilidade em nossa tecnologia presente para que se consiga colonizar galáxias vizinhas. A galáxia espiral mais perto de nós, Andrômeda, está a 2,5 milhões de anos-luz, e a mesma tecnologia que nos levaria a Alfa Centauri em cem anos, nos tomaria 250 milhões de anos para aportar em Andrômeda. O que começa a ser comparável à idade do próprio universo, 13,7 bilhões de anos, se formos progredir cada vez mais longe.

Neste caso, se não podemos ser visitados por vizinhos extra-galáticos, o quão importante se faz a pergunta sobre vida fora da galáxia? Mesmo sinais de comunicação entre galáxias distantes facilmente tomariam mais tempo do que muitas civilizações talvez cheguem a durar. Em outras palavras, se vida extra-galáctica não for sequer observável (ou o for somente em situações muito limitadas), com que peso ela entra em nossas estimativas?

Certamente ninguém, ao menos no planeta Terra, possui essa resposta. Mas o que pretendo aqui é invertê-la na seguinte pergunta: o que seria possível concluir, caso de fato fôssemos visitados por seres extra-galácticos?

Embora a pergunta seja algo brincadeira, ela nos fornece um panorama de especulações criativas. Em particular, parece claro que tal visita só seria permitida caso civilizações avançadas possam realizar viagens superluminais, uma hipótese que o próprio Fermi também discutira naquela  famosa conversa de Los Alamos.

Na segunda parte deste post, iremos explorar a pergunta acima da seguinte forma: o que aprenderíamos - tão imediatamente quanto contar passos até pedaços de papel - sobre as Leis da Física pela simples observação de um visitante extra-galáctico?

Claramente estaremos lidando com a fronteira cinza de nossos conhecimentos científicos, onde pretendo fazer uma especulação informada de quais ferramentas nossas teorias fundamentais da natureza, já conhecidas, nos dão para responder essa fascinante questão.