Inteligência Artificial: Limitada na Compreensão Profunda
Quando surgiu a Wikipédia, aqueles de nós que lemos a Trilogia da Fundação, de Isaac Asimov, comemoraram a criação de um repositório de conhecimento que se aproximava da enciclopédia galáctica imaginada pelo autor.
O sonho de Jimmy Wales, fundador da plataforma, era concentrar todo o conhecimento humano em um só lugar: a Nupedia, onde apenas cientistas contribuiriam. No entanto, a ideia inicial não prosperou, e então a Wikipédia foi aberta para contribuições de qualquer pessoa interessada em compartilhar informações relevantes.
Esse formato colaborativo fez com que cientistas, cujas publicações se baseiam em evidências concretas, representassem uma pequena parcela dos colaboradores. A natureza inclusiva da plataforma permitiu que pessoas de diversas áreas, incluindo sociologia, filosofia, ciências sociais e literatura, passassem a contribuir ativamente. Hoje, esses perfis representam a ampla maioria dos editores.
Como resultado, a inteligência artificial, que frequentemente utiliza a Wikipédia como fonte de dados, pode refletir as perspectivas mais comumente representadas ali, e não necessariamente as mais profundas ou inovadoras. Por exemplo, visões de esquerda aparecem com muito mais frequência nessas contribuições, o que pode influenciar os modelos de linguagem que dependem de tais fontes para fornecer informações.
Inteligências artificiais, ou modelos de linguagem (LLMs – Large Language Models), têm o propósito de prever a palavra ou frase seguinte com base em padrões linguísticos anteriores. Isso significa que esses modelos se concentram principalmente em padrões de linguagem e frequência de palavras, e não necessariamente na descoberta de correlações ou teorias inovadoras.
Em outras palavras, são ferramentas para processamento de linguagem, e não modelos científicos abrangentes que lidam com grandes conjuntos de equações ou análises matemáticas complexas. A “inteligência” artificial é capaz de sintetizar grandes volumes de informações e relembrar dados de maneira eficiente, mas a criação de ideias verdadeiramente novas e inovadoras ainda está além de seu alcance.
O processo de aprendizado de máquina é essencialmente estatístico, com a IA captando os conceitos e ideias mais frequentes nas fontes disponíveis. Dessa forma, a IA tende a reproduzir as informações mais comuns das últimas décadas, refletindo as tendências predominantes nas publicações, como as de viés de esquerda.
Como exemplo, no verbete sobre a recessão de 1929, contribuí várias vezes para incluir que a verdadeira razão foi o uso da taxa de juros nominal, que, com a deflação de 1929, 1930 e 1932, elevou a taxa de juros real para 11% ao ano, quebrando todos os bancos da época. Esse conteúdo é sistematicamente apagado por economistas keynesianos, que insistem que 1929 foi causado por falta de demanda e não pela percepção equivocada do aumento da taxa de juros real.
Portanto, enquanto a inteligência artificial tem um enorme potencial para consolidar e processar informações, é fundamental compreender suas limitações. O que a IA fornece são sínteses baseadas em frequência e dados existentes, mas a inovação e a descoberta científica profunda continuam sendo um desafio humano.