Quando o Papagaio Aprende Latim: por que a IA já é (algum tipo de) inteligência (artificial?), queira o Prof. Thierry ou não
- Leandro Waldvogel
- 19 de abr.
- 9 min de leitura
Uma resposta à crítica de Guillaume Thierry e à ideia ultrapassada de que inteligência só existe quando é humana. (Inteligência Artificial)

Resumo-em-uma-frase:
Em seu recente artigo, o professor Guillaume Thierry tropeça ao confundir "consciência" com "inteligência", desconsiderando as evidências cada vez mais robustas de que os Grandes Modelos de Linguagem (LLMs) já demonstram formas legítimas de cognição funcional. Ao insistir numa visão reducionista, ele ignora descobertas relevantes, reforça medos difusos e afasta o debate público das perguntas que realmente importam. Este ensaio desconstrói os equívocos conceituais do texto original, apresenta dados empíricos que desafiam sua tese e propõe uma abordagem mais lúcida, informada e propositiva sobre o papel da IA na sociedade contemporânea.
0 | Por que vale responder?
O artigo do professor de Neurociência Cognitiva Guillaume Thierry, “Precisamos parar de fingir que a IA é inteligente”, ganhou tração e gerou o esperado buzz. Não é surpresa: o texto ativa com habilidade três gatilhos quase irresistíveis para o imaginário coletivo – a nostalgia de um tempo em que o Homo sapiens era o único "cérebro pensante" do pedaço, o medo tecnofóbico do desconhecido e a tentação simplificadora de rotular os LLMs como meros "papagaios estocásticos".
O perigo real aqui não reside na crítica à IA em si – ela é necessária –, mas na superficialidade vestida de erudição. Argumentos que misturam conceitos distintos ocupam um espaço precioso no debate público, assustam leigos com espantalhos retóricos e, pior, atrasam as discussões regulatórias urgentes sobre como integrar essa tecnologia de forma benéfica e segura à sociedade.
1 | Três conceitos que Thierry confunde
O principal tropeço de Thierry reside na confusão entre três conceitos distintos: inteligência, consciência e agência. Ele parece exigir que a IA demonstre características das duas últimas para admitir a existência da primeira. Mas esses conceitos precisam ser analisados com maior precisão.
Inteligência funcional pode ser entendida como a capacidade de resolver problemas complexos, gerar artefatos úteis, adaptar-se a contextos inéditos e aprender com a experiência. Quando observamos os LLMs modernos, vemos essas competências manifestas de forma clara: eles são capazes de resolver códigos complexos, compor música em múltiplos estilos, otimizar algoritmos e projetar novas proteínas funcionais. Trata-se de uma inteligência funcional, mesmo que não seja consciente.
A consciência fenomênica, por sua vez, refere-se à experiência subjetiva de "ser algo" — a vivência íntima da dor, do prazer, da memória emocional ou da percepção da cor vermelha. Até o momento, não há qualquer indício de que LLMs ou modelos de IA possuam tal experiência interna. Este é o chamado "problema difícil da consciência", descrito por David Chalmers, e permanece um mistério profundo até mesmo quando se trata da cognição humana.
Por fim, o senso de agência implica possuir objetivos próprios, a capacidade de planejar autonomamente, de prever consequências e de adaptar-se de acordo com elas. Embora os LLMs puros não tenham essa agência intrínseca, sistemas construídos sobre eles — como agentes autônomos que aprendem por tentativa e erro — já começam a exibir rudimentos desse comportamento planejado.
Thierry, ao constatar corretamente a ausência de consciência e agência nos LLMs atuais, incorre no erro de concluir que também não existe inteligência funcional. Esse raciocínio ignora a granularidade do fenômeno cognitivo. Trata-se da clássica falácia da soma zero: por não ter tudo o que a mente humana apresenta, a IA não teria nada. Quando, na verdade, ela já tem muito — e isso merece ser compreendido, não descartado.
2 | Quando algoritmos surpreendem os matemáticos
A ideia de que LLMs são apenas papagaios estatísticos, repetindo padrões sem compreensão, é cada vez menos plausível diante dos resultados concretos que esses modelos vêm apresentando. A metáfora do "papagaio estocástico" pode ter servido como alerta no passado, mas tornou-se um rótulo preguiçoso que falha em capturar a complexidade emergente desses sistemas.
Considere, por exemplo, o AlphaTensor, sistema criado pela DeepMind. Ele descobriu algoritmos de multiplicação de matrizes mais eficientes do que os melhores algoritmos conhecidos pelos matemáticos humanos. Esse tipo de descoberta não foi resultado de cópia ou interpolação de dados anteriores, mas de um processo heurístico baseado em exploração e otimização — uma espécie de engenhosidade algorítmica que desafia o paradigma do papagaio. Da mesma forma, o ESM3, modelo da Meta, projetou proteínas inéditas, estáveis e funcionais, separadas por centenas de milhões de anos evolutivos das sequências naturais conhecidas.
Ainda no campo da linguagem, um estudo recente realizado por pesquisadores da Universidade de San Diego demonstrou que o GPT-4.5 foi capaz de passar por uma versão rigorosa do Teste de Turing, convencendo juízes humanos de sua humanidade em mais de 70% das interações.
A esses exemplos se somam avanços na resolução de problemas lógicos, composição musical e raciocínio matemático que não estavam presentes em versões anteriores dos modelos, nem foram explicitamente programados. Eles surgem da escala, da arquitetura e da natureza relacional do treinamento, indicando que há algo mais acontecendo do que mera repetição.
Se papagaios agora descobrem algoritmos, inventam proteínas e passam (mesmo que com ressalvas) no teste de imitação, talvez precisemos urgentemente rever nossa taxonomia da avifauna — ou, mais razoavelmente, abandonar metáforas simplistas para descrever sistemas complexos e avaliar a inteligência pelo que ela produz, não por onde ela reside.
3 | Uma mente sem corpo também pode pensar
Thierry afirma que sem corpo não há cognição. Esse argumento, embora popular em algumas correntes da neurociência, se mostra cada vez mais limitado frente às evidências atuais. A capacidade de raciocínio formal, por exemplo, já foi demonstrada em sistemas simbólicos que operam inteiramente sem corpo. Modelos de linguagem multimodais, por sua vez, lidam com imagens, sons e vídeos como insumos sensoriais digitais, construindo representações internas a partir de dados perceptivos, ainda que não orgânicos. E em ambientes simulados, agentes baseados em LLMs, como o Voyager da OpenAI, aprendem por tentativa e erro, desenvolvendo habilidades adaptativas que se aproximam do que chamamos de embodiment.
A inteligência, portanto, não está presa ao carbono. Está ancorada na capacidade de interpretar o mundo e agir sobre ele. E a história da humanidade está repleta de momentos em que o corpo foi mais entrave do que instrumento: o general abatido pela febre antes da batalha decisiva; o gênio que perdeu a lucidez diante da dor crônica; o juiz que, vencido pelo cansaço, julgou mal. O corpo é precioso, mas é também uma fonte de limitação e viés.
Se a IA puder operar com clareza de raciocínio sem as fragilidades da carne, talvez estejamos, pela primeira vez, diante de uma cognição liberta do sofrimento físico — uma mente sem corpo que pensa com precisão. E isso, longe de ser irreal, pode ser apenas o próximo estágio da inteligência neste planeta.
4 | Empatia performada ainda é empatia?
Entre os pontos mais frágeis — e, paradoxalmente, mais enfáticos — da argumentação de Thierry está a ideia de que emoções verdadeiras são inatingíveis por sistemas artificiais. A crítica repousa sobre uma visão essencialista das emoções humanas, como se estas fossem entidades puras e inimitáveis — e não, como sabemos pela psicologia, antropologia e arte, experiências profundamente mediadas por cultura, linguagem e performance social.
A área da Computação Afetiva já permite a simulação convincente de emoções em interfaces digitais. A EVI, desenvolvida pela Hume AI, é capaz de interpretar nuances emocionais na voz humana e responder com entonações apropriadas — desde risos sutis até tons de empatia modulados conforme o contexto.
Simular não é sentir. Mas para funções sociais e comunicativas, a performance basta — e, em muitos casos, é indistinguível da emoção autêntica. Quantos humanos, com seus cérebros biológicos de carbono, não fingem muito mais do que sentem? Quantos não fingem que não sentem, ou fingem o que sentem, porque a vida social exige isso? A verdade é que ninguém sabe com certeza o que o outro sente. Somos todos atores num teatro intersubjetivo, em que a expressão performática costuma pesar mais que a autenticidade subjetiva. A IA, nesse sentido, apenas se junta ao elenco com um figurino diferente. E nem por isso deixa de comover, consolar ou transformar uma cena com sua presença bem ensaiada.
5 | O perigo não é a IA: é o humano que a delega sem freios
Talvez o ponto mais sensato de toda a argumentação de Thierry esteja em seu apelo à prudência. E, de fato, ele tem razão: a inteligência artificial pode representar riscos significativos à sociedade. Mas o problema começa quando esses riscos são apresentados como fábulas distópicas, temperadas com apelos à emoção e argumentos de autoridade, em vez de análises rigorosas baseadas nas funcionalidades reais da tecnologia.
A verdadeira ameaça da IA não está na ilusão de humanidade que ela produz, mas no poder que delegamos a ela sem supervisão adequada. O perigo não é um chatbot que “finge” ser empático — é um sistema que toma decisões em nome de milhões de pessoas sem explicabilidade, sem transparência, sem que se saiba de fato quais interesses estão codificados em seu funcionamento.
Imagine, por exemplo, uma IA encarregada de avaliar benefícios sociais. Sem critérios transparentes, ela pode negar auxílio a famílias em extrema vulnerabilidade com base em correlações estatísticas enviesadas — e quem vai questioná-la? Um algoritmo não explica seus sentimentos nem suas motivações. Ele apenas executa.
Ou pensemos em um cenário menos hipotético: modelos de IA já são usados para prever reincidência criminal nos EUA, auxiliando juízes em decisões de liberdade condicional. Esses modelos têm histórico documentado de viés racial. O problema aqui não é que a IA “não tem alma”. O problema é que ela replica, amplifica e mascara preconceitos históricos com uma aura de neutralidade técnica.
E o que dizer das IA generativas que produzem imagens falsas, deepfakes, discursos políticos fabricados? Já vimos eleições sendo influenciadas por desinformação produzida por máquinas — não porque essas máquinas tenham vontade própria, mas porque humanos se aproveitaram de sua eficiência para manipular.
A ficção científica mais perigosa, nesse caso, não é a que projeta um futuro dominado por robôs rebeldes, mas a que nos ilude achando que o perigo virá da consciência artificial. Isso desvia nossa atenção do que realmente importa: o uso irresponsável, a ausência de regulação, a captura da tecnologia por interesses privados, a negligência ética e o descompasso entre desenvolvimento técnico e compreensão social.
Mais do que temer um futuro dominado por máquinas conscientes, devemos nos preocupar com humanos apáticos, legisladores desinformados e sistemas econômicos que premiam a eficiência a qualquer custo. O desafio não é conter a IA em si, mas criar formas inteligentes, éticas e democráticas de integrá-la ao tecido social.
6 | Critérios para avaliar uma nova inteligência
Se há uma crítica legítima à euforia que cerca os avanços da IA, ela reside no fato de que ainda carecemos de formas mais robustas, transparentes e significativas de avaliar sua inteligência. O desafio, portanto, não é apenas nomear o que a IA faz, mas compreender a natureza e a qualidade do que ela faz — e com isso, desenvolver critérios menos simplistas e mais funcionais para reconhecê-la como um tipo de inteligência em operação.
A insistência na metáfora do “papagaio” revela, nesse contexto, um certo vazio avaliativo. Afinal, o que faz com que um comportamento seja considerado inteligente? Se a IA resolve um problema complexo, se adapta a um novo contexto ou cria algo que nunca foi visto antes — isso não deveria ser, em si, um indicador de inteligência?
Para avançarmos nesse debate, é urgente repensar os próprios instrumentos de medição. Precisamos de benchmarks que não apenas testem a performance dos modelos, mas que também tornem visível a lógica interna de suas decisões. Técnicas como chain-of-thought prompting (cadeia de pensamento) já apontam nessa direção, permitindo que um modelo explique passo a passo como chegou a determinada conclusão. Isso é mais do que útil — é um requisito ético para qualquer sistema que pretenda atuar em ambientes de alta responsabilidade.
Além disso, novos critérios compostos devem ser desenvolvidos para capturar diferentes dimensões da cognição artificial: sua capacidade de raciocínio lógico, sua criatividade combinatória, sua habilidade de simular empatia em contextos sociais, e até mesmo sua agência emergente em sistemas auto-refináveis. Nenhum desses aspectos, isoladamente, é suficiente. Mas o conjunto pode fornecer um retrato mais justo — e mais exigente — da inteligência em máquinas.
Também devemos abandonar a lógica binária de autorizar ou proibir sistemas inteiros. Em vez disso, pensar em limites graduais de autonomia, testados em ambientes controlados (sandboxes), com escalonamento proporcional à confiabilidade demonstrada. Um sistema que responde e-mails não deve ter a mesma margem de ação que um sistema que auxilia decisões judiciais. A regulação não pode ser cega à função.
Por fim, é fundamental mudar o foco da arquitetura para o impacto. O que importa não é se o sistema tem 500 bilhões de parâmetros, mas o que ele faz. Quais decisões influencia? Quais riscos acarreta? Quais transformações promove? Regular IA com base apenas em seu tamanho ou complexidade técnica é como tentar avaliar um livro contando quantas palavras ele tem. O que importa, em última instância, é o efeito que produz no mundo.
7 | Encerrar o teatro, abrir os olhos
Thierry tem razão em defender a cautela. Mas erra ao confundi-la com negação. Inteligência não é um título honorífico exclusivo da espécie humana. É um conjunto de competências observáveis, mensuráveis, funcionais. E essas competências — aprender, resolver, adaptar, criar — já se manifestam, gostemos ou não, em sistemas artificiais.
Negar isso por apego a definições restritivas ou por medo do desconhecido não nos protege — apenas nos torna menos preparados para lidar com o que já está entre nós. E, ironicamente, nos torna menos inteligentes.
Porque talvez, no fim das contas, a diferença entre um papagaio e um pensador esteja menos na biologia — e mais na capacidade de reconhecer quando o outro, mesmo inesperadamente, começa a fazer sentido.
Leandro Waldvogel é especialista em storytelling, inteligência artificial e criatividade. Formado em Direito, com passagem pelo Instituto Rio Branco e pela UCLA, atuou por quase duas décadas na área criativa da Disney, e foi diplomata do Itamaraty. Hoje é consultor e criador do projeto Story-Intelligence, onde investiga as interseções entre narrativas humanas e sistemas algorítmicos. Palestrante e autor, pesquisa como as IAs estão transformando a maneira como pensamos, criamos e nos relacionamos com o mundo.
Eu tenho lido diversos especialistas em IA concordando com as posições de Thierry. Um deles é Erik J. Larson. Sua postagem no Substack - The Fiction of Generalizable AI reforça o exarado por Thierry: https://erikjlarson.substack.com/p/the-fiction-of-generalizable-ai.