André Insardi é executivo especializado em IA, e transformação digital, mestre em Big Data pela ESPM e doutorando em Inteligência Artificial na UNICAMP. Atua como professor de IA e Arquitetura de Cloud na ESPM e FIAP e como membro do CJE da FIESP.
Eduardo de Rezende Francisco é professor de GeoAnalytics, Chefe do Departamento de Tecnologia e Data Science da FGV EAESP e fundador do GisBI, participa do desenvolvimento de plataformas de informação e de IA, com objetivos sociais, pesquisador do FGVanalytics
Gustavo Corrêa Mirapalheta é professor de IA e Analytics do Departamento de Tecnologia e Data Science de diversos programas de graduação da FGV EAESP e de MBAs da FGV Educação Executiva. Especialista em Deep Learning e Computação Quântica.

Desde Ada Lovelace, considerada a primeira programadora, até Alan Turing com sua famosa pergunta — “as máquinas podem pensar?” — carregamos a provocação do título deste artigo no imaginário. O debate voltou com força nos últimos anos, quando vimos os grandes modelos de linguagem, como o GPT-4, alcançarem resultados impressionantes. Alguns já sugerem que estamos diante de uma inteligência comparável à humana. Mas inteligência e aprendizagem não são a mesma coisa, e apesar de todo o fascínio, podemos defender: máquinas ainda não pensam como nós.
André Insardi se une neste artigo aos amigos Eduardo Francisco e Gustavo Mirapalheta, na busca de um contra-argumento a publicação anterior deste blog Impacto (“Poderiam as máquinas pensar tal como os humanos?”, disponível em https://www.impacto.blog.br/blog-impacto/poderiam-as-maquinas-pensar-tal-como-os-humanos/).
Quatro são os pontos que completam esse contra-argumento.
O primeiro ponto é o corpo. As máquinas vivem no mundo dos zeros e uns. São maravilhas do armazenamento e do processamento, mas exigem volumes gigantes de energia e dados para emular pensamento. O cérebro humano, por outro lado, é biológico e contínuo. Ele esquece com frequência, mas compensa com associações criativas, preenchendo lacunas e reconstruindo histórias. Mais do que isso, está embebido em um corpo que sente, sofre, se emociona. Como lembra Antonio Damasio em “Descartes’ Error: Emotion, Reason and the Human Brain” de 1994, não há cognição sem corpo. As máquinas, por mais sofisticadas, não têm essa dimensão – ainda!
O segundo ponto é o processo do pensamento. O aprendizado de máquina começa com pesos sorteados ao acaso, ajustados milhões de vezes até estabilizar. GPT-3 precisou de dezenas de terabytes e meses de treinamento para aprender a conversar. GPT-4 e GPT-5 estão ordens de grandeza à frente em armazenamento e tempo. Cada iteração — cada época — percorreu o conjunto inteiro de dados. É força bruta estatística. Já o pensamento humano permanece uma caixa-preta para a ciência. Miguel Nicolelis, em seu espetacular livro “O Verdadeiro Criador de Tudo: como o cérebro humano esculpiu o universo” de 2020, insiste que não sabemos explicar a consciência. E na filosofia, Chomsky nos lembra da “pobreza do estímulo”: como pode uma criança, com tão pouco exemplo, aprender a falar tão rápido? Talvez porque já traga predisposições inatas. Peirce, pensador clássico da semiótica, acrescenta que todo pensamento humano carrega ética e estética, atributos que não vêm de fora, mas fazem parte da própria experiência. Essa ética e estética inatas funcionam como uma espécie de orientação anterior, que retira a aleatoriedade inicial presente no aprendizado de máquina e dá ao pensamento humano um ponto de partida enviesado pela própria existência.
Em seguida vem a forma. Aqui mora a confusão. Turing propôs que, se uma máquina conversasse sem ser desmascarada, poderíamos chamá-la de inteligente. Pois bem: os LLMs (Large Language Models, ou grandes modelos de linguagem) já superam esse teste em vários contextos. Mas linguagem não é pensamento. Basta lembrar a cena icônica de “2001: Uma Odisseia no Espaço”: um primata descobre que pode usar um osso como ferramenta. Ali não havia palavras, mas havia um salto cognitivo, um ato simbólico. Pensar é mais do que falar. Como lembra novamente Damasio, envolve também imagens, emoções, corpo. As máquinas, embora eloquentes, não demonstram dar saltos criativos desse tipo. Estudos recentes publicados na Nature, como o trabalho de Schulze Buschoff e outros autores (“Visual cognition in multimodal large language models” em edição da Nature Machine Intelligence de 2025), reforçam esse ponto: mesmo quando os LLMs conseguem desempenhar bem tarefas de linguagem, continuam falhando em raciocínios simples de senso comum ou em inferências básicas que humanos executam com facilidade, revelando que ainda não existe equivalência entre forma linguística e pensamento humano.
Por fim, o efeito. É aqui que os defensores da GenAI se empolgam. O GPT-4 passou no exame da OAB americana com notas superiores à média dos estudantes. Brilha em programação, tradução e benchmarks acadêmicos. Mas ainda tropeça em tarefas simples de senso comum ou raciocínio físico. Não possui nada parecido com os dois sistemas de decisão que Kahneman descreveu: um rápido e intuitivo, outro lento e deliberativo. Claro, técnicas como fine-tuning, retrieval augmented generation (RAG) e equipes de agentes digitais deixam as respostas mais precisas. Mas tudo isso melhora apenas o efeito — a essência segue a mesma: máquinas que predizem tokens, palavra por palavra.
E a conclusão? Máquinas não pensam como nós. Nem corpo, nem processo, nem forma, nem efeito comprovam equivalência com o pensamento humano. Mas isso não significa que a IA seja falsa ou inútil. Talvez estejamos diante de algo novo: a primeira “calculadora de pensamentos”. Aristóteles já dizia que pensamos em forma de diálogo interno, a dialética. Os LLMs, nesse sentido, podem servir como ferramentas para expandir nossas capacidades de raciocínio, não como substitutos da mente humana. E se lembrarmos de Peirce, que via ética e estética como fundamentos prévios da lógica, fica ainda mais claro: o pensamento humano parte de orientações inatas que não podem ser reduzidas à aleatoriedade inicial das máquinas. Essa diferença estrutural é o que garante que nosso pensar não seja apenas cálculo, mas também sentido, valor e beleza.
Voltando à metáfora de “2001: Uma Odisseia no Espaço”, se o gesto do primata com o osso simbolizou o início da abstração e da técnica, a IA pode ser vista como um novo artefato: uma calculadora de pensamentos que amplia nossos horizontes sem, contudo, substituir a centelha criativa que nos torna humanos. Como lembrava Wittgenstein em “Lectures on the Foundations of Mathematics: Cambridge” de 1939, mesmo a matemática, com toda sua precisão formal, só ganha sentido dentro das práticas humanas que a sustentam — o que reforça que o pensamento não se reduz a mero cálculo, mas envolve contexto, valor e significado.
E aqui fazemos uma confissão: este texto foi escrito com ajuda de várias IAs. Elas ofereceram referências, poliram frases, sugeriram ideias, e ainda deram essa ilustração fantástica que acompanha o início do artigo. Mas somente os autores sentiram o prazer humano dessa jornada de descoberta. As máquinas participaram, mas o pensamento — esse privilégio, pelo menos por enquanto — continua sendo nosso.













