
Ricardo Maciel Gazoni é pesquisador da Reduti. Atuou como professor convidado de Business Analytics e Big Data da FGV. Mestre e Doutor pelo TIDD (Tecnologias da Inteligência e Design Digital) da PUC-SP, especialista em Semiótica aplicada à Computação.
Eduardo de Rezende Francisco é professor de GeoAnalytics e IA do Departamento de Tecnologia e Data Science da FGV EAESP, pesquisador principal do FGVanalytics, coordenador do MBA de IA e Analytics da FGV e fundador do GisBI, think tank de discussão da integração entre geoinformação e IA
Gustavo Corrêa Mirapalheta é professor de IA e Analytics do Departamento de Tecnologia e Data Science de diversos programas da FGV EAESP e de MBAs da FGV Educação Executiva. Especialista em Deep Learning e Computação Quântica.
André Insardi é executivo especializado em IA, e transformação digital, mestre em Big Data pela ESPM e doutorando em Inteligência Artificial na UNICAMP. Atua como professor de IA e Arquitetura de Cloud na ESPM e FIAP e como membro do CJE da FIESP.
Este artigo encerra a trilogia publicada no Blog Impacto da FGV EAESP sobre uma das perguntas mais provocativas do nosso tempo: as máquinas pensam como os seres humanos? No primeiro texto (“Poderiam as máquinas pensar tal como os humanos?”), argumentamos que sistemas atuais de Inteligência Artificial, especialmente os Large Language Models (LLMs), já produzem comportamentos funcionalmente muito semelhantes aos humanos. No segundo (“Máquinas não pensam como seres humanos! (pelo menos não até este momento…)”), apresentamos diferenças profundas entre pessoas e máquinas defendendo que, pelo menos até agora, não há equivalência real entre pensamento humano e artificial.
Chegamos, então, ao terceiro movimento da trilogia. Ricardo Gazoni se junta ao time de colegas dos artigos anteriores e lidera a discussão trazendo uma proposta realista sobre o assunto. Grande parte desse debate nasce de uma tradição filosófica que separa mente e corpo, mundo interior e mundo exterior, herdada de Descartes há quase 400 anos e ainda muito presente no nosso modo de pensar. Nessa perspectiva, o pensamento é algo essencialmente humano, interno e inacessível, enquanto as máquinas seriam apenas mecanismos externos. Isso torna quase impossível comparar, de forma justa, o que acontece em um cérebro e o que acontece em um computador.
Alan Turing, já em meados do século XX, percebeu esse impasse e propôs uma mudança radical de abordagem. Em vez de perguntar o que é pensar, sugeriu observar se uma máquina é capaz de se comportar, em determinados contextos, de modo indistinguível de um ser humano. O foco deixa de ser a natureza interna do processo e passa a ser o desempenho observável.
Mas há ainda uma terceira via, menos conhecida fora dos círculos acadêmicos, e que pode ser particularmente útil para esse debate: a Semiótica de Charles Sanders Peirce. Para Peirce, o pensamento não é algo exclusivo da mente humana. Todo pensamento é, fundamentalmente, um processo de signos — isto é, um processo de mediação, no qual aquilo que se apresenta a uma mente ou quase-mente provoca nessa mente ou quase-mente um efeito que vai além do que foi apresentado a ela.
É o que ocorre, por exemplo, quando interpretamos uma palavra: a palavra apresentada tem um efeito que vai além dela própria – eu falo “praia” e surge em sua mente mar, areia, brisa e sol. O centro da análise não está no sujeito humano, mas no próprio signo e nas relações que ele estabelece. Isso permite estudar processos de significação em humanos, animais, sistemas sociais e, potencialmente, também em máquinas.
Ao deslocar a centralidade do humano para o signo, a Semiótica cria uma base conceitual para comparar diferentes formas de raciocínio sem precisar decidir, de antemão, se elas são “mentais” ou “mecânicas”. O que importa é como hipóteses são geradas, como consequências são derivadas e como interpretações são estabilizadas ou revisadas.
Peirce descreve três formas fundamentais de raciocínio: dedução, abdução e indução. É aqui que o segundo artigo da trilogia se conecta fortemente com a abordagem de Peirce. No caso humano, o processo indutivo — isto é, o teste de hipóteses — ocorre também por meio do corpo, das emoções, da interação social e da experiência sensível. Nosso “laboratório”, frequentemente, é o mundo vivido. As máquinas, por outro lado, aprendem em ambientes artificiais, a partir de grandes volumes de dados e métricas estatísticas. Mesmo quando incorporam aleatoriedade e mecanismos de exploração, seu processo de validação é radicalmente distinto do nosso.
Além disso, Peirce dá também importância a uma dimensão que raramente aparece nos debates sobre IA: a vontade. Para ele, o raciocínio não é apenas um processo lógico, mas também um movimento orientado por valores. Buscamos certas verdades porque as consideramos desejáveis, relevantes ou belas. A própria ciência, segundo Peirce, é guiada por ideais estéticos de simplicidade, elegância e harmonia, e por compromissos éticos com a busca da verdade. Vontade, Ética e Estética não são acessórios do pensamento; são parte estrutural dele.
Isso aparece de uma maneira muito incipiente, ao menos por enquanto, nos sistemas de IA. As máquinas, por si mesmas, não têm desejos, não possuem compromissos morais e não perseguem ideais estéticos, a não ser aqueles que nós explicitamente codificamos ou implicitamente induzimos por meio de dados e objetivos de otimização. E talvez seja bom que continue assim. Uma máquina com vontades próprias, valores autônomos e ideais estéticos independentes não seria exatamente o tipo de tecnologia que gostaríamos de colocar em operação em larga escala.
Isso nos leva a uma conclusão importante: exigir que as máquinas pensem exatamente como humanos talvez seja não apenas irrealista, mas também indesejável. Se pensassem como nós, poderiam se recusar a trabalhar, se entediar, se ofender, desenvolver preferências pessoais ou simplesmente decidir que têm planos melhores para a tarde. O que buscamos, na prática, é algo diferente: sistemas que ampliem nossas capacidades cognitivas, organizem informações, sugiram alternativas e apoiem decisões, mas cujos objetivos e critérios permaneçam sob controle humano.
Do ponto de vista teórico, isso também sugere um caminho promissor para a pesquisa em IA: em vez de buscar uma cópia do comportamento humano, talvez devamos investir em modelos que representem, manipulem e testem hipóteses de forma compatível com processos de raciocínio semelhantes aos propostos por Peirce. O objetivo não seria reproduzir a mente humana, mas construir sistemas capazes de racionar de uma maneira que nos seja familiar, dialogando conosco em ecossistemas cognitivos híbridos, nos quais humanos e máquinas aprendem e atuam em conjunto.
Talvez, então, a pergunta mais produtiva não seja se as máquinas pensam como nós, mas como podemos projetar máquinas que pensem conosco, dentro de molduras éticas, estéticas e sociais que façam sentido para a vida humana. A Semiótica não resolve o mistério da consciência, mas oferece algo talvez mais útil neste momento: um vocabulário comum para falar de sentido, interpretação e aprendizagem em diferentes tipos de sistemas.
E se chegamos a alguma conclusão nesta trilogia, talvez seja esta: a IA não precisa ser uma imitação imperfeita da mente humana para ser profundamente transformadora. Basta que seja uma boa parceira de raciocínio, desde que guiada por nossos valores, nossas escolhas e, quem sabe, também por nosso senso de humor. Afinal, se um dia uma IA responder “agora não, estou jogando videogame”, talvez tenhamos ido longe demais. Até lá, seguimos explorando, debatendo e provocando — porque, se há algo que humanos e máquinas já compartilham muito bem, é a capacidade de gerar boas perguntas. E, como sabemos, boas perguntas costumam ser o começo de conversas ainda melhores.
* Os artigos publicados na seção Coluna do Blog Impacto refletem exclusivamente a opinião de seus autores, não representando, necessariamente, a visão da instituição.













