• Sobre o Blog Impacto
  • FGV EAESP
  • FGV EAESP Pesquisa
  • Acontece
    • Notícias
    • Eventos
  • Para alunos
    • Serviços para alunos
    • Comunidade FGV
  • Para candidatos
  • Para empresas
    • Soluções para empresas
    • Clube de parceiros FGV
  • Alumni
  • Contato
Blog Impacto - FGV EAESP Pesquisa
  • Adm. de empresas
  • Adm. pública
  • Notícias
  • Colunas
    • Blog Impacto
    • Blog Gestão e Negócios
  • Vídeos
  • Podcast
Nenhum resultado
Ver todos os recultados
Blog Impacto - FGV EAESP Pesquisa
Home Blog Impacto

Fechando a trilogia: um outro jeito de dizer se as máquinas pensam ou não

27 de fevereiro de 2026
Fechando a trilogia: um outro jeito de dizer se as máquinas pensam ou não

Ricardo Maciel Gazoni é pesquisador da Reduti. Atuou como professor convidado de Business Analytics e Big Data da FGV. Mestre e Doutor pelo TIDD (Tecnologias da Inteligência e Design Digital) da PUC-SP, especialista em Semiótica aplicada à Computação.

Conteúdorelacionado

Ativismo de marcas funciona? O que define a autoridade moral das empresas ao defender causas sociais

O Erro Invisível nas Fusões e Aquisições: Quando o Diagnóstico Falha

Pesquisa de impacto: Marketing social em escala sistêmica: Como uma cidade brasileira enfrentou a obesidade e promoveu o bem-estar

Eduardo de Rezende Francisco é professor de GeoAnalytics e IA do Departamento de Tecnologia e Data Science da FGV EAESP, pesquisador principal do FGVanalytics, coordenador do MBA de IA e Analytics da FGV e fundador do GisBI, think tank de discussão da integração entre geoinformação e IA

Gustavo Corrêa Mirapalheta é professor de IA e Analytics do Departamento de Tecnologia e Data Science de diversos programas da FGV EAESP e de MBAs da FGV Educação Executiva. Especialista em Deep Learning  e Computação Quântica.

André Insardi é executivo especializado em IA, e transformação digital, mestre em Big Data pela ESPM e doutorando em Inteligência Artificial na UNICAMP. Atua como professor de IA e Arquitetura de Cloud na ESPM e FIAP e como membro do CJE da FIESP.

Este artigo encerra a trilogia publicada no Blog Impacto da FGV EAESP sobre uma das perguntas mais provocativas do nosso tempo: as máquinas pensam como os seres humanos? No primeiro texto (“Poderiam as máquinas pensar tal como os humanos?”), argumentamos que sistemas atuais de Inteligência Artificial, especialmente os Large Language Models (LLMs), já produzem comportamentos funcionalmente muito semelhantes aos humanos. No segundo (“Máquinas não pensam como seres humanos! (pelo menos não até este momento…)”), apresentamos diferenças profundas entre pessoas e máquinas defendendo que, pelo menos até agora, não há equivalência real entre pensamento humano e artificial.

Chegamos, então, ao terceiro movimento da trilogia. Ricardo Gazoni se junta ao time de colegas dos artigos anteriores e lidera a discussão trazendo uma proposta realista sobre o assunto. Grande parte desse debate nasce de uma tradição filosófica que separa mente e corpo, mundo interior e mundo exterior, herdada de Descartes há quase 400 anos e ainda muito presente no nosso modo de pensar. Nessa perspectiva, o pensamento é algo essencialmente humano, interno e inacessível, enquanto as máquinas seriam apenas mecanismos externos. Isso torna quase impossível comparar, de forma justa, o que acontece em um cérebro e o que acontece em um computador.

Alan Turing, já em meados do século XX, percebeu esse impasse e propôs uma mudança radical de abordagem. Em vez de perguntar o que é pensar, sugeriu observar se uma máquina é capaz de se comportar, em determinados contextos, de modo indistinguível de um ser humano. O foco deixa de ser a natureza interna do processo e passa a ser o desempenho observável.

Mas há ainda uma terceira via, menos conhecida fora dos círculos acadêmicos, e que pode ser particularmente útil para esse debate: a Semiótica de Charles Sanders Peirce. Para Peirce, o pensamento não é algo exclusivo da mente humana. Todo pensamento é, fundamentalmente, um processo de signos — isto é, um processo de mediação, no qual aquilo que se apresenta a uma mente ou quase-mente provoca nessa mente ou quase-mente um efeito que vai além do que foi apresentado a ela.

É o que ocorre, por exemplo, quando interpretamos uma palavra: a palavra apresentada tem um efeito que vai além dela própria – eu falo “praia” e surge em sua mente mar, areia, brisa e sol. O centro da análise não está no sujeito humano, mas no próprio signo e nas relações que ele estabelece. Isso permite estudar processos de significação em humanos, animais, sistemas sociais e, potencialmente, também em máquinas.

Ao deslocar a centralidade do humano para o signo, a Semiótica cria uma base conceitual para comparar diferentes formas de raciocínio sem precisar decidir, de antemão, se elas são “mentais” ou “mecânicas”. O que importa é como hipóteses são geradas, como consequências são derivadas e como interpretações são estabilizadas ou revisadas.

Peirce descreve três formas fundamentais de raciocínio: dedução, abdução e indução. É aqui que o segundo artigo da trilogia se conecta fortemente com a abordagem de Peirce. No caso humano, o processo indutivo — isto é, o teste de hipóteses — ocorre também por meio do corpo, das emoções, da interação social e da experiência sensível. Nosso “laboratório”, frequentemente, é o mundo vivido. As máquinas, por outro lado, aprendem em ambientes artificiais, a partir de grandes volumes de dados e métricas estatísticas. Mesmo quando incorporam aleatoriedade e mecanismos de exploração, seu processo de validação é radicalmente distinto do nosso.

Além disso, Peirce dá também importância a uma dimensão que raramente aparece nos debates sobre IA: a vontade. Para ele, o raciocínio não é apenas um processo lógico, mas também um movimento orientado por valores. Buscamos certas verdades porque as consideramos desejáveis, relevantes ou belas. A própria ciência, segundo Peirce, é guiada por ideais estéticos de simplicidade, elegância e harmonia, e por compromissos éticos com a busca da verdade. Vontade, Ética e Estética não são acessórios do pensamento; são parte estrutural dele.

Isso aparece de uma maneira muito incipiente, ao menos por enquanto, nos sistemas de IA. As máquinas, por si mesmas, não têm desejos, não possuem compromissos morais e não perseguem ideais estéticos, a não ser aqueles que nós explicitamente codificamos ou implicitamente induzimos por meio de dados e objetivos de otimização. E talvez seja bom que continue assim. Uma máquina com vontades próprias, valores autônomos e ideais estéticos independentes não seria exatamente o tipo de tecnologia que gostaríamos de colocar em operação em larga escala.

Isso nos leva a uma conclusão importante: exigir que as máquinas pensem exatamente como humanos talvez seja não apenas irrealista, mas também indesejável. Se pensassem como nós, poderiam se recusar a trabalhar, se entediar, se ofender, desenvolver preferências pessoais ou simplesmente decidir que têm planos melhores para a tarde. O que buscamos, na prática, é algo diferente: sistemas que ampliem nossas capacidades cognitivas, organizem informações, sugiram alternativas e apoiem decisões, mas cujos objetivos e critérios permaneçam sob controle humano.

Do ponto de vista teórico, isso também sugere um caminho promissor para a pesquisa em IA: em vez de buscar uma cópia do comportamento humano, talvez devamos investir em modelos que representem, manipulem e testem hipóteses de forma compatível com processos de raciocínio semelhantes aos propostos por Peirce. O objetivo não seria reproduzir a mente humana, mas construir sistemas capazes de racionar de uma maneira que nos seja familiar, dialogando conosco em ecossistemas cognitivos híbridos, nos quais humanos e máquinas aprendem e atuam em conjunto.

Talvez, então, a pergunta mais produtiva não seja se as máquinas pensam como nós, mas como podemos projetar máquinas que pensem conosco, dentro de molduras éticas, estéticas e sociais que façam sentido para a vida humana. A Semiótica não resolve o mistério da consciência, mas oferece algo talvez mais útil neste momento: um vocabulário comum para falar de sentido, interpretação e aprendizagem em diferentes tipos de sistemas.

E se chegamos a alguma conclusão nesta trilogia, talvez seja esta: a IA não precisa ser uma imitação imperfeita da mente humana para ser profundamente transformadora. Basta que seja uma boa parceira de raciocínio, desde que guiada por nossos valores, nossas escolhas e, quem sabe, também por nosso senso de humor. Afinal, se um dia uma IA responder “agora não, estou jogando videogame”, talvez tenhamos ido longe demais. Até lá, seguimos explorando, debatendo e provocando — porque, se há algo que humanos e máquinas já compartilham muito bem, é a capacidade de gerar boas perguntas. E, como sabemos, boas perguntas costumam ser o começo de conversas ainda melhores.

* Os artigos publicados na seção Coluna do Blog Impacto refletem exclusivamente a opinião de seus autores, não representando, necessariamente, a visão da instituição.

CompartilharTweetarCompartilharEnviar

Conteúdo relacionado

Marcas e ONGs em ações sociais praticando ativismo de marcas e debate sobre credibilidade empresarial
Administração de empresas

Ativismo de marcas funciona? O que define a autoridade moral das empresas ao defender causas sociais

26 de fevereiro de 2026
O Erro Invisível nas Fusões e Aquisições: Quando o Diagnóstico Falha
Blog Gestão e Negócios

O Erro Invisível nas Fusões e Aquisições: Quando o Diagnóstico Falha

25 de fevereiro de 2026
Pesquisa de impacto: Marketing social em escala sistêmica: Como uma cidade brasileira enfrentou a obesidade e promoveu o bem-estar
Vídeos

Pesquisa de impacto: Marketing social em escala sistêmica: Como uma cidade brasileira enfrentou a obesidade e promoveu o bem-estar

25 de fevereiro de 2026

Conteúdo recente

Fechando a trilogia: um outro jeito de dizer se as máquinas pensam ou não

Fechando a trilogia: um outro jeito de dizer se as máquinas pensam ou não

27 de fevereiro de 2026
Marcas e ONGs em ações sociais praticando ativismo de marcas e debate sobre credibilidade empresarial

Ativismo de marcas funciona? O que define a autoridade moral das empresas ao defender causas sociais

26 de fevereiro de 2026
O Erro Invisível nas Fusões e Aquisições: Quando o Diagnóstico Falha

O Erro Invisível nas Fusões e Aquisições: Quando o Diagnóstico Falha

25 de fevereiro de 2026

Mais lidos

moça na frente de uma estante com livros

Pesquisa mostra como o ensino em gestão se torna mais relevante quando é político e contextualizado

27 de janeiro de 2026
Pessoa em situação pública demonstrando constrangimento após comportamento inadequado de alguém do mesmo grupo e tomando uma atitude sobre isso

Por que nos sentimos constrangidos pelo erro de um estranho e tentamos consertar a situação

2 de fevereiro de 2026
Ilustração mostrando diferentes prazos de contratos usados para proteção financeira de empresas de variações de preços.

Hora de amadurecer: como empresas decidem o tempo ideal de proteção financeira

19 de janeiro de 2026
pesquisa sobre os riscos da inteligência artificial generativa

O lado sombrio da Inteligência Artificial Generativa para aprendizagem

30 de dezembro de 2025
A força das instituições de um país reduz o apoio do governo aos bancos.

Como o apoio do governo aos bancos muda conforme a força das instituições de cada país

24 de dezembro de 2025
A Influência dos Stakeholders na Administração Pública

A Influência dos Stakeholders na Administração Pública

1 de novembro de 2024

Tags

administração pública bem estar consumo coronavírus corrupção covid-19 desenvolvimento sustentável diversidade educação empreendedorismo empresas ESG Estratégia FGV EAESP finanças gestão gestão de saúde gestão pública gênero inovação Inteligência Artificial liderança marketing mudanças climáticas mulheres Notícias internas ODS 3 ODS3 ODS 8 ODS 9 ODS 10 ODS 12 ODS 16 organizações pandemia política pública políticas públicas saúde saúde de qualidade saúde pública supply chain SUS sustentabilidade trabalho transparência
#podcast Impacto: A relação entre autonomia e desempenho de Defensorias Públicas na América Latina

Podcast Impacto

29 Episode
Subscribe
  • Add to Queue
  • Share
    Facebook Twitter Linked In WhatsApp

  • Add to Queue
  • Share
    Facebook Twitter Linked In WhatsApp

#PodcastImpacto – Urbanismo feminista: o caso de Barcelona

16 de setembro de 2025
  • Add to Queue
  • Share
    Facebook Twitter Linked In WhatsApp

#PodcastImpacto: Agentes prisionais e emoções no trabalho

18 de agosto de 2025
  • Add to Queue
  • Share
    Facebook Twitter Linked In WhatsApp

#PodcastImpacto: Eficiência e acesso em saúde: o que podemos aprender com sistemas universais em países em desenvolvimento?

11 de julho de 2025
  • Add to Queue
  • Share
    Facebook Twitter Linked In WhatsApp

#PodcastImpacto: Como a gestão municipal pode reduzir desigualdades educacionais?

12 de junho de 2025
  • Add to Queue
  • Share
    Facebook Twitter Linked In WhatsApp

#PodcastImpacto – Feminist Foreign Policy: liderança feminina e cultura política internacional

10 de abril de 2025
Disseminação do conhecimento
Catálogo dos Centros de Estudos

As manifestações expressas por integrantes dos quadros da Fundação Getulio Vargas, nas quais constem a sua identificação como tais, em artigos e entrevistas publicados nos meios de comunicação em geral, representam exclusivamente as opiniões dos seus autores e não, necessariamente, a posição institucional da FGV. Portaria FGV Nº19

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

Nenhum resultado
Ver todos os recultados
  • Adm. de empresas
  • Adm. pública
  • Notícias
  • Colunas
    • Blog Impacto
    • Blog Gestão e Negócios
  • Vídeos
  • Podcast

-
00:00
00:00

Queue

Update Required Flash plugin
-
00:00
00:00