Rodrigo Rocha Gimenez, Aluno do Doutorado Profissional em Administração da FGV EAESP, Executivo de Estratégia e Transformação.
Clara assumiu recentemente a diretoria de estratégia de uma rede de varejo em plena expansão. Fascinada pelas promessas da inteligência artificial generativa, decidiu pedir a “uma IA” a projeção de vendas para o próximo trimestre. A resposta chegou cheia de gráficos, tendência de alta e explicações convincentes, parecia um relatório de consultoria de primeira linha. Animada, Clara elevou em 15% a previsão de receita, autorizou compras maiores de estoque e dobrou o orçamento de mídia. Três meses depois, os depósitos estavam abarrotados, o giro de caixa era sufocante e a frustração se espalhava.
A trajetória de Clara ecoa um experimento conduzido com quase trezentos executivos entre 2024 e 2025. Os participantes receberam o histórico recente das ações de uma empresa listada na Bolsa de Valores e, em seguida, foram divididos em dois grupos: metade discutiu as estimativas com colegas; a outra metade recorreu exclusivamente ao modelo de IA disponível. O resultado foi eloquente: quem conversou apenas com a IA saiu mais otimista, mais confiante, e errou mais as previsões de preço que havia feito antes de consultá-la.
Por que uma ferramenta tão poderosa pode levar profissionais experientes a tropeçar? Primeiro, há a tendência de extrapolação, que faz o algoritmo alongar curvas ascendentes como se o futuro fosse mera continuação do passado. Além disso, o viés de autoridade entra em cena: respostas longas, repletas de números, soam irrefutáveis e anestesiam o senso crítico. Some-se a isso a ausência de emoção, a máquina não sente o frio na barriga que leva um CFO a segurar o cheque, e o risco aumenta. Quando o gestor consulta a IA isoladamente, perde o calibrador social que surge do debate entre pares, abrindo espaço para decisões sem contraponto. Por fim, o excesso de dados gera a ilusão de conhecimento total: quanto mais informação disponível, mais acreditamos enxergar tudo, justamente quando os pontos cegos se ampliam.
O experimento também mostrou o reverso da moeda: executivos que dialogaram com pares ajustaram suas projeções para baixo e acertaram mais do que antes da conversa. O simples ato de ouvir opiniões divergentes expôs pontos cegos, temperou o entusiasmo e devolveu humildade às análises. Assim, não é a IA em si que sabota decisões, mas o uso solitário e acrítico da ferramenta.
Há, contudo, caminhos para evitar as armadilhas que capturaram a confiança de Clara. Um bom ponto de partida é transformar a IA em primeira hipótese e não em veredicto. Depois de gerar uma projeção com o auxílio da IA, vale reunir a equipe para destrinchar premissas, buscar dados que contradigam o cenário ideal e redefinir números em faixas de probabilidade, e não em pontos exatos. Também ajuda indicar ao modelo que argumente contra si mesmo, “liste motivos pelos quais esta previsão pode falhar”, forçando-o a revelar fragilidades e reduzindo o viés de confirmação. Por fim, líderes podem criar rituais que premiem quem revisa premissas à luz de fatos novos, em vez de quem defende previsões até o limite; assim, a cultura de aprendizado vence o fetiche da precisão.
Clara aprendeu da maneira mais cara: precisou liquidar mercadorias com margens mínimas para recuperar o caixa. Hoje, continua usando IA, mas só libera ações depois de expor cada número a debates francos, inclusive com profissionais que pensam diferente, juntamente com especialistas que falam a língua da IA e compõem os comitês de estratégia. Ao receber um relatório exuberante da máquina, ela agora se pergunta: “O que ainda não sei sobre esse cenário?” E só avança quando obtém respostas que a façam dormir tranquila.
Se você, leitor, lidera decisões estratégicas e anda encantado com a eloquência das várias IA(s), talvez esteja na mesma encruzilhada de Clara. A tecnologia pode, sim, ampliar sua visão; mas, sem o contraponto humano, pode também ampliar seus erros. O verdadeiro salto não está em substituir a conversa de corredor por prompts, mas em combinar o melhor dos dois mundos: a velocidade da IA e a prudência coletiva que só gente de carne e osso consegue oferecer.
Texto originalmente publicado no blog Gestão e Negócios do Estadão, uma parceria entre a FGV EAESP e o Estadão, reproduzido na íntegra com autorização.
Os artigos publicados na coluna Blog Gestão e Negócios refletem exclusivamente a opinião de seus autores, não representando, necessariamente, a visão da Fundação Getulio Vargas ou do jornal Estadão













