DoTheMATH Blog

A arquitetura do “e se” com IA causal

Escrito por Marcel Ghiraldini | 05/02/2026 00:43:16

Quase toda inovação relevante começa com uma pergunta contrafactual, porque “e se” é uma forma de romper o determinismo do presente e abrir espaço para alternativas plausíveis. O Post-it nasce quando alguém reinterpreta uma cola “ruim” como um recurso para adesão temporária; a penicilina nasce quando um fenômeno observado vira hipótese de intervenção, e não apenas curiosidade.

No negócio, essa mesma estrutura aparece quando uma liderança pega um dado estável demais e pergunta o que aconteceria se a empresa mudasse o próprio sistema, em vez de apenas otimizar o que já existe. O problema é que a maior parte das iniciativas de IA ainda opera muito bem no mundo do “o que já aconteceu” e muito mal no mundo do “o que poderia acontecer”.

Isso não é falta de criatividade do modelo. É falta de arquitetura para sustentar raciocínio contrafactual com critério, rastreabilidade e custo previsível.

Mas, "e se"?

A popularização de LLMs deu a impressão de que “imaginar” ficou barato, porque agora qualquer pessoa consegue gerar cenários, estratégias e planos em linguagem natural. O risco é confundir fluência com simulação. Fluência descreve possibilidades com aparência de coerência; simulação testa possibilidades contra um conjunto explícito de premissas, mecanismos e restrições.

A diferença importa porque empresas não precisam de texto plausível. Precisam de decisões que se sustentem quando viram operação: orçamento, cadeia de suprimentos, risco de crédito, políticas de fraude, precificação, alocação de mídia, capacidade de atendimento, governança de agentes. O “e se” que move estratégia precisa de um motor que conecte hipótese a impacto, e impacto a métricas que possam ser acompanhadas.

É aqui que a ciência ajuda a IA a sair da mímica e entrar na invenção com método.

A imaginação que funciona tem regras

A psicóloga cognitiva Ruth M. J. Byrne defende que pensar alternativas à realidade segue padrões racionais, porque as pessoas tendem a alterar pontos específicos de uma situação e a manter o restante estável, construindo contrafactuais com base em restrições implícitas. Em termos práticos, o cérebro não cria qualquer futuro, ele cria futuros que preservam coerência com um conjunto de regras do mundo e do objetivo.

Em vez de pedir “ideias”, você define premissas e limites e pergunta quais intervenções poderiam mudar o resultado. O “e se” deixa de ser brainstorming e vira um processo de engenharia: alterar uma variável, manter as outras controladas e observar efeito.

Um exemplo realista em empresa de serviços financeiros: “E se reduzirmos a exigência de documentos em uma etapa do onboarding?” é uma pergunta incompleta até que você explicite critérios de risco, fraude e compliance, e delimite onde a intervenção pode ocorrer sem quebrar o processo. Sem critérios, o cenário vira narrativa; com critérios, vira teste.

O cérebro gera opções e filtra por critério

Peter Ulric Tse descreve um mecanismo que ajuda a traduzir criatividade em arquitetura: a geração de alternativas aparece como um conjunto amplo de possibilidades, e a seleção acontece quando circuitos de ordem superior aplicam critérios que estabilizam uma escolha. Em linguagem de operação, criatividade não é apenas gerar variações, é filtrar variações com metas explícitas.

É exatamente esse equilíbrio que falta em muitos usos de IA generativa no negócio. Modelos geram alternativas em escala, mas o filtro costuma ser informal, baseado em preferência do usuário ou em “parece bom”, e não em critérios verificáveis. A empresa ganha velocidade de produção de possibilidades e perde qualidade na seleção, o que desloca risco para o downstream da operação.

Um exemplo típico: um time usa IA para “inventar” uma estratégia de retenção e o plano parece coerente, mas ninguém traduziu o plano para hipóteses mensuráveis, nem definiu os critérios que descartariam a estratégia em duas semanas. O resultado é uma execução cara de uma narrativa.

Associação não é simulação do futuro

Judea Pearl organiza raciocínio causal em uma hierarquia útil para gestores: associação, intervenção e contrafactual. Associação responde “o que costuma acontecer”; intervenção responde “o que acontece se eu mudar X”; contrafactual responde “o que teria acontecido se X fosse diferente”, com base em mecanismos causais.

A maior parte dos LLMs opera muito bem no primeiro degrau, porque aprende padrões estatísticos e produz respostas plausíveis a partir de grandes corpora. Quando você pede para “inventar o futuro”, ele não executa uma intervenção em um modelo do mundo. Ele extrapola linguagem com base em semelhança, o que pode ser útil para redação e síntese, mas é insuficiente para decidir mudanças estruturais.

Isso explica por que tantas empresas se frustram ao tentar usar GenAI como motor de estratégia. O modelo responde “como se” entendesse mecanismos, mas não tem, por padrão, uma estrutura causal que permita simular consequências sob intervenção. O que falta não é um prompt melhor. É a camada que conecta pergunta a mecanismos, mecanismos a dados, e dados a testes.

Do texto plausível ao contrafactual operacional

O caminho prático não é esperar uma “IA geral” que invente sozinha. É arquitetar uma pilha que combine linguagem natural com motores de decisão que já são maduros em ciência aplicada: experimentação, causalidade, modelos de mundo e planejamento.

Duas linhas de pesquisa ajudam a materializar isso. A primeira é a agenda causal, que organiza intervenções e contrafactuais com rigor e torna explícito o que precisa ser medido para afirmar impacto sob mudança. A segunda é a agenda de “modelos de mundo”, defendida por Yann LeCun, que propõe arquiteturas como JEPA para aprender representações internas que suportem previsão, planejamento e abstração sem depender de rotular tudo, justamente para aproximar IA de capacidades de simulação e ação.

Para o gestor, isso se traduz em uma decisão de arquitetura: o “e se” não pode ser um pedido solto para um chatbot. Ele precisa virar um artefato com três camadas.

  1. A primeira camada define a pergunta como intervenção, deixando claro qual variável muda e qual resultado importa.

  2. A segunda camada define os mecanismos e restrições do sistema, incluindo regras de negócio, limites de risco, dependências operacionais e orçamento.

  3. A terceira camada conecta isso a dados e testes, com baseline, métricas, janela de observação e critério de parada.

Um exemplo realista em supply chain: “E se trocarmos um fornecedor crítico?” só vira simulação quando você inclui lead time, variabilidade, risco de ruptura, custo de estoque, SLA com cliente, capacidade logística e uma forma de testar o impacto sem colocar a operação em colapso. Sem essa estrutura, a IA produz cenários; com essa estrutura, a empresa produz decisões.

Na MATH, a pergunta “e se” é tratada como um ativo de decisão

Isso exige método, porque a empresa precisa de hipóteses falsificáveis, instrumentação para medir impacto e governança para garantir que a simulação não vire uma fábrica de narrativas.

É por isso que a MATH enxerga IA operacional como uma disciplina de arquitetura. A MATH AI Platform faz sentido quando o objetivo é orquestrar fluxos de IA com rastreabilidade, controles e métricas de valor, de modo que perguntas contrafactuais possam ser traduzidas em experimentos, políticas e decisões que se sustentam em produção, inclusive quando agentes entram na operação e elevam a complexidade do sistema.

Aprofunde o conteúdo com o bate bapo sobre o impacto real da IA nos próximos anos. Marcel Ghiraldini, Sandro Magaldi e Pedro Waengertner apontam o perigo dos atalhos na era da IA:

 

Aprendizado para gestores

Sua IA não “não inventa o futuro” por falta de criatividade; ela falha quando a empresa pede contrafactuais sem fornecer estrutura causal, critérios e mecanismos de teste. Sem isso, o que parece estratégia vira texto plausível, e o custo real aparece depois, quando a operação precisa absorver decisões não validadas.

As perguntas estratégicas da sua empresa estão sendo tratadas como intervenções testáveis, ou como narrativas bem escritas que ninguém consegue refutar? Com o rigor científico da MATH, você pode aprimorar o uso da IA na mesa de decisão.