Entre frameworks de prontidão e realidades locais, o debate sobre inteligência artificial precisa sair da bolha da inovação e entrar na planilha do CFO — com ROI, cultura e infraestrutura no radar.


Tem coisa que a gente lê e pensa: “isso aqui não foi feito pro Brasil”. Foi exatamente essa a sensação ao terminar de analisar o novo AI Preparedness Framework lançado pela OpenAI. Um documento importante, com boas intenções — mas que, se colocado diretamente no chão das empresas brasileiras, tropeça.

Explico.

O framework fala de monitoramento de riscos, auditoria independente, stress testing de modelos... tudo isso soa como música aos ouvidos de quem vive IA no contexto norte-americano. Agora tenta traduzir isso para a TI de um banco médio ou para o comitê de inovação de uma seguradora por aqui.

Lá, infraestrutura computacional é commodity.
Aqui, é gargalo.
Lá, governança é stack.
Aqui, ainda é PowerPoint.

E não é que a gente esteja parado. Pelo contrário. O que tenho visto — e compartilhei recentemente num episódio do podcast da Febraban — é que estamos num momento em que as empresas precisam decidir o que vai para produção e o que vai para o museu dos pilotos de IA.

O problema não é técnico. É cultural.

Hoje, vemos números impressionantes: "60% das empresas no Brasil usam IA". Mas vamos com calma. Se você desligar a IA dessas empresas, a operação para? Ou só a área de inovação perde o brinquedo?

Tenho visto de perto: o desafio real não é só fazer rodar. É integrar culturalmente. É fazer o jurídico, o compliance, a auditoria — áreas com pouca tradição em automação — entenderem que uma IA não é uma ameaça, mas um novo colega. E isso não se resolve com um hackathon.

Além disso, existe um abismo invisível: quem consegue rodar IA com dados sensíveis dentro do Brasil, respeitando a LGPD, e quem ainda está tentando escalar uma POC na base do jeitinho. A soberania dos dados não é um luxo. É um freio real. A infraestrutura para treinar modelos localmente ainda é cara — e, para pequenos e médios, quase proibitiva.

O paradoxo do gap que resolve o próprio gap

Falei disso no podcast, e repito aqui: vivemos um paradoxo curioso. Temos um buraco gigante na formação de profissionais capazes de lidar com IA — e a IA surge como solução para aumentar a produtividade e cobrir esse mesmo buraco. Mas... alguém precisa saber como colocá-la para rodar.

Não precisamos apenas de mais prompt engineers. Precisamos de gente com pensamento sistêmico. Gente capaz de formular hipóteses, testar, aprender e iterar. Hoje, um bom analista, com visão de processo e cabeça investigativa, pode gerar mais impacto que um desenvolvedor sênior descontextualizado.

O framework da OpenAI importa?

Sim, importa. É um sinal claro de maturidade regulatória e de preocupação ética que, mais cedo ou mais tarde, também nos alcançará. Mas antes de falarmos de “catástrofes existenciais da IA”, talvez devêssemos discutir se temos um orçamento de FinOps, se usamos o modelo certo para o problema certo, e se os dados que alimentam nossas decisões foram coletados de forma minimamente confiável.

Porque no fim, como eu disse no episódio: o CFO precisa ser nosso aliado. Não o vilão da inovação. IA sem ROI é só custo de marketing.


E você, já sabe qual é o problema que quer resolver com IA?
Porque sem isso, todo framework é só mais um PDF bonito no repositório da governança.


Se quiser continuar essa conversa, me chama. A gente precisa trocar menos hype e mais realidade.