Gestores, líderes e investidores lidam com a mesma questão todos os dias: onde investir tempo, energia, dinheiro e talento. O problema não é falta de informação. É excesso.
A Lei da Trivialidade, formulada por Cyril Northcote Parkinson nos anos 1950, explica esse desvio de foco. Diante de temas complexos, as pessoas tendem a gastar mais tempo nas decisões simples, nas conversas que dão sensação de domínio. É mais confortável discutir o layout do slide do que a estratégia de dados. Mais fácil debater se a IA “vai tirar empregos” do que decidir onde a IA já deveria estar rodando hoje.
Na era dos agentes e assistentes de IA, esse efeito ganha escala. A questão deixa de ser apenas “com o que eu gasto tempo” para se tornar “quem está filtrando o que chega até mim”.
Este texto é um convite para gestores que querem recuperar esse filtro.
O Efeito Bike Shed surgiu de um exemplo simples: um comitê gasta poucos minutos aprovando a construção de um reator nuclear, tema complexo e técnico, e horas discutindo a cor do bicicletário ao lado da usina. Todos se sentem habilitados a opinar sobre o bicicletário. Quase ninguém quer se expor no tema nuclear.
Nas empresas, a dinâmica é parecida:
O board aprova um orçamento relevante para IA sem discutir em profundidade a estratégia de dados.
Times passam semanas debatendo o nome do chatbot enquanto decisões sobre governança, risco e uso real de IA seguem sem dono.
Reuniões discutem “se o layout da tela está bom” enquanto a jornada do cliente continua quebrada.
O custo oculto está na atenção. Cada hora de uma liderança gasta em temas triviais rouba tempo de decisões estruturantes: onde a IA precisa atuar, quais processos são prioritários, que dados importam, que métrica define sucesso.
A promessa de IA é clara: automatizar o trivial para liberar o humano para o estratégico. Só que, sem direção, acontece o oposto. A IA vira fábrica de ruído.
Alguns sinais disso:
Agentes de IA produzindo relatórios diários que ninguém lê.
Modelos gerando dashboards que não se conectam com decisões de negócio.
Assistentes respondendo perguntas genéricas sobre o mercado, sem foco em problemas reais da empresa.
O resultado é um cenário paradoxal: mais tecnologia e menos clareza. Mais dados e menos foco. Mais “atualizações de IA” e menos transformação concreta. Do ponto de vista da MATH, IA sem propósito, governança e dados confiáveis não passa de automação do caos. É o mesmo bike shed, só que acelerado por máquinas.
Se você ainda não leu, vale conectar este conteúdo ao artigo sobre IA com propósito e governança no blog da MATH, que aprofunda o risco de construir iniciativas em cima de estruturas frágeis de dados e decisão.
Antes de entrar em frameworks ou ferramentas, a mudança começa por uma disciplina simples. Toda iniciativa que envolve IA, dados ou automação precisa responder, com clareza, a três perguntas.
1. Qual problema central de negócio esta iniciativa resolve
Não “explorar IA”. Não “aprender com agentes”. Problema concreto.
Reduzir churn em um segmento específico.
Aumentar aprovação de crédito sem elevar inadimplência.
Diminuir o tempo de atendimento em um canal crítico.
Se a resposta não é clara, a iniciativa é ruído.
2. Que decisão ficará melhor por causa disso
IA que não melhora decisão vira enfeite tecnológico.
Pergunte: que decisão concreta ficará mais rápida, mais precisa ou mais barata se esse projeto der certo.
Aprovar ou não um crédito.
Priorizar ou não uma carteira de clientes.
Abrir ou não um novo canal de atendimento.
Se não há uma decisão associada, o projeto tende a gerar relatórios, não impacto.
3. O que deixo de fazer ao escolher isso
Toda escolha consome orçamento, pessoas e atenção.
Se a iniciativa não justifica o que está sendo adiado, reeavalie.
Essa lógica vale tanto para um projeto de IA quanto para um comitê sobre “inovação”.
IA pode ser vilã do foco, mas também pode ser aliada. A diferença é o desenho do sistema.
Alguns movimentos práticos para gestores:
Em vez de um agente que gera relatórios sem fim, desenhe um agente curador que:
Consolida dados de fontes distintas em um único painel de decisão.
Destaca apenas variações relevantes em relação a metas e OKRs.
Conecta cada insight a uma ação sugerida, sempre com espaço para revisão humana.
É IA como filtro de sinal, não como geradora de mais conteúdo.
Antes de uma reunião de comitê, um assistente pode:
sintetizar a história dos indicadores-chave daquele tema;
simular cenários com base nos dados da empresa;
organizar argumentos pró e contra cada decisão.
O objetivo não é decidir no lugar da liderança, mas elevar a qualidade da conversa. Menos debate sobre detalhe operacional, mais discussão sobre trade-offs reais.
Agentes podem assumir:
testes A/B de cópia em canais digitais;
ajustes finos em campanhas de mídia com base em regras claras de ROAS e CPA;
respostas a dúvidas recorrentes em squads, a partir de documentação interna.
Cada decisão operacional que sai da agenda do gestor abre espaço para decisões de portfólio, orçamento e modelo de negócio.
Estratégia não se mantém sozinha. Precisa de rituais.
Algumas práticas simples, que podem ser apoiadas por agentes e assistentes de IA:
Agenda de foco semanal
Uma vez por semana, um assistente consolida tudo que foi aberto como “prioridade de IA” e organiza em três blocos: o que gera receita, o que reduz risco, o que melhora eficiência. A liderança decide onde colocar energia na semana seguinte.
Revisão mensurável de iniciativas de IA
Em ciclos trimestrais, um agente analisa os projetos ativos e responde a três perguntas objetivas:
Qual resultado concreto foi medido.
Que decisão melhorou.
Se a iniciativa continua, pausa ou termina.
Limite de projetos simultâneos
É mais saudável ter poucos projetos de IA em produção, com governança clara, do que dezenas em piloto que nunca saem do lugar. A IA ajuda a ranquear, mas a decisão de cortar é humana.
Se o tema de governança e priorização de IA ainda é novo no seu time, vale escutar episódios do DoTheMATH que discutem tomada de decisão baseada em dados e uso responsável de IA em negócios reais.
Quando um gestor passa a tratar a própria atenção como ativo medido, algumas mudanças aparecem rápido:
Reuniões passam a ter menos pauta tática e mais decisão estratégica.
Projetos de IA deixam de nascer da curiosidade pela tecnologia e passam a responder a objetivos de negócio.
Agentes de IA deixam de ser “brinquedos de time” e se tornam parte do fluxo operacional, com guardrails e governança.
Aceitar o “missing out” deixa de ser medo e vira estratégia.
Dizer não ao ruído passa a ser condição para liderar no próximo ciclo de IA.
No fim, os melhores gestores não controlam a tecnologia. Controlam onde colocam foco. O resto é consequência.