

Por: Carlos Perobelli, CEO da Nexmuv e fundador do theGarage
A inteligência artificial se tornou parte da operação de empresas de todos os portes. O problema é que, enquanto a adoção avança rápido demais, a estrutura de responsabilidade não acompanha o mesmo ritmo. Hoje, poucas organizações conseguem responder com clareza a uma pergunta simples: quem responde pelas decisões tomadas por sistemas de IA?
- Participe dos nossos canais no Twitter, Telegram ou Whatsapp!
- Confira nossos stories no Instagram e veja notícias como essa!
- Siga o tecflow no Spotify Podcast para ouvir nosso conteúdo!
- Anuncie conosco aqui ou apoie o tecflow clicando neste link!
- Assine nossa newsletter neste link ou no LinkedIn!
- Siga o tecflow no tik tok!
Os impactos dessa lacuna já aparecem de forma concreta. Há dois anos, um sistema baseado em ChatGPT foi induzido a vender um carro avaliado em US$80 mil por apenas US$1 durante uma interação com um cliente, expondo fragilidades no uso da tecnologia em contextos comerciais. Em um caso mais recente, a Gucci enfrentou reação negativa ao utilizar IA em uma campanha, levantando questionamentos sobre autenticidade e impacto na percepção de valor da marca. São exemplos distintos, mas que apontam para o mesmo problema: decisões automatizadas sem governança clara podem gerar riscos financeiros, reputacionais e estratégicos.
Esse cenário se agrava quando olhamos para o nível de preparo das empresas. Segundo pesquisa da McKinsey & Company, 72% das organizações já utilizam inteligência artificial em alguma medida. No entanto, apenas 14% possuem uma estratégia formal para incorporar a tecnologia aos negócios, de acordo com levantamento da Thomson Reuters. No Brasil, esse nível de maturidade é ainda menor. Na prática, isso significa que ferramentas estão sendo utilizadas em áreas críticas sem diretrizes claras, sem validação consistente e, principalmente, sem definição de responsabilidade.

Quem é responsável pela decisão de uma IA dentro da
Por: Carlos Perobelli, CEO da Nexmuv e fundador do theGarageA inteligência artificial se tornou parte da operação de empresas de…
Segundo levantamento da Cloudera, arquitetura unificada e confiança nos dados
Relatório elaborado com líderes de TI do país também mostra que a maioria das empresas está investindo em IA e…
Com mais de 150 vagas abertas para profissionais de tecnologia,
Empresa que ocupa a 5ª posição do ranking LinkedIn Top Companies 2026 busca profissionais para áreas como IA, dados, cloud…
Samsung libera One UI 9.0 para Galaxy S26 e mudanças
A Samsung acaba de abalar o mercado mobile nesta terça-feira (12 de maio de 2026). Sem avisos prévios, a gigante…
Abordagem ajuda a conter ciberataques em segundos
Cybersecurity Fusion Framework vai além da contenção de TI, atuando na disrupção real e instantânea do ataque, com nível de…
Velocidade sem direção: como a IA amplifica o risco nas
*Por Arlindo Carlesso, diretor de Operações & Pré-Vendas da Leega Consultoria* Neste ano de 2026, não estamos diante de uma simples…
Existe uma tendência de tratar a IA como um agente autônomo, capaz de tomar decisões de forma independente. Mas a realidade é que a IA é baseada em probabilidade, ela interpreta padrões, cruza dados e gera respostas com base em inferência estatística. O erro, portanto, é parte do sistema porque mesmo nos melhores cenários, não existe precisão absoluta.
Então, se o erro é inevitável, ele precisa ter um responsável definido antes mesmo de acontecer. O que se observa hoje, no entanto, é o oposto. Profissionais utilizam ferramentas no dia a dia, líderes acompanham parcialmente e áreas como TI e jurídico tentam criar algum tipo de controle. Quando tudo funciona, o problema não aparece. Mas, quando algo dá errado, a decisão escala rapidamente e, dependendo do impacto, chega à alta liderança.
Isso não acontece por acaso. A IA atravessa toda a empresa, no marketing, na precificação, na análise de contratos, no atendimento e na geração de conteúdo. Por isso, não faz sentido concentrar a responsabilidade em uma única área. Ao mesmo tempo, distribuí-la sem critério também não resolve. O modelo mais consistente é o de responsabilidade em camadas. Quem utiliza a ferramenta é responsável direto pelo uso. A liderança imediata atua como corresponsável, garantindo contexto e validação. E a alta gestão, especialmente o CEO, responde pela governança como um todo.
Essa lógica ainda esbarra em um problema de estrutura. As empresas estão adotando IA mais rápido do que conseguem organizar seus processos. Existe uma pressão clara para implementação, muitas vezes impulsionada por mercado e concorrência, mas o risco para a empresa é muito maior quando a adoção acontece no impulso. Nesse cenário, surgem operações fragmentadas, com múltiplos agentes de IA sendo criados, ferramentas diferentes sendo utilizadas sem padrão e decisões sendo tomadas com base em informações que muitas vezes nem são checadas.
Diante disso, fica claro que o que falta hoje não é tecnologia, já que estamos evoluindo a cada dia, o que falta é estrutura. Para evitar comprometer o negócio, o primeiro passo está nas pessoas. É necessário garantir que toda a organização entenda o que é IA, quais são seus limites e como utilizá-la de forma consciente. Sem esse alinhamento, qualquer política tende a falhar na execução.

Na sequência, entram os processos. Modelos tradicionais, mais lentos e estáticos, não são compatíveis com a velocidade atual da tecnologia. É preciso revisar fluxos, definir pontos de validação e estabelecer critérios claros sobre onde a IA pode atuar e qual nível de autonomia é aceitável em cada contexto. Esse redesenho é o que permite que a tecnologia escale sem comprometer o controle.
Só então a tecnologia deve ser aprofundada. Quando ferramentas são implementadas antes desse alinhamento, o resultado costuma ser um ambiente desorganizado, difícil de governar e mais exposto a riscos. A lógica precisa ser invertida. Primeiro pessoas, depois processos e, por último, a tecnologia.
Outro ponto central é o critério de adoção. Nem toda implementação de IA gera valor real. Existe um volume crescente de iniciativas que nascem mais por pressão de mercado do que por retorno concreto. Isso tende a gerar custos ocultos, retrabalho e, em alguns casos, aumento de risco operacional. O foco precisa estar no Retorno sobre o Investimento, o ROI. A pergunta não deve ser apenas se é possível aplicar IA, mas se faz sentido aplicá-la naquele contexto.
A tendência é que, nos próximos anos, surjam estruturas mais formais para lidar com esse tema, como comitês de IA ou lideranças dedicadas. Ainda assim, nenhum novo cargo resolve o problema se a responsabilidade não estiver integrada à cultura da empresa.
No fim, a resposta para quem é responsável pela decisão de uma IA está na forma como a empresa se organiza e não na tecnologia. A responsabilidade é compartilhada, mas precisa ser claramente definida. Porque, quando o erro acontece, e ele vai acontecer, a ausência de estrutura não elimina o impacto. Apenas torna mais difícil lidar com ele.
Faça como os mais de 10.000 leitores do tecflow, clique no sino azul e tenha nossas notícias em primeira mão! Confira as melhores ofertas de celulares na loja parceira do tecflow.
Redação tecflow
Tecflow é um website focado em notícias sobre tecnologia com resenhas, artigos, tutoriais, podcasts, vídeos sobre tech, eletrônicos de consumo e mercado B2B.
