carreira jurídica
inteligência artificial
IA no Jurídico: da experimentação à governança responsável

A inteligência artificial já está integrada ao dia a dia de grande parte das empresas. Ferramentas de IA generativa entraram nos fluxos de trabalho com uma velocidade que poucas inovações tecnológicas alcançaram antes e o setor jurídico não ficou de fora.
Esse movimento reflete um padrão recorrente na história da inovação: novas tecnologias costumam chegar antes das estruturas que as sustentam. A adoção da IA acelerou e o momento atual é o de desenvolver as práticas e as políticas que permitirão extrair o melhor dessa transformação.
Dados da Thomson Reuters (2025) mostram que 65% dos profissionais que afirmaram ter objetivos pessoais para a adoção de IA disseram não saber se sua organização possui uma estratégia formal de inteligência artificial. Esse descompasso entre a adoção e a governança cria um ambiente propício para o que especialistas chamam de Shadow AI: o uso de ferramentas não autorizadas ou não monitoradas por colaboradores e terceiros, com dados sensíveis sendo processados fora de qualquer controle organizacional. E as consequências vão além do risco técnico, elas alcançam a responsabilidade legal, a conformidade com a LGPD e a confiança dos clientes.
Leia mais – O risco da IA generativa: por que a Shadow AI é a maior ameaça à advocacia

Da experimentação à estrutura: construindo bases mais sólidas
O desafio da IA é o de fazer essa adoção de forma cada vez mais estruturada, garantindo que os ganhos reais se realizem sem exposição desnecessária a riscos que já podem ser gerenciados.
Uma pesquisa realizada pelo Cybernews (2025), nos EUA, revelou que 59% dos funcionários admitiram usar ferramentas de IA não aprovadas pelo empregador e três quartos desses funcionários afirmaram ter compartilhado informações sensíveis como dados de clientes, documentos internos e informações de outros colaboradores. Não por má-fé, mas por ausência de orientação clara. Um estudo da empresa alemã Software AG (2024) reforça esse cenário: quase metade dos trabalhadores não gostaria de parar de usar essas ferramentas mesmo que a empresa proibisse completamente. Abordagens baseadas exclusivamente em proibição tendem a ser menos eficazes do que aquelas orientadas à estruturação do uso.
Quando não há governança adequada, o uso, por colaboradores, de ferramentas de IA não aprovadas pode se tornar um vetor relevante de risco organizacional. A International Bar Association (IBA), em análise publicada em novembro de 2025, alerta que esse cenário pode expor organizações a ameaças como:
vazamento de dados confidenciais de clientes;
violações de legislações de proteção de dados, especialmente quando há compartilhamento de informações com ferramentas sem consentimento ou base contratual;
e o chamado envenenamento de modelo, um ataque cibernético em que dados de treinamento são manipulados para comprometer os outputs da IA.
O contexto brasileiro amplifica esse risco de forma significativa. De acordo com uma pesquisa realizada pela Fortinet, o Brasil registrou cerca de 315 bilhões de tentativas de ataque cibernético somente no primeiro semestre de 2025, concentrando 84% de todo o volume da América Latina.

Oportunidade real, desafio concreto: construindo o equilíbrio
Ao mesmo tempo, os ganhos potenciais associados ao uso de IA são amplamente documentados. O relatório Future of Professionals 2025, da Thomson Reuters, estima uma economia média de até cinco horas semanais por profissional, especialmente em atividades como revisão documental, pesquisa e organização de informações.
Esse ganho operacional permite redirecionar esforços para atividades de maior valor agregado, como análise estratégica e relacionamento com clientes, dimensões em que a atuação humana permanece central.
Observa-se, no entanto, que a materialização consistente desses benefícios está diretamente associada ao grau de maturidade organizacional. Segundo o mesmo estudo, apenas 22% das empresas possuem uma estratégia formal de IA, sendo que essas organizações apresentam probabilidade significativamente maior de capturar valor de forma sustentável.
Riscos, responsabilidade e precedentes recentes
A discussão sobre governança também envolve a compreensão de impactos financeiros e reputacionais. O relatório Cost of a Data Breach 2025, da IBM, estima o custo médio global de incidentes dessa natureza em US$ 4,45 milhões, com valores superiores em setores intensivos em informação.
No âmbito jurídico, decisões recentes no Brasil reforçam o entendimento de que a responsabilidade pelo conteúdo produzido com apoio de IA permanece atribuída ao profissional. Casos envolvendo a utilização de fundamentos inexistentes ou jurisprudência não verificável têm resultado em sanções processuais e encaminhamentos para apuração disciplinar.
Esses precedentes consolidam um princípio já conhecido: o uso de tecnologia não afasta o dever de diligência técnica.
Leia mais – Responsabilidade profissional da IA na advocacia: quem responde quando a IA erra?

As perguntas que você precisa responder antes de adotar qualquer ferramenta
Usar IA no ambiente jurídico exige o mesmo rigor que se aplica a qualquer processo de due diligence. Antes de incorporar qualquer ferramenta ao fluxo de trabalho, algumas questões precisam ter resposta clara.
A primeira é sobre dados: onde as informações inseridas nessa ferramenta vão parar? Plataformas gratuitas frequentemente armazenam e utilizam o que recebem. Isso significa que estratégias processuais, dados de clientes e informações confidenciais podem estar alimentando sistemas fora do controle da organização sem que ninguém tenha percebido.
A segunda é sobre limites: o time sabe o que pode e o que não pode colocar nessas ferramentas? Essa é uma conversa que precisa acontecer de forma explícita, com exemplos concretos. Não basta presumir que o bom senso vai prevalecer.
A terceira é sobre rastreabilidade: se algo der errado, eu consigo saber o que aconteceu? Em caso de incidente ou auditoria, é fundamental ter visibilidade sobre quem e quando usou e com quais informações.
Por trás de cada uma dessas perguntas há uma premissa que não muda: a automação não transfere responsabilidade. O advogado que assina a peça responde pelo seu conteúdo. O profissional que insere dados de um cliente em uma plataforma não autorizada responde pelo que acontece com esses dados. Os casos recentes julgados no Brasil reforçam a necessidade de diligência no uso da IA.
Mais do que requisitos formais, esses elementos contribuem para a construção de ambientes de confiança e previsibilidade.
Construindo uma cultura de uso responsável
Construir uma cultura de uso responsável exige mais do que comunicados internos ou políticas arquivadas em pastas compartilhadas. Exige um conjunto de práticas que se reforçam mutuamente — e que precisam ser lideradas, não apenas comunicadas.
O ponto de partida é o treinamento, mas não o treinamento genérico. A equipe precisa ser exposta a casos reais, simulações e dilemas concretos que desenvolvam autonomia crítica, não apenas conformidade. Saber que “não se deve inserir dados sensíveis” é diferente de saber reconhecer, na prática, o que constitui um dado sensível em cada contexto.
Em paralelo, a organização precisa oferecer caminhos seguros para a inovação acontecer. Criar um catálogo de ferramentas avaliadas e homologadas pela área jurídica e de segurança da informação permite que colaboradores encontrem alternativas aprovadas sem recorrer a soluções não autorizadas. A mensagem implícita é tão importante quanto a explícita: a empresa não está bloqueando a inovação, mas orientando como ela deve acontecer.
Independentemente da ferramenta utilizada, a revisão humana deve ser etapa obrigatória em qualquer fluxo que envolva IA. Peças processuais, pareceres, contratos: o output gerado por uma inteligência artificial é o ponto de partida, não o produto final. A responsabilidade técnica e ética pelo resultado é sempre do profissional.
Por fim, a política de IA não pode ser um documento estático. Ela precisa ser revisada regularmente, flexível o suficiente para incorporar riscos emergentes e orientada ao encorajamento e à transparência. E para que essa política viva de verdade, o caminho mais eficaz é transformar usuários-chave em multiplicadores de boas práticas dentro das próprias áreas de negócio, criando um efeito em cascata que nenhuma iniciativa centralizada consegue replicar.

Inovar com responsabilidade: uma agenda que vale liderar
A inteligência artificial já transformou a rotina jurídica e esse processo não tem volta. O que está em construção agora é a qualidade dessa transformação: organizações que investem em governança, treinamento e clareza de responsabilidades tendem a capturar os benefícios com muito mais consistência e segurança do que aquelas que ainda operam de forma não estruturada.
Os dados mostram que a adoção está sendo consolidada e que a governança avança em paralelo, ainda que em ritmos diferentes entre as organizações. Estruturar esse processo não é apenas uma resposta a riscos: é uma decisão estratégica com impacto direto em resultados legais, financeiros e reputacionais.
Há um caminho concreto a percorrer: mapear as ferramentas em uso, construir políticas que orientem sem engessar, treinar equipes para desenvolver julgamento crítico e assumir o papel que cabe ao jurídico nessa agenda, não como área de controle, mas como protagonista da transformação responsável.
Esse é o desafio da liderança jurídica neste momento. E é também a sua maior oportunidade.
Sobre a autora
Alessandra Caribé constrói sua trajetória no mercado financeiro há mais de 25 anos, com atuação sólida e estratégica na área jurídica. Desenvolveu sua carreira em grandes instituições financeiras e, nos últimos 13 anos, atua como executiva jurídica no Omni Banco.
Ao longo dessa jornada, expandiu sua atuação para além do jurídico tradicional, incorporando visão de negócio, inovação, tecnologia e dados à sua prática.
Há um ano, fundou o Network4Her ao lado de Cintia Falcão, uma comunidade voltada a mulheres do mercado financeiro. Hoje, une repertório técnico, visão estratégica e relações genuínas como pilares da sua forma de atuar.



