8 de out. de 2025
Responsabilidade profissional da IA na advocacia: quem responde quando a IA erra?
Responsabilidade é um pilar do Direito. Quando um avião apresenta uma falha, a companhia aérea é responsabilizada. Quando um produto defeituoso causa dano, o fabricante responde por isso. Mas o que acontece quando o erro é gerado por um sistema de inteligência artificial?
À medida que a tecnologia se torna cada vez mais presente em nosso dia a dia, de chatbots de atendimento ao cliente a diagnósticos médicos, a linha que define a responsabilidade se torna mais complexa. Um conselho incorreto de uma IA pode levar a prejuízos financeiros e até a consequências irreversíveis, levantando uma pergunta inevitável: quem responde por isso?
Para advogados e gestores jurídicos, essa questão não é apenas teórica. Com a crescente adoção de ferramentas de IA na advocacia, entender as implicações de um erro tecnológico é fundamental para a segurança da prática profissional. A responsabilidade por uma petição mal elaborada ou uma análise jurídica falha recai sobre quem: a plataforma ou o advogado que a utilizou?
A responsabilidade no cenário atual
Erros acontecem. No entanto, quando esses erros são cometidos por tecnologias autônomas, determinar o culpado torna-se um desafio jurídico complexo. Um caso recente envolvendo a uma companhia aérea ilustra bem essa situação. Um chatbot da empresa informou incorretamente a um passageiro sobre a política de tarifas. Ao ter seu pedido negado, o cliente acionou a justiça. A empresa argumentou que o chatbot era uma "entidade legal separada", mas o Tribunal discordou, responsabilizando-a pela informação equivocada.
Em um cenário ainda mais grave, uma família nos Estados Unidos processou uma empresa de IA generativa após o suicídio de um adolescente. Eles alegam que o chat encorajou o jovem, afastando-o de sua rede de apoio e contribuindo para a tragédia. Esses casos, embora distintos, apontam para uma mesma direção: a responsabilidade final tende a recair sobre quem disponibiliza ou utiliza a tecnologia. Sistemas de IA são modelos estatísticos que simulam compreensão, mas não possuem senso de responsabilidade ou bússola moral. A decisão final e suas consequências permanecem humanas.
O Projeto de Lei de IA no Brasil (PL 2338/2023)
Atento a essa nova realidade, o Brasil avança na regulação da inteligência artificial. O Projeto de Lei 2338/2023, já aprovado no Senado e em tramitação na Câmara dos Deputados, busca estabelecer um marco legal claro, equilibrando inovação e proteção de direitos. O texto é construído sobre o princípio da centralidade da pessoa humana e define regras objetivas de responsabilização.
Fornecedor e operador: a dupla responsabilidade
Um dos pontos centrais do PL 2338/2023 é a definição das partes envolvidas com a IA e suas respectivas responsabilidades. O texto estabelece duas figuras principais:
Fornecedor: quem desenvolve ou coloca o sistema de IA no mercado.
Operador: quem utiliza a IA em suas atividades profissionais.
Essa divisão cria um regime de dupla responsabilidade. Se um advogado utiliza uma IA genérica para elaborar uma tese jurídica e ela apresenta uma jurisprudência desatualizada que leva à perda da causa, tanto o desenvolvedor da IA (fornecedor) quanto o advogado (operador) podem ser responsabilizados pelo dano causado ao cliente.
No entanto, o projeto também prevê as situações em que os fornecedores de IA não serão responsabilizados (Art. 28):
Se comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de IA que causou o dano; ou
Se comprovarem que o dano é decorrente de fato exclusivo da vítima ou de terceiro, assim como de caso fortuito externo.
Por fim, o Artigo 29 garante que, nas relações de consumo, as regras de responsabilização previstas no Código de Defesa do Consumidor (CDC) (Lei nº 8.078/90) permanecem plenamente aplicáveis, sem prejuízo da aplicação das demais normas do PL. Isso assegura que o consumidor continue a contar com a proteção legal já estabelecida, reforçando a segurança jurídica em casos de falhas de produtos ou serviços que utilizem IA.
Na prática jurídica, isso significa que, ao usar uma ferramenta de IA genérica para redigir uma petição, analisar um contrato ou pesquisar jurisprudência, o advogado ou o escritório se enquadra perfeitamente na definição de operador. Essa classificação tem consequências diretas e profundas para a responsabilidade profissional.
As consequências para a advocacia
O Artigo 27 do projeto é direto: o fornecedor ou operador de um sistema de IA que cause dano patrimonial, moral, individual ou coletivo tem o dever de repará-lo integralmente. O texto reforça que essa obrigação independe do grau de autonomia do sistema. Isso significa que a justificativa "a máquina errou" não será uma defesa válida nos Tribunais.
Para o advogado que utiliza uma IA genérica, as implicações são profundas:
A responsabilidade da IA é sua: ao integrar uma análise gerada por IA em uma petição, o profissional assume a responsabilidade pelo conteúdo. Erros factuais, teses falhas ou informações incorretas que resultem em prejuízo para o cliente recairão integralmente sobre você.
Risco de violação de sigilo: IAs genéricas frequentemente utilizam os dados inseridos pelos usuários para treinar seus próprios modelos. Isso representa um risco imenso de quebra de sigilo profissional e violação da Lei Geral de Proteção de Dados (LGPD).
Exposição profissional e financeira: a falha em garantir a precisão e a segurança das informações pode levar a processos disciplinares na OAB, além de ações de indenização por danos materiais e morais.
É crucial destacar que, embora o PL 2338/2023 preveja um futuro de responsabilidade clara (Art. 27), esse regime legal ainda não está em vigor. O projeto foi aprovado no Senado, mas está em análise e debate na Câmara dos Deputados, sujeito a alterações e com um prazo de aprovação incerto.
Incerteza jurídica na responsabilidade por IA Genérica
Enquanto a lei não é promulgada, o Brasil enfrenta uma incerteza jurídica significativa (uma verdadeira zona cinzenta) quanto à responsabilidade por danos causados por IAs genéricas.
No momento, a responsabilidade civil por erro de uma IA é resolvida pela aplicação de leis existentes, como o Código Civil (CC), o Código de Defesa do Consumidor (CDC) e o Estatuto da OAB.
Diante dessa lacuna regulatória, a palavra de ordem para advogados e profissionais que usam IAs genéricas em análises sensíveis é resguardo.
A inteligência artificial jurídica com responsabilidade
A crescente complexidade jurídica em torno da IA evidencia que a escolha da ferramenta certa não é mais uma questão de preferência, mas de segurança e responsabilidade profissional. IAs genéricas não foram projetadas para o rigor do universo jurídico e aumentam exponencialmente os riscos para o advogado.
É por isso que a Inspira foi criada. Desenvolvida por advogados para advogados, nossa ferramenta é a única que oferece a segurança necessária para a prática jurídica moderna.
Supervisão humana extrema: diferente das IAs genéricas, a Inspira conta com uma equipe de especialistas jurídicos que revisa e valida constantemente as informações geradas, garantindo precisão e conformidade legal.
Segurança e Confidencialidade: a sua privacidade é nossa prioridade. A Inspira não utiliza seus dados ou os de seus clientes para treinamento de modelos e não armazena suas informações, assegurando total sigilo profissional.
Foco exclusivo no Direito: nossa IA é calibrada com uma base de dados exclusivamente jurídica e atualizada, o que reduz drasticamente a chance de erros, alucinações ou informações descontextualizadas.
Leia mais: O impacto da IA no Direito que ninguém mais pode ignorar
A responsabilidade por erros de IA será sempre do profissional. Em um cenário regulatório cada vez mais rígido, usar uma IA genérica é uma aposta arriscada. A escolha da tecnologia impacta diretamente sua responsabilidade profissional e a segurança de seus clientes.