Foto: Pixabay
A eventual utilização de ferramentas de inteligência artificial (IA) na elaboração de peças processuais não afasta a responsabilidade pessoal do autor pela verificação da autenticidade, da veracidade e da fidedignidade dos dados e fundamentos jurídicos apresentados em juízo.
Esse foi o recado dado pela Sexta Turma do Tribunal Superior Eleitoral (TST) ao advogado de uma empresa que citou precedentes inexistentes e adulterados da corte em um recurso. De acordo com o profissional, a jurisprudência era “pacífica” no sentido da tese que ele defendia no processo que trata de indenização por danos morais pela morte de um trabalhador que caiu de nove metros de altura durante a instalação de uma linha de internet.
Para o relator do caso, o ministro Fabrício Gonçalves, houve possível uso de IA sem revisão. “Não estamos diante de mero erro material, mas de alteração deliberada de conteúdo decisório oficial de Tribunal Superior com vistas a conquistar vantagem, de maneira ilícita, na relação processual trabalhista”, criticou. A empresa foi condenada por litigância de má-fé e o advogado vai ter que pagar uma multa. O ministro determinou o envio de ofícios à Ordem dos Advogados do Brasil (OAB) e ao Ministério Público Federal (MPF) para apuração de possíveis infrações disciplinares e criminais.
A jurisprudência tem reconhecido os riscos das chamadas “alucinações” de IA, fenômeno pelo qual ferramentas como o ChatGPT ou Gemini criam dados inexistentes ou inventam jurisprudência.
Sem filtragem crítica
Em caso julgado pela Justiça do Trabalho, o juiz da 3ª Vara de Mogi das Cruzes (SP) multou uma empresa de segurança e limpeza por ter agido com o objetivo de causar dano ao processo. Para o magistrado Matheus de Lima Sampaio, ficou claro o mau uso da inteligência artificial na elaboração da petição que ele analisou, redigida de forma genérica, sem revisão nem filtragem crítica pelo advogado da empresa.
De acordo com o processo, o profissional do Direito utilizou linguagem padronizada e tratou os fatos de forma superficial no pedido. “A IA não leu atentamente o processo, não conhece conceitos jurídicos específicos e não é capaz de analisar as peculiaridades do caso concreto”, afirmou o magistrado.
Segundo a Recomendação nº 001/2024 do Conselho Federal da OAB, a IA deve ser ferramenta de apoio, jamais substituta do raciocínio jurídico, sendo obrigatória a supervisão humana em toda produção gerada por esse tipo de sistema. A responsabilidade civil e ética pelo conteúdo final permanece exclusivamente com o advogado, explica Pedro Lenza, especialista em Direito Constitucional e Direito Processual Civil. “O profissional tem o dever de garantir a confidencialidade e o sigilo dos dados dos clientes, evitando a inserção de informações sensíveis em sistemas que não ofereçam proteção adequada ou conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD)”, esclarece.
Na opinião de Lenza, a “delegação absoluta” do trabalho à IA traz o risco de alucinações e pode levar à caracterização de infração disciplinar “se houver deturpação do teor de dispositivo de lei, de citação doutrinária ou de julgado, bem como de depoimentos, documentos e alegações da parte contrária, confundindo o adversário ou iludindo o juiz da causa”.
Extremamente grave
O uso inadequado também viola o Estatuto da Advocacia, que impõe ao advogado o dever de não apresentar peças “manifestamente defeituosas”, bem como o Código de Ética e Disciplina da OAB, que estabelece o dever de atuar com zelo e diligência, lembrou a juíza Bruna de Oliveira Farias, da 1ª Vara Cível, de Família, de Sucessões e da Infância e Juventude de Planaltina (GO), ao constatar erros em uma petição inicial feita por IA. Ela advertiu o advogado da causa por litigância de má-fé. Ela constatou “vícios formais extremamente graves” e determinou o ajuste da peça para a correção dos erros.
“Há contradição insanável quanto à identificação do réu, a peça não foi adequadamente elaborada por profissional habilitado, o advogado não alterou sequer a formatação gerada por IA, houve violação aos deveres éticos e processuais, e não há como conferir validade a argumentação potencialmente criada por IA sem respaldo na realidade jurídica, constituindo desrespeito ao Poder Judiciário, às partes e à advocacia, não é possível prosseguir com o feito no estado em que se encontra”, disse a magistrada.
Por não conseguir separar “o joio do trigo”, o Tribunal de Justiça do Paraná (TJ-PR), por exemplo, não conheceu recurso cujas razões foram feitas com uso de IA que inventou 43 julgados inexistentes. “Apenas para exemplificar, esta Corte não tem nenhum desembargador chamado Fábio André Munhoz ou João Augusto Simões (não existe nenhum desembargador no país com esses nomes)”, diz o acórdão. E continua: “o desembargador Paulo Roberto Vasconcelos já se aposentou há bastante tempo antes das datas mencionadas nos ‘julgados’”.
Os números dos “processos” mencionados também são curiosos: “1234-56”; “3456-78”; “12345-67”; “6543-21”; “12346-78”; “9876-34”. Nem um único caso do Superior Tribunal de Justiça (STJ) e do Supremo Tribunal Federal (STF), dentre os mencionados, são fidedignos, afirma o acórdão. “Ou seja, o recurso todo foi feito com o uso de IA com a finalidade de induzir o colegiado em erro ou fazer troça. Nenhuma hipótese é boa ou justificável”, afirma o documento.
Na avaliação da professora Elaine Coimbra, vice-presidente de Comunicação e Marketing da Associação Brasileira de Inteligência Artificial (Abria), o risco de fazer uma peça jurídica usando IA, sem revisão, é altíssimo e pode comprometer não apenas o processo, mas a própria carreira do advogado. “A legislação brasileira é clara ao imputar a responsabilidade legal integral ao advogado que assina a peça. Não adianta culpar a tecnologia ou um estagiário”, afirma.
Número dos processos citados:
0000284-92.2024.5.06.0351 (TST)
0002062-61.2025.8.16.0019 (TJ-PR)
5050924-97.2026.8.09.0128 (TJ-DF)