
News
IA Generativa no Direito: É Seguro Confiar? (Parte I de III)
23 de out. de 2025
Category
Guia prático para jovens advogados sobre IAs generativas: riscos de confidencialidade, sigilo profissional, LGPD, boas práticas pelo mundo quanto ao uso de IA com segurança.

IA Generativa no Direito: É Seguro Confiar? (Parte I de III)
O jovem advogado, eu incluso, deve estar ciente da importância de proteger dados sensíveis diante do avanço avassalador das Big Techs e das falhas do próprio sistema jurídico brasileiro.
Para contextualizar, o mau uso e os vazamentos de dados estão na raiz de diversos golpes que assolam o país: como o golpe do falso advogado, a coleta e venda ilegal de informações e o uso de dados vazados por quadrilhas digitais. Esse cenário torna a segurança jurídica digital do brasileiro mais vulnerável, e faz da proteção à privacidade um dever inadiável para o advogado.
Dentro desse cenário tão negligenciado, falar sobre proteção de dados e privacidade não só como conceito, mas direito, é cada vez mais importante. Pensando nisso pesquisei e reúne algumas das informações principais sobre como lidar com as IAs generativas (LLMs, GAIs e outras) dentro do direito, essas que são verdadeiras prestadoras de informações.

LLMs são facas de dois gumes
O objetivo desta pesquisa não é fazer alarde ou espalhar FUD (Fear, Uncertainty, Doubt). Ferramentas de ‘’I.A’’, como ChatGPT, Claude e Gemini, baseadas em Large Language Models (LLMs), não são por si inimigas, quando bem usadas aumentam a produtividade, resumem documentos, redigir minutas de petições e até auxiliam em brainstorming de estratégias jurídicas. Mas surge uma questão essencial: até onde os advogados podem ter liberdade e ‘’confiar’’ nessas ferramentas com informações confidenciais?
Para responder a essa pergunta, busquei fontes dentro e fora do Brasil. E como muito no direito, a resposta é complexa.
O que são LLMs e por que encantam o meio jurídico
Simplificando, LLMs são modelos de linguagem treinados com enormes volumes de texto. Com esses dados conseguem gerar conteúdo ‘’semi-natural’’, respondendo perguntas, revisando textos e auxiliando em tarefas jurídicas.
Um estudo da ScienceDirect (“Large Language Models in Law: A Survey”), esses sistemas, quando usados com cuidado, podem reduzir o tempo de análise documental e melhorar a consistência de rascunhos legais. No entanto, o mesmo relatório adverte: os modelos não têm compreensão jurídica real, apenas padrões linguísticos, e isso afeta diretamente a confiabilidade.
Ou seja, são ótimos para redução de documentos simples, evitando tarefas jurídicas repetitivas como procura por determinadas legislações, elaboração de declarações, formulários e etc. Mas não são defensores reais e não possuem capacidade de realmente ter interesse na defesa de direitos, havendo um limite claro em seu uso.
A extrapolação desse limite sem cuidado tem gerado verdadeiros teatros macabros no judiciário pelo mundo, como o caso em Santa Catarina onde um advogado foi condenado pelo TJSC a pagar multa por litigância de má-fé ao aplicar jurisprudências e doutrinas ‘’inexistentes’’ em um recurso, criadas por alucinações do LLM usado.
As LLMs coletam informações?
Direito ao ponto, sim. Empresas que oferecem os LLMs coletam as informações inseridas pelos usuários. Vejamos trecho do que diz a Política de Privacidade do ChatGPT hiperlinkada acima:
Dados Pessoais fornecidos por você: Nós coletamos Dados Pessoais se você criar uma conta para usar nossos Serviços ou se comunicar conosco da seguinte forma:
Informações de Conta: Quando você cria uma conta conosco, nós coletamos informações associadas à sua conta, incluindo seu nome, informações de contato, credenciais da conta, data de nascimento, dados de pagamento e histórico de transações (em conjunto, “Informações de Conta”).
Conteúdo do Usuário: Nós coletamos Dados Pessoais que você fornece ao inserir informações em nossos Serviços (“Conteúdo”), incluindo os seus prompts e outros conteúdos que você faz upload, tais como arquivos(abre em uma nova janela), imagens(abre em uma nova janela) e áudio(abre em uma nova janela), dependendo das funcionalidades que você utiliza.
Informações de Comunicações: Se você se comunicar conosco, por exemplo, por e-mail ou por meio de nossas redes sociais, nós podemos coletar Dados Pessoais como seu nome, dados de contato e o Conteúdo das mensagens que você envia (“Informações de Comunicações”).
Outras informações fornecidas por você: Nós coletamos outras informações que você possa nos fornecer, como quando você participa de nossos eventos ou pesquisas ou nos fornece informações para determinar sua identidade ou idade (em conjunto, “Outras Informações Fornecidas por Você”).
Esse trecho destacado se trata apenas de parte do início da política de privacidade, o documento completo fornece mais detalhes sobre como os dados pessoais são utilizados, o que inclui melhoria dos próprios serviços da Open AI, divulgação dos dados, segurança e mais detalhes. Tudo de forma ‘’comercialmente razoável’’, conforme a própria empresa.
A OpenAI ainda declara o seguinte:
No entanto, nenhuma transmissão pela Internet ou por e-mail é totalmente segura ou livre de erros. Portanto, você deve ter cuidado ao decidir quais informações fornecer aos Serviços. Além disso, nós não somos responsáveis pela fraude de quaisquer configurações de privacidade ou medidas de segurança contidas no serviço ou em sites de terceiros.
Traduzindo para o bom português os termos dizem o seguinte, ‘’estamos mais do que felizes em receber e usar suas informações, mas qualquer problema, erro ou dano é problema seu’’.
Para um advogado a mensagem é a seguinte, ‘’quaisquer danos causados pelo uso dos nossos serviços são duplamente sua responsabilidade!’’
Para um advogado treinado não é difícil identificar as incompatibilidades com o direito brasileiro. Especialmente quanto à abusividade segundo o Código de Defesa do Consumidor e destino de dados pessoais segundo a LGPD. Temas fortes para uma futura análise.
O dever de confidencialidade e o risco das nuvens públicas
Nas terras do Tio Trump, a ABA (American Bar Association), ou ‘’OAB dos EUA’’, através de seu comitê de ética responsabilidade profissional, foi clara em sua primeira orientação formal sobre o tema: advogados devem avaliar os riscos de confidencialidade antes de inserir informações em sistemas de IA. Foi reconhecido o dever ético de proteger dados de clientes, independentemente da tecnologia usada.
Já o Bar Council do Reino Unido separou as melhores práticas de forma bastante concisa e direta, vejamos nossa tradução com destaques na íntegra a seguir:
Devido a possíveis alucinações e viéses, é importante que os advogados verifiquem as respostas geradas por softwares baseados em LLM e mantenham procedimentos adequados para checar as saídas produzidas pela IA generativa.
O chamado “síndrome da caixa-preta” — quando não se entende como o modelo chega a uma conclusão — mostra que os LLMs não devem substituir o julgamento profissional, a qualidade da análise jurídica nem a expertise que clientes, tribunais e a sociedade esperam dos advogados.
Os advogados devem ser extremamente vigilantes para não compartilhar com sistemas de LLM nenhuma informação sigilosa ou protegida por privilégio legal.
Também devem avaliar criticamente se o conteúdo gerado por LLMs pode violar direitos de propriedade intelectual e ter cuidado para não usar palavras que possam infringir marcas registradas.
É importante manter-se atualizado sobre as Regras de Procedimento Civil pertinentes, que no futuro podem implementar normas específicas sobre o uso de LLMs — por exemplo, exigindo que as partes divulguem quando utilizaram IA generativa na elaboração de documentos, como já foi adotado pelo Tribunal do King’s Bench em Manitoba (Canadá).
Conclusão
O mundo mudou e o direito caminhou junto, usar IA generativa torna o trabalho do advogado mais simples, rápido, eficiente, mas vêm com dever de cuidado redobrado, pois há possibilidade real de danos aos interesses e à privacidade dos titulares das informações usadas. O jovem advogado deve desde já ter em mente essa responsabilidade para reforçar sua advocacia, e de preferência deixar claro como serão usados os dados coletados.
Há também o risco de dano mais óbvio, que ocorre por omissão do profissional quando não analisa com cuidado o conteúdo usado pela ferramenta, que sempre será de sua responsabilidade, como os causados por alucinações e possíveis informações não verificadas.
Em resumo: se o advogado não tem controle total sobre onde os dados são processados, não deve inserir informações sensíveis.
Perguntas Frequentes
O que é IA generativa no Direito?
IA generativa são sistemas como o ChatGPT que criam textos jurídicos, análises e minutas, sem real compreensão legal dos fatos.
É seguro advogados usarem IA generativa?
Com cautela, sim. O uso deve respeitar o sigilo profissional e a LGPD, evitando inserir dados confidenciais de clientes.
O que significa “LLM” e por que importa?
LLM é “Large Language Model”, tecnologia que gera textos. No Direito, exige revisão humana para evitar erros e proteger o sigilo.
Qual a diferença entre LLM e GAI no Direito?
LLMs geram texto jurídico; GAIs abrangem textos, imagens e sons. Ambos exigem supervisão humana e respeito ao dever de confidencialidade.
A IA generativa coleta dados dos usuários?
Sim. LLMs armazenam prompts, arquivos e metadados, o que pode gerar conflito com a LGPD e comprometer a privacidade.
A OAB permite o uso de IA generativa?
A OAB recomenda prudência. A ABA (EUA) reforça que advogados devem avaliar riscos éticos e manter sigilo absoluto.
Posso inserir informações de clientes em IA generativa?
Não. Ferramentas em nuvem podem armazenar dados em servidores externos, violando o dever de confidencialidade do advogado.
Quais os principais riscos da IA generativa no Direito?
Alucinações, vazamento de dados, violações à LGPD e responsabilidade ética do advogado por informações incorretas.
Como usar IA generativa de forma ética?
Revise tudo, não insira dados pessoais, e informe clientes sobre o uso de IA em documentos jurídicos.
IA generativa pode substituir advogados?
Não. Ela auxilia em tarefas repetitivas, mas não possui julgamento jurídico nem responsabilidade profissional.
O que muda para jovens advogados?
Eles devem dominar IA generativa com responsabilidade, aliando tecnologia e ética no tratamento de informações sensíveis.
Referências Bibliográficas
AMERICAN BAR ASSOCIATION (ABA). Formal Opinion 512 – Lawyers’ Use of Generative Artificial Intelligence. Chicago: ABA, July 2024. Disponível em: https://www.americanbar.org/news/abanews/aba-news-archives/2024/07/aba-issues-first-ethics-guidance-ai-tools/. Acesso em: 23 out. 2025.
BAR COUNCIL OF ENGLAND AND WALES. Generative Artificial Intelligence (AI) Guidance for Barristers. Londres: Bar Council, 2023. Disponível em: https://www.barcouncil.org.uk. Acesso em: 23 out. 2025.
BRASIL. Lei n.º 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União, Brasília, 15 ago. 2018.
BRASIL. Lei n.º 8.078, de 11 de setembro de 1990. Código de Defesa do Consumidor. Diário Oficial da União, Brasília, 12 set. 1990.
CONSELHO FEDERAL DA ORDEM DOS ADVOGADOS DO BRASIL (CFOAB). Recomendação n.º 001/2024 – Uso de Inteligência Artificial por Advogados. Brasília: OAB Nacional, 2024. Disponível em: https://diario.oab.org.br/pages/materia/842347. Acesso em: 23 out. 2025.
LAW SOCIETY OF ENGLAND AND WALES. Generative AI – The Essentials. Londres: The Law Society, 2023. Disponível em: https://www.lawsociety.org.uk. Acesso em: 23 out. 2025.
SCIENCEDIRECT. Large Language Models in Law: A Survey. Elsevier, 2024. Disponível em: https://www.sciencedirect.com. Acesso em: 23 out. 2025.
OPENAI. Política de Privacidade da OpenAI (versão em português). São Francisco: OpenAI, 2024. Disponível em: https://openai.com/privacy. Acesso em: 23 out. 2025.
TRIBUNAL DE JUSTIÇA DE SANTA CATARINA (TJSC). Recurso cível – Litigância de má-fé – Citação de jurisprudência inexistente produzida por IA. Florianópolis: TJSC, 2024. Disponível em: https://www.tjsc.jus.br. Acesso em: 23 out. 2025.
