A crescente disseminação de ferramentas de inteligência artificial (IA) tem levado pessoas, inclusive sem formação jurídica, a utilizarem dessas tecnologias para elaborar contratos, procurações e outros documentos jurídicos, bem como para analisar cláusulas contratuais e buscar supostas orientações jurídicas. A ampla acessibilidade e, em muitos casos, a gratuidade dessas ferramentas, aliadas à aparência técnica e estruturada dos textos gerados, contribuem para a falsa percepção de que a inteligência artificial seria capaz de substituir a atuação profissional do advogado, o que representa risco relevante do ponto de vista jurídico.
Isto porque as plataformas de inteligência artificial não operam com base na interpretação sistemática do ordenamento jurídico, tampouco realizam análise crítica da legislação vigente e aplicável ao caso concreto, avaliação de riscos ou consideração das particularidades da relação jurídica envolvida — atividades essenciais à atuação de um operador do Direito. Em regra, tais ferramentas funcionam a partir de modelos estatísticos de linguagem, que produzem respostas com base em padrões recorrentes extraídos de grandes volumes de dados previamente utilizados em seu treinamento, inclusive a partir de conteúdos disponíveis na internet, sem garantia de atualização, adequação normativa ou veracidade das fontes. Em razão dessas limitações, o conteúdo gerado por sistemas de inteligência artificial pode apresentar coerência formal e aparência técnica, mas estar juridicamente inadequado, desatualizado ou incompatível com a legislação aplicável, além de desconsiderar aspectos essenciais da relação jurídica analisada.
Para exemplificar, há relatos de casos de contratos elaborados por inteligência artificial que continham cláusulas contraditórias, omissão de cláusulas essenciais, utilização de institutos jurídicos estrangeiros inaplicáveis ao Direito brasileiro ou previsões incompatíveis com contratos típicos.
Esse risco é agravado pelo fato de que, em sua maioria, os usuários dessas ferramentas não possuem conhecimento técnico suficiente para avaliar, validar ou identificar inconsistências jurídicas nos resultados apresentados pela inteligência artificial.
A relevância do tema é reconhecida pelas próprias plataformas de inteligência artificial. As Políticas de Uso da OpenAI (ChatGPT), por exemplo, estabelecem que os conteúdos gerados por seus modelos podem conter imprecisões e não devem ser utilizados como substitutos de aconselhamento profissional qualificado. As políticas também ressaltam que o usuário não deve adotar as respostas fornecidas pela ferramenta como única base para decisões relevantes, sendo indispensável a realização de avaliação crítica e revisão humana antes de qualquer aplicação prática. Nesse sentido, a OpenAI (ChatGPT), expressamente veda o uso de seus serviços para o fornecimento de consultoria personalizada que exija licença profissional, como consultoria jurídica, sem o envolvimento adequado de um profissional habilitado.
Essa orientação é particularmente relevante para pessoas leigas, pois evidencia que a inteligência artificial não possui legitimidade nem capacidade para emitir orientações jurídicas, interpretar a legislação de forma segura ou elaborar documentos jurídicos com o grau de confiabilidade exigido pelo ordenamento jurídico.
Outro aspecto sensível diz respeito à confidencialidade e à proteção de dados. Os usuários frequentemente inserem nas plataformas de inteligência artificial, informações estratégicas, dados financeiros, minutas contratuais ou detalhes societários, sem avaliar os riscos associados ao tratamento dessas informações. Essa prática pode comprometer a confidencialidade, violar obrigações legais e/ou contratuais e expor usuários e terceiros a riscos relacionados à legislação de proteção de dados, especialmente quando não há garantias claras quanto ao armazenamento, uso, compartilhamento ou descarte dessas informações.
No Brasil, essas preocupações foram reconhecidas pelo Conselho Federal da Ordem dos Advogados do Brasil, que editou a Recomendação n.º 001/2024, estabelecendo diretrizes para o uso ético e responsável da inteligência artificial generativa na prática jurídica. Embora direcionada à advocacia, a recomendação possui importante caráter educativo para o público em geral ao reforçar que a inteligência artificial deve ser utilizada apenas como ferramenta de apoio, jamais como substituta da análise jurídica realizada por advogado habilitado.
A OAB destaca que a atividade jurídica não se resume à produção de textos, envolvendo, sobretudo, avaliação de riscos, interpretação sistemática do Direito, ponderação de interesses e adaptação às circunstâncias específicas de cada caso. Esses elementos não podem ser adequadamente reproduzidos por sistemas automatizados quando utilizados de forma autônoma, especialmente por pessoas leigas. No ambiente empresarial, os efeitos de um contrato mal redigido ou de uma decisão baseada em orientação jurídica inadequada tendem a se manifestar apenas no futuro, geralmente em situações de litígio, fiscalização ou descumprimento contratual.
Diante disso, conclui-se que a inteligência artificial pode ser útil como ferramenta de apoio à pesquisa, organização de informações e otimização de tarefas operacionais, mas jamais como fonte de aconselhamento jurídico ou substituta da atuação profissional do advogado. As próprias políticas de uso das plataformas de inteligência artificial, bem como as diretrizes institucionais da OAB e outros documentos oficiais, convergem no sentido de que decisões jurídicas exigem supervisão humana qualificada, responsabilidade profissional e análise técnica individualizada. Em matéria jurídica, a segurança permanece sendo resultado da atuação de advogados habilitados e especialistas, e não da automação indiscriminada de conteúdos jurídicos.
Dra. Fabiana Molinero Marzano
Advogada e Consultora Jurídica na Silva Vitor, Faria & Ribeiro Advogados