Advogado pode ser penalizado por citar caso falso com uso de IA, adverte juíza do Reino Unido
Advogados que usam inteligência artificial para citar casos inexistentes podem ser acusados de desacato ao tribunal ou até mesmo enfrentar acusações criminais, alertou o Tribunal Superior de Londres nesta sexta-feira, no mais recente exemplo de uso de IA generativa que induziu profissionais da área ao erro.
Uma juíza sênior criticou advogados que aparentemente usaram em dois casos ferramentas de IA ao prepararem argumentos escritos, que se referiam a jurisprudência falsa. Ela pediu a reguladores e líderes do setor que garantam que advogados conheçam suas obrigações éticas.
"Há sérias implicações para a administração da justiça e para a confiança do público no sistema judiciário se a inteligência artificial for mal utilizada", disse a juíza Victoria Sharp em uma decisão por escrito.
"Nessas circunstâncias, medidas práticas e eficazes devem agora ser tomadas por aqueles dentro da profissão jurídica com responsabilidades individuais de liderança... e por aqueles com a responsabilidade de regulamentar a prestação de serviços jurídicos."
A decisão foi tomada depois que advogados de todo o mundo foram forçados a se explicar por confiarem em elementos falsos, desde que o ChatGPT e outras ferramentas de IA se tornaram amplamente disponíveis.
Sharp advertiu em sua decisão que advogados que se referirem a casos inexistentes estarão violando seu dever de não enganar o tribunal, o que também pode ser considerado desacato ao tribunal.
Ela acrescentou que "nos casos mais graves, a colocação deliberada de material falso perante o tribunal com a intenção de interferir na administração da justiça equivale ao delito criminal de perverter o curso da justiça".
Sharp destacou que os reguladores legais e o judiciário emitiram orientações sobre o uso da IA por advogados, mas disse que "a orientação por si só é insuficiente para lidar com o uso indevido da inteligência artificial".
