Início Noticias A reprovação no exame da ordem de Kim Kardashian revela tendência ‘perigosa’,...

A reprovação no exame da ordem de Kim Kardashian revela tendência ‘perigosa’, alertam especialistas

12
0

Depois de contar com o ChatGPT para aconselhamento jurídico, o fracasso de Kim Kardashian em passar num exame de direito público renovou o debate sobre os perigos do uso da inteligência artificial generativa (IA) em contextos profissionais de alto risco. À medida que a adoção da IA ​​cresce nos setores jurídico, médico e outros, a experiência da estrela da realidade destaca preocupações de que as alucinações geradas pela IA podem minar a confiança do público, criar responsabilidade legal e confundir estudantes e profissionais em exercício.

Semana de notícias O representante de Kardashian foi contatado por e-mail para comentar o assunto na sexta-feira.

Kim Kardashian é reprovada no exame da Ordem

O cofundador da Kardashian-Schemes e aspirante a advogado revelado em Feira da Vaidade Entrevistado no início deste mês, ele disse que usou o ChatGPT para responder questões jurídicas enquanto se preparava para os exames da faculdade de direito. De acordo com Kardashian, o chatbot de IA muitas vezes fornecia respostas incorretas, contribuindo para que ela fosse reprovada em vários exames jurídicos.

“Eu uso (ChatGPT) para aconselhamento jurídico, então quando preciso saber a resposta para uma pergunta, tiro uma foto e coloco lá. Eles sempre erram. Isso me fez falhar no teste”, Todas as feiras A atriz descreve como a resposta confiante, embora errada, da ferramenta leva diretamente à sua queda.

A franqueza do homem de 45 anos chamou a atenção do público para uma tendência maior: estudantes e profissionais jurídicos usam cada vez mais ferramentas generativas de IA, como o ChatGPT, para pesquisar, redigir resumos e estudar para exames. Apesar de terem sido concebidas como máquinas de previsão e não como bases de dados factuais, estas ferramentas muitas vezes fornecem informações que parecem lógicas, mas imprecisas. A profissão jurídica documentou vários casos de advogados que submeteram documentos a tribunais contendo citações inexistentes geradas por IA, com ações disciplinares e sanções tanto nos Estados Unidos como internacionalmente.

Incerta sobre suas ambições jurídicas, Kardashian anunciou planos de refazer o exame da Ordem dos Advogados da Califórnia e continuar seus estudos jurídicos, mas sua história levou especialistas a emitirem novos alertas sobre as limitações da inteligência artificial em ambientes jurídicos.

Perigos do ChatGPT

Duncan Levine, ex-promotor e professor de direito da Universidade de Harvard, disse: “Kim Kardashian dizer que está usando o ChatGPT para aconselhamento jurídico é como dizer que você contratou um Magic 8 Ball como co-advogado. A IA pode estar confiante enquanto está completamente errada, e essa é uma combinação perigosa legalmente.” Semana de notícias.

Ele acrescentou que “o risco não é que ele esteja estudando tecnologia”, mas que seus milhões de seguidores “possam pensar que a especialização jurídica está apenas a um passo de distância”.

“Passar na ordem exige julgamento, ética e experiência: três coisas: não existe algoritmo. ChatGPT pode escrever um bom argumento final, mas não pode mantê-lo fora da prisão”, disse Levine.

Matthew Sagg, professor de direito da Emory University School of Law, enfatizou em comunicado Semana de notícias Que “a IA produtiva pode ser uma ferramenta muito útil para advogados, mas apenas nas mãos de pessoas que realmente conhecem a lei.

“Tudo o que o ChatGPT diz sobre a lei parece razoável, mas é perigoso se você não tiver alguma habilidade ou contexto para ver o que está faltando e o que está alucinando”, disse ele.

De acordo com o criador do ChatGPT, OpenAI, as alucinações são “instâncias em que um modelo produz com segurança uma resposta que não é verdadeira”.

O advogado e especialista em IA Logan Brown relatou esta informação Semana de notícias Que “ChatGPT (e outras ferramentas de IA) podem estar e muitas vezes estão errados.”

“Estes sistemas parecem confiantes, apesar de estarem praticamente fechados, e podem ser perigosos se as pessoas confiarem neles para assuntos sérios, como aconselhamento jurídico”, disse ele. “Usar o ChatGPT como autoridade de escolha legal sem orientação confiável é realmente arriscado. É exatamente por isso que temos ordens de advogados.”

O professor de direito da Faculdade de Direito da Universidade do Colorado, Harry Sarden, acrescentou: “Quando alguém tem uma dúvida jurídica, a melhor opção é perguntar a um advogado, se houver. No entanto, pesquisas mostram que cerca de 80% dos americanos têm problemas jurídicos, mas não têm acesso ou não podem pagar advogados. Em situações como essa, o ChatGPT provavelmente não é uma opção perfeita para melhorá-los legalmente. Perguntas, e certamente não tão boas quanto um advogado, tão modernas quanto as ferramentas de IA do ChatGPT geralmente fornecem respostas bastante razoáveis ​​para questões jurídicas básicas. “

Ele esclareceu: “Para ser claro, não recomendo o uso de IA em questões jurídicas complexas e, nesses casos, as pessoas devem sempre consultar um advogado. Mas para questões jurídicas básicas em que um advogado não é uma opção, a IA tende a ser uma melhoria em relação à alternativa, que muitas vezes é uma suposição de amigos e familiares ou um mau aconselhamento jurídico.”

Consequências da dependência excessiva

Mark Bartholomew – professor de direito e vice-reitor de pesquisa e desenvolvimento docente da Escola de Direito da Universidade de Buffalo – disse Semana de notícias Que Kardashian está “fazendo o que é certo”, mas “o perigo é a dependência excessiva”.

“Tal como noutros campos, a IA está a perturbar o ensino jurídico. Não há forma de desligar completamente o ensino jurídico da IA”, explicou. “A IA alucina – ela inventa casos e pode errar na lei. Portanto, qualquer estudante de direito ou advogado responsável deve verificar novamente as respostas do chatbot às suas perguntas. Além disso, ser advogado envolve mais do que apenas encontrar respostas. Os advogados precisam desenvolver suas habilidades lendo tantos casos, analisando leis, apresentando argumentos, etc., para que possam desenvolver preocupações sobre a lei. Como advogado, às vezes, não há alternativa a não ser fazer o próprio trabalho.”

Thomas R. da Universidade Drexel. Anat Leor, professora assistente de direito da Cline School of Law, ecoou o alerta sobre a confiança: “Quando (Kardashian) discute essa parte da entrevista, ela imediatamente diz que ‘eles estão sempre errados’ e sugere que o uso da ferramenta falhou. Sua combinação de confiar nela e confiar nela para responder corretamente. Esse é um aviso importante para qualquer pessoa que usa o ChatGPT em situações de alto risco, como estudar para a ordem ou qualquer exame com consequências reais. “

O “problema” emergente da IA

Frank Pasquale, professor de direito da Cornell Tech e da Cornell Law School, observou que documentos legais imprecisos gerados pela IA “já são um grande problema”.

“Muitos advogados foram autorizados a citar casos falsos, inclusive nos EUA e na Austrália. O problema só vai piorar à medida que a IA se espalhar”, disse ele.

Bartholomew concordou, dizendo: “Já estamos vendo muitos problemas com o uso de IA para criar documentos legais. O problema é que os advogados confiam nas respostas do chatbot sem examiná-las e depois fornecem resumos jurídicos que contêm absurdos. Os juízes estão começando a impor liminares contra esse tipo de lei para fazer cumprir a preguiça de suas próprias regras e usar a preguiça da lei”.

O que acontece a seguir?

Apesar dos riscos, os especialistas jurídicos concordam que a IA generativa provavelmente continuará a ser um componente importante da prática profissional.

O consenso é que as ferramentas de IA devem servir apenas como ponto de partida – sujeitas a um rigoroso escrutínio humano – e não como um substituto de aconselhamento jurídico competente. Para estudantes, profissionais e o público em geral, a experiência de Kardashian sublinha a necessidade crítica de abordar os resultados da IA ​​com ceticismo e defender os padrões tradicionais de responsabilidade profissional onde vidas e meios de subsistência estão em jogo.

O link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui