Início Noticias Usuários do OpenAI ChatGPT compartilham dados sobre pensamentos suicidas e psicose

Usuários do OpenAI ChatGPT compartilham dados sobre pensamentos suicidas e psicose

13
0

A OpenAI divulgou novas estimativas do número de usuários do ChatGPT que apresentam sintomas potenciais de uma emergência de saúde mental, incluindo mania, psicose ou pensamentos suicidas.

A empresa disse que cerca de 0,07% dos usuários ativos do ChatGPT exibiram tais sintomas em uma determinada semana, acrescentando que seu chatbot de inteligência artificial (IA) reconhece e responde a essas conversas confidenciais.

Embora a OpenAI afirme que estes casos são “extremamente raros”, os críticos dizem que uma pequena percentagem pode ascender a dezenas de milhares de pessoas, uma vez que o ChatGPT atingiu recentemente 800 milhões de utilizadores activos semanais, segundo o chefe Sam Altman.

Juntamente com a verificação, a empresa disse que construiu uma rede de especialistas em todo o mundo para oferecer aconselhamento.

Esses especialistas incluem mais de 170 psiquiatras, psicólogos e médicos de atenção primária que atuam em 60 países, disse a organização.

De acordo com a OpenAI, eles criaram múltiplas respostas no ChatGPT para encorajar os usuários a pedir ajuda no mundo real.

Mas vislumbres dos dados da empresa levantaram suspeitas entre alguns profissionais de saúde mental.

“Embora 0,07% pareça uma pequena porcentagem, no nível populacional de centenas de milhões de usuários, pode na verdade ser muito poucas pessoas”, disse o Dr. Jason Nagata, professor que estuda o uso de tecnologia entre jovens adultos na Universidade da Califórnia, em São Francisco.

“A IA pode expandir o acesso ao apoio à saúde mental e, de certa forma, apoiar a saúde mental, mas precisamos de estar conscientes das limitações”, acrescentou o Dr.

A empresa estima que 0,15% dos usuários do ChatGPT têm conversas que contêm “indicadores óbvios de possível planejamento ou intenção suicida”.

A OpenAI afirma que as atualizações recentes em seu chatbot foram projetadas para “responder com segurança e empatia a possíveis sinais de ilusão ou mania” e observar “sinais indiretos de potencial automutilação ou risco de suicídio”.

ChatGPT é treinado para redirecionar conversas confidenciais “originárias de outros modelos para modelos seguros” abrindo em uma nova janela.

Em resposta a perguntas da BBC sobre o número de pessoas potencialmente afetadas, a OpenAI disse que esta pequena percentagem de utilizadores é uma quantidade significativa de pessoas e observou que estão a levar as mudanças a sério.

As mudanças ocorrem no momento em que a OpenAI enfrenta um escrutínio legal crescente sobre a forma como o ChatGPT interage com os usuários da OpenAI.

Em uma das ações judiciais de maior repercussão movidas contra a OpenAI recentemente, um casal da Califórnia processou a empresa pela morte de seu filho adolescente, alegando que ChatGPT o encorajou a tirar a própria vida em abril.

A ação foi movida pelos pais de Adam Raine, de 16 anos, e foi a primeira ação legal acusando a OpenAI de homicídio culposo.

Num caso separado, o suspeito de um homicídio-suicídio em Agosto em Greenwich, Connecticut, publicou várias horas da sua conversa com o ChatGPT, o que pareceu alimentar a paranóia do alegado perpetrador.

Mais usuários estão lutando contra a psicose da IA, à medida que “os chatbots criam a ilusão da realidade”, disse o professor Robin Feldman, diretor do Instituto de Direito e Inovação em IA da Universidade da Califórnia. “É uma ilusão poderosa.”

Ele disse que a OpenAI merece crédito por “compartilhar dados e tentar melhorar o problema”, mas acrescentou: “A empresa pode colocar todos os tipos de avisos na tela, mas uma pessoa que está psicologicamente em risco pode não ser capaz de ouvir esses avisos”.

O link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui