A OpenAI divulgou novas estimativas do número de usuários do ChatGPT que apresentam sintomas potenciais de uma emergência de saúde mental, incluindo mania, psicose ou pensamentos suicidas.
A empresa disse que cerca de 0,07% dos usuários ativos do ChatGPT exibiram tais sintomas em uma determinada semana, acrescentando que seu chatbot de inteligência artificial (IA) reconhece e responde a essas conversas confidenciais.
Embora a OpenAI afirme que estes casos são “extremamente raros”, os críticos dizem que uma pequena percentagem pode ascender a dezenas de milhares de pessoas, uma vez que o ChatGPT atingiu recentemente 800 milhões de utilizadores activos semanais, segundo o chefe Sam Altman.
Juntamente com a verificação, a empresa disse que construiu uma rede de especialistas em todo o mundo para oferecer aconselhamento.
Esses especialistas incluem mais de 170 psiquiatras, psicólogos e médicos de atenção primária que atuam em 60 países, disse a organização.
De acordo com a OpenAI, eles criaram múltiplas respostas no ChatGPT para encorajar os usuários a pedir ajuda no mundo real.
Mas vislumbres dos dados da empresa levantaram suspeitas entre alguns profissionais de saúde mental.
“Embora 0,07% pareça uma pequena porcentagem, no nível populacional de centenas de milhões de usuários, pode na verdade ser muito poucas pessoas”, disse o Dr. Jason Nagata, professor que estuda o uso de tecnologia entre jovens adultos na Universidade da Califórnia, em São Francisco.
“A IA pode expandir o acesso ao apoio à saúde mental e, de certa forma, apoiar a saúde mental, mas precisamos de estar conscientes das limitações”, acrescentou o Dr.
A empresa estima que 0,15% dos usuários do ChatGPT têm conversas que contêm “indicadores óbvios de possível planejamento ou intenção suicida”.
A OpenAI afirma que as atualizações recentes em seu chatbot foram projetadas para “responder com segurança e empatia a possíveis sinais de ilusão ou mania” e observar “sinais indiretos de potencial automutilação ou risco de suicídio”.
ChatGPT é treinado para redirecionar conversas confidenciais “originárias de outros modelos para modelos seguros” abrindo em uma nova janela.
Em resposta a perguntas da BBC sobre o número de pessoas potencialmente afetadas, a OpenAI disse que esta pequena percentagem de utilizadores é uma quantidade significativa de pessoas e observou que estão a levar as mudanças a sério.
As mudanças ocorrem no momento em que a OpenAI enfrenta um escrutínio legal crescente sobre a forma como o ChatGPT interage com os usuários da OpenAI.
Em uma das ações judiciais de maior repercussão movidas contra a OpenAI recentemente, um casal da Califórnia processou a empresa pela morte de seu filho adolescente, alegando que ChatGPT o encorajou a tirar a própria vida em abril.
A ação foi movida pelos pais de Adam Raine, de 16 anos, e foi a primeira ação legal acusando a OpenAI de homicídio culposo.
Num caso separado, o suspeito de um homicídio-suicídio em Agosto em Greenwich, Connecticut, publicou várias horas da sua conversa com o ChatGPT, o que pareceu alimentar a paranóia do alegado perpetrador.
Mais usuários estão lutando contra a psicose da IA, à medida que “os chatbots criam a ilusão da realidade”, disse o professor Robin Feldman, diretor do Instituto de Direito e Inovação em IA da Universidade da Califórnia. “É uma ilusão poderosa.”
Ele disse que a OpenAI merece crédito por “compartilhar dados e tentar melhorar o problema”, mas acrescentou: “A empresa pode colocar todos os tipos de avisos na tela, mas uma pessoa que está psicologicamente em risco pode não ser capaz de ouvir esses avisos”.




