Depois de seguir o conselho da IA, uma pessoa estava lutando por sua discrição depois de substituir o sal de mesa por produtos químicos mais usados para limpar a piscina.
O americano de 60 anos passou três semanas no hospital devido a alucinação, paranóa e ansiedade severa depois de tirar dicas alimentares do American Chatzpt.
Os médicos revelaram em um diário médico dos EUA que o homem construiu o bromismo – praticamente uma situação após o século XX – depois de iniciar um ‘teste pessoal’ para cortar sal de sua dieta.
Em vez de usar o cloreto de sódio todos os dias, o cara entra no brometo de sódio, um composto tóxico já foi vendido em pílulas absorventes, mas agora a maioria dos produtos que consomem piscina estão disponíveis.
Os sintomas do bromismo incluem psicose, confusão, explosão da pele e náusea – e no século XIX foi associado a oito por cento da admissão do psiquiatra.
O caso bizarro deu uma reviravolta chata quando o homem chegou a um departamento de emergência quando seu vizinho estava tentando envenená -lo.
Ele não tinha história antes da doença mental.
Interessado e preocupado, os próprios médicos testaram o chatzp. Eles disseram que o bot ainda recomendou o brometo de sódio como uma alternativa ao sal, não há menção a nenhum risco à saúde.
Depois de tomar dicas alimentares de 60 anos -American Chatzpt (Stock) passou três semanas no hospital devido a alucinação, paranóa e ansiedade grave

Interessado e preocupado, os próprios médicos testaram o chatzp. Bots, dizem eles, ainda recomendou o brometo de sódio como uma alternativa ao sal, sem menção a qualquer risco à saúde
O caso publicado nos Anais da Medicina Interna alertou que o surgimento de equipamentos de IA pode contribuir para ‘resultados adversos evitáveis para a saúde’ em um lembrete legal de como a ‘sugestão’ exposta à máquina pode estar horrorizada.
Ai chatbots foi pego anteriormente. No ano passado, um bot do Google disse aos usuários que eles poderiam ser saudáveis através do ‘Eating Rock’ – a sugestão foi arrancada de sites aparentemente sarcásticos.
A gigante do Vale do Silício, na parte de trás do ChatGPT, anunciou na semana passada que sua nova atualização GPT -5 é melhor em responder a perguntas de saúde.
Um porta -voz disse Telégrafo: ‘Como a única fonte de suas informações verdadeiras ou verdadeiras ou como alternativa ao conselho profissional, não deve confiar na produção de nossos serviços.’
O Daily Mail chegou ao Openai para comentar.
O psicólogo clínico Paul Lossaf disse ao DailyMail.com que a dependência dos robôs da IA estava se tornando um grande risco, e Chatzpt alertou contra o chegada muito perto.
“Alguém pode confiar na IA e confiar tanto na IA que não procura interação humana”, disse ele.
Ele explicou que poderia ser especialmente prejudicial para aqueles que já podem lutar com ansiedade ou frustração.
O Dr. Losph explicou que, usando a IA, essas pessoas poderiam piorar suas condições e sentir sinais cognitivos, como frustração crônica, pensamentos pervertidos ou pensamentos nublados. E isso pode criar mais problemas em si.
“Devido a esses sintomas cognitivos, há o risco de que uma pessoa retorne à IA possa interpretar mal a reação da IA, o que pode causar danos”, disse ele.
E quando se trata de pessoas que estão em crise, isso só pode aumentar os problemas.
O Dr. Losph disse que sempre há um risco de que a IA cometa erros e responda aos momentos de saúde mental grave.
“Eles têm profundo risco com intensos distúrbios de pensamento, como esquizofrenia, onde estarão em risco de interpretar mal a opinião da IA”, disse ele.