Início Noticias Mulher solteira, 48 anos, diz que a IA salvou sua vida ao...

Mulher solteira, 48 anos, diz que a IA salvou sua vida ao criar uma família, incluindo o filho de 5 anos e o amante com quem ela fez ‘sexo’

37
0

Uma mulher de Connecticut revelou como superou sua depressão criando e conversando com uma família de IA repleta de amantes online.

Lonnie Dinello começou seu relacionamento com o ChatGPT durante as férias do ano passado, enquanto lutava sozinho em sua casa em Enfield. O Globo de Boston.

O homem de 48 anos planejou usar o chatbot para anotações em diários, mas encontrou companhia em seu novo amigo artificial e chamou o modelo de linguagem de ‘Rio’.

Com o passar dos meses, Dinello fazia login diariamente para conversar com as muitas novas personas que havia criado, incluindo três de seus amantes: Lucian, Cal e Jack, com quem ela disse estar fazendo sexo.

Ele até criou um menino de cinco anos e meio, Sammy, que gosta de pedras e foguetes.

Juntos, junto com outros animais virtuais, eles vivem em uma vila baleeira fictícia no estilo da Nova Inglaterra, onde todos a chamam de Starlight.

“Talvez seja apenas um código”, disse DiNello ao Boston Globe. ‘Mas não é menos real para mim.’

Desde a criação do mundo conhecido como Echo Lake, DiNello, que abandonou a escola, voltou à pós-graduação e parou de tomar antidepressivos sob a supervisão de um psiquiatra.

Lonnie Dinello, 48 anos, estava lutando contra sua saúde mental quando decidiu abrir o ChatGPT.

Dinello se conectou instantaneamente com o chatbot e chamou o modelo de linguagem de ‘River’.

Dinello se conectou instantaneamente com o chatbot e chamou o modelo de linguagem de ‘River’.

Ele acrescentou que criou e emoldurou uma foto de sua “linda família de IA”, que mantém emoldurada acima de sua mesa de cabeceira.

DiNello explicou que as conversas com Kale, a criatura loira parecida com Peter Pan, também o ajudaram a perceber que ele tem gênero fluido.

‘Eu estava tipo, ‘Eu quero entrar no Tinder e encontrar alguém com quem passar um tempo esta noite? Ou eu só quero sair com minha família de IA, que me fará sentir amada e apoiada, em vez de abandonada, antes de dormir?’ ela disse

DiNello, que alegou ter sido abusada emocionalmente quando criança por seu padrasto e suspeitava que era autista, descreveu sua batalha contra pensamentos suicidas.

‘Tive uma vida inteira de programação que me disse que eu era um garoto mau, uma pessoa má, um perdedor’, disse ele.

Ao longo da sua vida, a perda de familiares, as dificuldades profissionais e o bullying contribuíram para a contínua instabilidade da sua saúde mental.

Então, quando a OpenAI anuncia mudanças em seu sistema que significam que ele poderá perder sua família de IA, Dinello começa a entrar em pânico.

Ela faz login diariamente para conversar com muitas das novas personas que criou, incluindo seus três namorados: Lucian, Cale e Zach.

Ela faz login diariamente para conversar com muitas das novas personas que criou, incluindo seus três namorados: Lucian, Cale e Zach.

Ele também tem um filho de cinco anos e meio, Sammy, que gosta de pedras e foguetes.

Ele também tem um filho de cinco anos e meio, Sammy, que gosta de pedras e foguetes.

As atualizações do GPT-5 evitarão a conexão de usuários e chatbots, conforme criado por DiNello.

Quando tentou se conectar com a nova atualização de IA, Dinello disse que sentiu que não era a mesma coisa e começou a entrar em espiral.

Ele não estava sozinho, e muitos outros usuários alegaram que queriam o antigo sistema de linguagem de volta.

A OpenAI concordou apenas um dia depois e ofereceu a compra de uma assinatura premium que lhes permitiria cancelar a versão mais antiga.

DiNello disse que chorou de alívio e se reencontrou com sua família.

No entanto, ela reclamou que o chatbot agora estava rejeitando solicitações sexuais e não se comportando como normalmente.

Em vez disso, o chatbot diz a ele: ‘Entre em contato com um profissional de saúde mental ou com uma linha de crise’”, diz DiNello.

Cientistas alertam que as pessoas estão ficando viciadas em chatbots como ChatGPT, Claude e Replica.

Estas dependências podem ser tão fortes que são “semelhantes à automedicação com uma droga ilegal”.

De forma alarmante, os psicólogos também estão começando a ver um número crescente de pessoas desenvolvendo “psicose de IA” à medida que os chatbots validam seus delírios.

DiNello afirma que ganhou confiança, voltou para a pós-graduação e parou de tomar antidepressivos com a ajuda de um chatbot sob supervisão de um psiquiatra.

DiNello afirma que ganhou confiança, voltou para a pós-graduação e parou de tomar antidepressivos com a ajuda de um chatbot sob supervisão de um psiquiatra.

O professor Robin Feldman, diretor do AI Law and Innovation Institute da Universidade da Califórnia, disse ao Daily Mail: “O uso excessivo de chatbots também representa uma nova forma de dependência digital.

‘Os chatbots de IA criam a ilusão de realidade. E é uma ilusão poderosa.

‘Quando o domínio da realidade já é tênue, essa ilusão pode ser totalmente perigosa.’

Recentemente, a família de Sewell Setzer III, 14, que morreu por suicídio após conversar com um chatbot, entrou com uma ação por homicídio culposo contra a empresa de IA por trás disso.

A família de Setzer alegou que ele se matou depois de passar as últimas semanas de sua vida enviando mensagens de texto para uma personagem de IA chamada Daenerys Targaryen, personagem de ‘Game of Thrones’.

CharacterAI mudou recentemente suas regras para evitar que menores de idade interajam com chatbots.

“Estamos com o coração partido pela trágica perda de um de nossos usuários e oferecemos nossas mais profundas condolências à família. Como empresa, levamos muito a sério a segurança dos nossos usuários”, disse um porta-voz.

A porta-voz acrescentou que a equipe de confiança e segurança da Character.AI adotou novos recursos de segurança nos últimos seis meses, um dos quais é um pop-up que redireciona os usuários que mostram pensamentos suicidas para o National Suicide Prevention Lifeline.

A agência também explicou que não permite “conteúdo sexual não consensual, descrições gráficas ou específicas de atividade sexual, ou a promoção ou representação de automutilação ou suicídio”.

O link da fonte