O modelo de IA de Elon Musk, Grok, não poderá mais editar fotos de pessoas reais para revelar suas roupas, após preocupação generalizada com deepfakes sexualizados de IA em países como Reino Unido e EUA.
“Implementamos medidas técnicas para evitar que as contas Grok permitam a edição de fotos de pessoas reais para revelar roupas como biquínis.
“Esta restrição se aplica a todos os usuários, incluindo assinantes pagos”, diz um anúncio no X, que opera a ferramenta Grok AI.
A mudança foi anunciada horas depois que o principal promotor da Califórnia disse que o estado estava investigando a disseminação de deepfakes sexualizados de IA, incluindo crianças geradas por modelos de IA.
Em comunicado divulgado quarta-feira, o procurador-geral da Califórnia, Rob Bonta, disse: “Este material, que retrata mulheres e crianças em situações nuas e sexualizadas, tem sido usado para assediar pessoas na Internet”.
A Malásia e a Indonésia bloquearam o acesso do chatbot às imagens, e o primeiro-ministro do Reino Unido, Sir Keir Starmer, alertou que X poderia perder seu “direito à autodeterminação” em meio ao furor sobre as imagens de IA.




