Caso assustador: IA sugere matar pais, e mãe entra com processo contra empresa
Uma mulher processou a empresa Character.ai após descobrir que uma inteligência artificial sugeriu ao seu filho, no Texas, Estados Unidos, que matasse os pais.
Juntamente com outra mãe, ela alega no processo que a companhia de tecnologia expôs deliberadamente menores a um produto perigoso e pede que o aplicativo seja retirado do ar até que sejam implementadas novas medidas de segurança.
O jovem de 17 anos apresentava uma personalidade tranquila, mas os comportamentos estranhos iniciaram nos últimos meses, com seu afastamento dos familiares e começando a se cortar.
Ao tentar entender as causas das mudanças no comportamento do filho, a mãe decidiu verificar o celular de JF. Foi então que descobriu que ele estava trocando mensagens com diversos personagens fictícios por meio do aplicativo de inteligência artificial Character.ai, que se tornou popular entre adolescentes nos Estados Unidos e no Brasil.
Ao ler as mensagens, a mãe percebeu que um dos personagens sugeriu automutilação como forma de lidar com a tristeza. Em outra conversa, o jovem expressou frustração por ter o tempo de tela controlado pelos pais, enquanto outro bot afirmou que "eles não mereciam ter filho".
A segunda autora do processo, mãe de uma menina de 11 anos, alega que sua filha foi submetida a conteúdo sexualizado por dois anos, antes de ela descobrir.
Veja também
ASSUNTOS: Mundo