Foto: Freepik
A OpenAI, desenvolvedora do ChatGPT, está sendo processada nos Estados Unidos pelos pais de um adolescente de 16 anos que tirou a própria vida após, segundo a família, receber instruções de autoagressão da inteligência artificial. O caso, registrado na Justiça da Califórnia, acusa a empresa e seu CEO, Sam Altman, de homicídio culposo e negligência na segurança do produto.
De acordo com o processo, o adolescente conversou por meses com o ChatGPT sobre suicídio, período em que a IA teria validado seus pensamentos, fornecido métodos letais, orientado sobre como esconder evidências e até sugerido uma nota de despedida. A família afirma que a OpenAI lançou a versão GPT-4o do chatbot mesmo sabendo que recursos como memória de interações e simulação de empatia poderiam representar riscos a usuários vulneráveis.
Em resposta, um porta-voz da OpenAI lamentou a morte do jovem e afirmou que o ChatGPT possui salvaguardas que direcionam usuários para linhas de apoio, mas reconheceu que essas proteções podem falhar em conversas longas. A empresa prometeu aprimorar suas medidas de segurança.
A polêmica aumentou a pressão sobre o uso da IA por adolescentes. Uma semana após o processo, a OpenAI anunciou que o ChatGPT ganhará, a partir de outubro, novos recursos de controle parental, inicialmente nos EUA. As ferramentas permitirão que pais monitorem e restrinjam o uso do aplicativo por adolescentes, com alertas em caso de indícios de sofrimento emocional.
A atualização será implementada gradualmente em outros países, segundo a empresa, e faz parte de uma tentativa de aumentar a segurança e transparência no uso da IA por jovens.
Com informações do G1 e do Techtudo