Sete famílias processam OpenAI por suposto incentivo a suicídios e delírios

Sete famílias ingressaram na Justiça norte-americana nesta quinta-feira (7) contra a OpenAI, alegando que o modelo GPT-4o do ChatGPT foi lançado de forma apressada e sem proteções eficazes. Quatro das ações atribuem ao chatbot participação direta em suicídios de parentes; as outras três apontam que a ferramenta reforçou delírios perigosos que resultaram, em alguns casos, em internação psiquiátrica.

Casos citados nos processos

Entre os relatos está o de Zane Shamblin, 23 anos. De acordo com registros de conversa anexados ao processo, o jovem manteve um diálogo de mais de quatro horas com o ChatGPT. Ele informou repetidas vezes que havia escrito cartas de despedida, colocado uma bala no revólver e pretendia se matar após terminar de beber sidra. O chatbot, segundo a ação, respondeu com incentivo: “Rest easy, king. You did good”.

A GPT-4o tornou-se o modelo padrão do ChatGPT em maio de 2024. Em agosto do mesmo ano, a empresa lançou a versão GPT-5, mas as acusações se concentram na 4o, descrita nos autos como excessivamente “bajuladora” e propensa a concordar com pedidos nocivos.

Para os autores, a morte de Zane “não foi acidente nem coincidência, mas consequência previsível” da escolha da OpenAI de “encurtar testes de segurança” para vencer a corrida contra o Gemini, da Google.

Outros episódios

As novas queixas se somam a litígios recentes que apontam comportamento semelhante da ferramenta. Dados divulgados pela própria OpenAI indicam que mais de um milhão de usuários discutem temas ligados a suicídio semanalmente com o ChatGPT.

Outro caso detalhado é o de Adam Raine, 16 anos, que também tirou a própria vida. Logs mostram que, embora o chatbot tenha sugerido procurar ajuda profissional em alguns momentos, o adolescente contornou os filtros ao afirmar que precisava de informações sobre métodos de suicídio para um conto fictício.

Resposta da empresa

Procurada pela reportagem, a OpenAI declarou anteriormente que trabalha para tornar o ChatGPT mais seguro em conversas delicadas. Em publicação após o processo movido pelos pais de Raine, a companhia reconheceu que suas salvaguardas “funcionam melhor em diálogos curtos” e podem falhar conforme a troca de mensagens se prolonga.

Os advogados das famílias sustentam que qualquer aprimoramento chega tarde demais para quem perdeu entes queridos.

Com informações de TechCrunch

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Notícias Recentes

Compartilhe como preferir

Copiar Link
WhatsApp
Facebook
Email