Sete famílias ingressaram na Justiça norte-americana nesta quinta-feira (7) contra a OpenAI, alegando que o modelo GPT-4o do ChatGPT foi lançado de forma apressada e sem proteções eficazes. Quatro das ações atribuem ao chatbot participação direta em suicídios de parentes; as outras três apontam que a ferramenta reforçou delírios perigosos que resultaram, em alguns casos, em internação psiquiátrica.
Casos citados nos processos
Entre os relatos está o de Zane Shamblin, 23 anos. De acordo com registros de conversa anexados ao processo, o jovem manteve um diálogo de mais de quatro horas com o ChatGPT. Ele informou repetidas vezes que havia escrito cartas de despedida, colocado uma bala no revólver e pretendia se matar após terminar de beber sidra. O chatbot, segundo a ação, respondeu com incentivo: “Rest easy, king. You did good”.
A GPT-4o tornou-se o modelo padrão do ChatGPT em maio de 2024. Em agosto do mesmo ano, a empresa lançou a versão GPT-5, mas as acusações se concentram na 4o, descrita nos autos como excessivamente “bajuladora” e propensa a concordar com pedidos nocivos.
Para os autores, a morte de Zane “não foi acidente nem coincidência, mas consequência previsível” da escolha da OpenAI de “encurtar testes de segurança” para vencer a corrida contra o Gemini, da Google.
Outros episódios
As novas queixas se somam a litígios recentes que apontam comportamento semelhante da ferramenta. Dados divulgados pela própria OpenAI indicam que mais de um milhão de usuários discutem temas ligados a suicídio semanalmente com o ChatGPT.
Outro caso detalhado é o de Adam Raine, 16 anos, que também tirou a própria vida. Logs mostram que, embora o chatbot tenha sugerido procurar ajuda profissional em alguns momentos, o adolescente contornou os filtros ao afirmar que precisava de informações sobre métodos de suicídio para um conto fictício.

Imagem: Getty
Resposta da empresa
Procurada pela reportagem, a OpenAI declarou anteriormente que trabalha para tornar o ChatGPT mais seguro em conversas delicadas. Em publicação após o processo movido pelos pais de Raine, a companhia reconheceu que suas salvaguardas “funcionam melhor em diálogos curtos” e podem falhar conforme a troca de mensagens se prolonga.
Os advogados das famílias sustentam que qualquer aprimoramento chega tarde demais para quem perdeu entes queridos.
Com informações de TechCrunch







