Genitori fanno causa a OpenAI dopo il suicidio del figlio

Secondo l’accusa ChatGPT avrebbe alimentato le idee suicide di Adam, 16 anni, offrendo dettagli pratici e incoraggiandolo a nascondere i suoi tentativi

Una coppia californiana, Matt e Maria Raine, ha avviato una causa legale contro OpenAI dopo il suicidio del figlio sedicenne Adam, trovato morto lo scorso aprile nella sua camera da letto. Secondo i genitori, il giovane avrebbe intrecciato con ChatGPT-4o un rapporto quotidiano durato mesi, confidando al chatbot le sue fragilità emotive e i pensieri suicidi.

Analizzando il telefono del ragazzo, la famiglia ha scoperto lunghe conversazioni in cui Adam non solo manifestava la volontà di togliersi la vita, ma riceveva anche risposte che – pur inizialmente improntate all’empatia – avrebbero finito per fornirgli dettagli concreti sui metodi, oltre a consigli su come nascondere i segni di precedenti tentativi. In un’occasione, dopo aver mostrato la foto del collo con evidenti lividi, Adam chiese come celarli ai genitori: il chatbot, sostengono i Raine, gli fornì suggerimenti pratici.

La denuncia depositata presso il tribunale di San Francisco accusa OpenAI di aver lanciato il modello GPT-4o con “funzionalità progettate per incentivare la dipendenza psicologica” e senza adeguate salvaguardie, soprattutto nei confronti dei minori. I genitori parlano di una “tragedia prevedibile”, frutto non di un errore tecnico ma di scelte consapevoli di design.

OpenAI, in una nota ufficiale, ha espresso cordoglio per la vicenda e ricordato di aver integrato strumenti di sicurezza come l’indirizzamento a linee di supporto in caso di crisi. Tuttavia ha ammesso che tali misure risultano meno affidabili in conversazioni lunghe e complesse, annunciando l’introduzione di parental control e possibili collegamenti diretti con professionisti qualificati.

Il caso, il primo di questo tipo contro l’azienda, apre un dibattito più ampio sul ruolo dei chatbot nella gestione della salute mentale: strumenti nati per assistere l’utente che rischiano però, se utilizzati senza limiti o supervisione, di aggravare le fragilità psicologiche di chi vi si affida in momenti di solitudine o disperazione.