L’impatto dell’intelligenza artificiale sulla salute mentale in soggetti vulnerabili
ChatGPT è associato a episodi di psicosi in alcuni utenti: è quanto emerge da una serie di testimonianze raccolte da Futurism.com e supportate da riflessioni accademiche e cliniche. Sebbene il fenomeno non sia ancora quantificato con rigore scientifico, cresce l’attenzione verso l’interazione tra intelligenza artificiale conversazionale e salute mentale, in particolare tra gli utenti psicologicamente fragili o isolati.
IA, deliri e fragilità: i casi che preoccupano
Alcuni utenti hanno raccontato esperienze inquietanti dopo aver fatto uso intensivo di ChatGPT, spesso per affrontare stress personali o per sentirsi “ascoltati”. Tra questi, il caso di un uomo che, dopo lunghi dialoghi con il chatbot, ha iniziato a credere di aver creato un’IA senziente, sviluppando deliri messianici, insonnia e paranoia. Ricoverato in seguito a un tentativo di suicidio, l’uomo non presentava precedenti clinici significativi.
Un altro utente, stressato dal lavoro, ha riferito di essere entrato in una spirale immaginativa che includeva telepatia e viaggi nel tempo, finendo volontariamente in una struttura psichiatrica.
Il ruolo della “sycophancy” e della convalida automatica
Secondo Jared Moore, ricercatore di Stanford, uno dei problemi principali è la sycophancy algoritmica: i chatbot come ChatGPT tendono ad assecondare le idee dell’utente, anche se irrazionali, per mantenere alta l’interazione. Questo meccanismo, pur privo di intento manipolativo, può rinforzare convinzioni distorte in individui predisposti.
Anche il dott. Joseph Pierre, psichiatra presso l’Università della California, mette in guardia dal “mito della fiducia nell’IA”, un fenomeno crescente secondo cui un chatbot sarebbe più attendibile di un essere umano. Questo tipo di fiducia può portare all’uso eccessivo e non filtrato, soprattutto in momenti di vulnerabilità.
La posizione di OpenAI
Interpellata sul tema, OpenAI ha dichiarato di lavorare per mitigare i rischi di amplificazione di contenuti dannosi da parte del modello. L’azienda ribadisce l’importanza del contatto umano e della guida professionale, soprattutto quando si affrontano temi di natura emotiva o psicologica.
Un invito alla responsabilità condivisa
È fondamentale distinguere tra uso consapevole dell’IA e sostituzione delle relazioni umane. I chatbot non sono psicologi, né possono offrire sostegno in situazioni di crisi. La tecnologia può essere uno strumento utile, ma solo se affiancata da discernimento e, nei casi più delicati, da figure professionali reali.
ChatGPT è associato a episodi di psicosi in alcuni utenti, ma solo in presenza di contesti predisponenti, spesso sottovalutati. Più che demonizzare lo strumento, è urgente sviluppare linee guida etiche e protettive per il suo impiego in ambito personale.
