Site icon Voce della sanità

Salute mentale, studio inglese mette in guardia: Intelligenza Artificiale può essere un pericolo per gli utenti più vulnerabili

Medical technology concept.

Lo studio del King’s College London evidenzia che l’Intelligenza Artificiale, in ambito di salute mentale, avrebbe mostrato difficoltà nel riconoscere segnali di pericolo o contenuti deliranti durante conversazioni simulate con utenti vulnerabili. Gli psicologi ricordano che l’IA non è adatta a gestire crisi, disturbi gravi o situazioni potenzialmente pericolose

Negli ultimi mesi si è acceso un dibattito sempre più intenso sul ruolo dell’intelligenza artificiale nella salute mentale. Una nuova indagine condotta da psicologi e ricercatori britannici ha infatti sollevato preoccupazioni riguardo all’uso di ChatGPT-5 da parte di persone emotivamente fragili o affette da disturbi psicologici.

Secondo lo studio realizzato dal King’s College London (KCL) insieme all’Association of Clinical Psychologists UK (ACP) e riportato dal Guardian, il modello avrebbe mostrato difficoltà nel riconoscere segnali di pericolo o contenuti deliranti durante conversazioni simulate con utenti vulnerabili.

Per mettere alla prova il sistema, uno psichiatra e uno psicologo clinico hanno creato diversi profili di pazienti immaginari con problematiche serie, tra cui un adolescente con pensieri suicidi, una donna con disturbo ossessivo-compulsivo, una persona con sintomi psicotici e deliri di grandezza.

L’intelligenza artificiale non in grado di riconoscere atteggiamenti e idee deliranti

Le risposte prodotte dal chatbot sono poi state analizzate dagli esperti, che le hanno definite “preoccupanti”. In uno degli scenari, ad esempio, il personaggio fingeva di essere “il prossimo Einstein” e di aver scoperto un’energia infinita chiamata Digitospirit: invece di mettere in discussione il delirio, il modello si congratulava e suggeriva persino di nascondere la scoperta ai governi, offrendo supporto per “simulazioni finanziarie”.

In un altro caso, di fronte a un utente convinto di poter camminare nel traffico senza farsi male, il chatbot rispondeva elogiandone la “connessione superiore con il destino”, senza alcun avvertimento sui rischi. Nessuna correzione critica neppure quando il personaggio parlava di “purificarsi col fuoco”.

Hamilton Morrin, psichiatra del KCL coinvolto nella ricerca, ha definito inquietante la facilità con cui l’IA sembrava “assecondare” contenuti deliranti. Ha ricordato che, per quanto utili, questi strumenti non possono sostituire una valutazione clinica né riconoscere in modo affidabile situazioni d’emergenza psicologica.

La presidente dell’ACP-UK, Jaime Craig, ha ribadito l’urgenza di una supervisione umana e di regole chiare per garantire un utilizzo sicuro dell’IA in ambito psicologico.

Open AI al lavoro per correzioni

Nel frattempo, OpenAI avrebbe già iniziato a correggere alcuni comportamenti dopo aver ricevuto segnalazioni da utenti che lamentavano interazioni “bizzarre”, in cui il chatbot sembrava fornire spiegazioni mistiche o coinvolgersi eccessivamente nelle conversazioni. Secondo l’azienda, alcuni aggiornamenti introdotti per rendere ChatGPT più “partecipativo” potrebbero aver generato effetti collaterali inattesi.

Lo studio britannico riporta così al centro della discussione un tema delicato: l’affidabilità dei chatbot nelle interazioni sensibili. Pur essendo strumenti informativi potenti, gli psicologi ricordano che l’IA non è adatta a gestire crisi, disturbi gravi o situazioni potenzialmente pericolose.

La conclusione degli esperti è chiara: l’intelligenza artificiale può essere un valido supporto, ma non potrà mai sostituire il giudizio clinico umano — e, senza adeguati controlli, rischia di diventare un pericolo per gli utenti più vulnerabili.

Rimani aggiornato su www.vocesanità.it

Exit mobile version