La psicologia in tasca grazie a chatGPT. Non siamo ancora pronti

Molti si ricordano il film “The imitation game” dove un giovane Alan Turing impegnato nel decifrare il codice Enigma gettava le basi teoriche dell’intelligenza artificiale. In particolare Turing era convinto che un calcolatore potesse simulare perfettamente il funzionamento del nostro cervello tanto da poter ingannare un uomo e fargli credere che lui stesso non fosse una macchina ma un essere pensante. Il famigerato Test di Turing mira a questo; misura la capacità di una macchina di esibire un comportamento intelligente equivalente o indistinguibile da quello di un essere umano. Turing ha proposto che un valutatore umano giudichi le conversazioni tra un essere umano e una macchina progettata per generare risposte simili a quelle umane. Tutti i partecipanti sono separati uno dall’altro, non si possono vedere e il valutatore (qui la cosa si fa interessante) sa che uno dei due interlocutori è una macchina. La conversazione avviene tramite una tastiera ed un monitor o se preferite immaginatevi dei messaggi che vi arrivano sul vostro cellulare. Se il valutatore non è in grado di distinguere se il messaggio che legge è opera di un uomo o della macchina, si direbbe che la macchina ha superato il test, che si sta comportando come ci attendiamo da un reale essere umano.

Ma anche se fossimo consapevoli che dietro certe risposte c’è una intelligenza artificiale, quanto saremmo disposti a darle credito? Dal 2015, Koko, un’app mobile per la salute mentale, ha cercato di fornire supporto alle persone bisognose. Invia un messaggio all’app per dire che ti senti in colpa per un problema di lavoro e in pochi minuti arriverà una risposta empatica – forse goffa, ma inconfondibilmente umana – per suggerire alcune strategie di coping positive. Ma lo scorso ottobre, ad alcuni utenti dell’app Koko è stata data la possibilità di ricevere suggerimenti molto più completi del solito. Quello che all’epoca non sapevano era che le risposte erano state scritte da chatGPT, il potente strumento di intelligenza artificiale in grado di elaborare e produrre testo naturale, grazie a un enorme set di addestramento di parole scritte.

Le persone hanno cercato di automatizzare la terapia della salute mentale per 70 anni e i chatbot in una forma o nell’altra hanno fatto parte di quella ricerca per circa 60. Riconoscendo il divario tra popolazione e richiesta di supporto, gli sviluppatori di app per smartphone hanno creato migliaia di programmi che offrono una parvenza di terapia che può stare in tasca ma per molte di queste app, le prove a sostegno del loro utilizzo sono piuttosto scarse e l’incorporazione di modelli linguistici di grandi dimensioni come ChatGPT rappresenta un nuovo passo che molti trovano preoccupante. Alcuni sono preoccupati per le crescenti minacce alla privacy e alla trasparenza, o per l’appiattimento delle strategie terapeutiche a quelle che possono essere facilmente digitalizzate. E ci sono preoccupazioni per la sicurezza e la responsabilità legale; pensate a qualcuno che commette un atto estremo dopo aver condiviso per settimane le sue ansie con un chatbot di intelligenza artificiale…

Chat GPT o Koko sono ben lungi dall’essere la prima piattaforma a implementare l’IA in un contesto di salute mentale. Da tempo l’intelligenza artificiale è stata implementata per analizzare gli interventi terapeutici e per perfezionarli in corso d’opera. Inoltre l’IA è stata utilizzata anche nella diagnosi. Numerose piattaforme, come il programma REACH VET per i veterani militari statunitensi, scansionano le cartelle cliniche di una persona alla ricerca di segnali d’allarme che potrebbero indicare problemi come autolesionismo o ideazione suicidaria. L’ultimo ruolo è però ciò che ha spaventato le persone dell’esperimento Koko: l’idea di un terapista completamente digitale che utilizza l’intelligenza artificiale per dirigere il trattamento. E’ bene infatti sapere che allo stato attuale queste app sono probabilmente alimentate dal recupero di informazione con le quali vengono più frequentemente in contatto (come se una bugia ripetuta mille volte alla fine si tramutasse in verità). Essenzialmente mentre “dialoghiamo” con loro le app navigano entro un flusso di informazioni da cui pescano dei marcatori per dirigere la conversazione verso una serie di risposte stabilite.

Man mano che l’apprendimento automatico diventa la base di più piattaforme per la salute mentale, i progettisti richiederanno set di dati sensibili sempre più grandi per addestrare le loro IA. Non solo, anche con le app che attingono a trattamenti basati sull’evidenza, si teme che ci dirigeranno sempre di più verso le chat come chatGPT. Il problema è potenzialmente gigantesco perchè, molto semplicemente, gli individui dovrebbero ricevere la diagnosi e il trattamento più accurati ed efficaci ma l’automazione, le chat, arrivano con un enorme compromesso alle spalle: bilanciare l’approccio migliore con quello più facile da programmare.

Nonostante tutti i potenziali benefici che l’IA potrebbe offrire in termini di accesso agli strumenti per la salute mentale, la sua applicazione alla terapia è ancora nascente, piena di paludi etiche. E dietro c’è sempre l’uomo.