Oltre l'uomo

Intelligenza artificiale, nuove tecnologie, attualità e riflessioni filosofiche.

Poco più di tre anni: a pensarci adesso, sembra essere passato molto più tempo da quando OpenAI ha introdotto il suo nuovissimo chatbot, ChatGPT. In soli tre anni l’intelligenza artificiale è passata da un argomento un po’ esoterico, riservato agli esperti e agli scrittori di fantascienza, ad un tema di dibattito così comune che è difficile non imbattersene ad ogni passo. Non sorprenderà quindi sapere come il termine “IA” compaia molto spesso sui titoli dei giornali: IA e etica, leggi sull’IA, i pericoli dell’IA, opinioni sull’IA… le opzioni sono tante. Alcune di esse riescono però ad attirare l’attenzione in modo particolare, facendo leva sul fascino che proviamo per il macabro, la cronaca nera, gli eventi strani e surreali: storie di persone incoraggiate al suicidio dall’intelligenza artificiale, di giovani che confessano i propri segreti più profondi al computer e di gente finita in ospedale dopo aver chiesto consigli medici al computer. Il genere di notizia che vende insomma. Oltre ad attirare l’attenzione del pubblico, questi racconti hanno però un altro effetto: essi evidenziano infatti come, nel corso di questi tre anni, i chatbot abbiano iniziato ad assumere ruoli del tutto nuovi nella nostra società. Non più soltanto uno strumento capace di dialogare con noi, ChatGPT e i suoi simili sono ormai diventati oracoli, esperti di medicina, confidenti ed altro ancora.

Si tratta di un cambiamento sostanziale, che merita di essere discusso in maniera più attenta e approfondita proprio in quanto rappresenta uno sviluppo fondamentale nel modo in cui ci rapportiamo con l’IA, come anche una fonte di nuovi rischi e problematiche da gestire. Vediamo quindi di cercare di fornire un quadro un po’ più completo della situazione.

“Fidati di me, sono un esperto!”

“Non fidarti di tutto quello che trovi su internet”. Questa semplice frase è ormai da lungo tempo diventata parte del buon senso comune, e nell’era dell’intelligenza artificiale è più valida che mai. Molte persone fanno infatti uso di questi sistemi per raccogliere informazioni, cercare risposte alle proprie domande e richiedere approfondimenti e spiegazioni, senza però conoscerne minimamente le limitazioni, con risultati a volte anche gravi. Per fare un esempio concreto, nell’Agosto del 2025 un sessantenne americano è stato ammesso in ospedale dopo aver chiesto consigli dietetici a ChatGPT: il programma gli aveva suggerito di rimpiazzare il sale con il bromuro di sodio, senza però menzionare come quest’ultimo sia tossico per gli umani se assunto per periodi di tempo prolungati.

Ovviamente questo è un caso estremo, ma evidenzia molto bene il rischio che l’IA generi informazioni incomplete, errate, o addirittura completamente false. Tali errori sono conosciuti come “allucinazioni” e, per quanto non comunissimi, non sono neanche rari: trovare dati precisi non è facile, ma in generale anche i modelli più affidabili si sbagliano tra l’1 e il 5% delle volte, mentre altri possono arrivare persino al 30% o più di risposte incorrette. In sostanza, ciò vuol dire che le affermazioni dell’intelligenza artificiale dovrebbero essere prese “cum grano salis”, così da evitare figuracce (o peggio). Detto questo, penso che sia necessario ripetere che le allucinazioni costituiscono solo una piccola percentuale delle risposte ottenute dagli utenti: una cifra sufficientemente elevata da essere statisticamente significativa, ma non così alta da mettere in dubbio ogni singola cosa che ci viene detta da un LLM. In particolare, domande su temi ben conosciuti e documentati tendono a ricevere risposte corrette nella maggior parte dei casi, mentre domande su argomenti di nicchia possono causare una maggiore quantità di allucinazioni.

Ma da cosa derivano tali errori? In fondo, lo stesso termine “intelligenza artificiale” evoca l’immagine di un sistema capace e competente, e non quella di un programma capace di andare incontro a malfunzionamenti così gravi. La verità è però ben lontana dall’impressione che il pubblico spesso ha dell’IA: in effetti, chiamarla “intelligenza” è piuttosto ironico, considerato che al momento essa ha ben poco di intelligente. I sistemi di intelligenza artificiale sono infatti stati descritti come dotati di “agency without intelligence”, ossia capaci di raggiungere obiettivi anche complessi senza però possedere delle vere abilità cognitive come quelle umane. Un esempio concreto di questa strana combinazione ci viene offerta proprio dalle allucinazioni, o, più esattamente, dal modo in cui esse vengono generate. Come sa chiunque abbia mai utilizzato ChatGPT, i modelli linguistici sono perfettamente in grado non solo di produrre frasi grammaticalmente e sintatticamente corrette, ma anche di rispondere alle nostre domande, riassumere e correggere testi scritti e via dicendo: questa è “l’agency” di cui sopra. Tuttavia, queste capacità non dipendono da una profonda comprensione del linguaggio, come accadrebbe nell’uomo, ma dal semplice calcolo delle probabilità: l’IA non capisce veramente il senso di quello che sta dicendo, limitandosi invece a determinare quale sia la sequenza di parole più probabile in base al contesto. In sostanza, quando un LLM produce un’allucinazione non è perché sta malfunzionando (anzi, sta operando esattamente come previsto), ma perché la risposta più statisticamente probabile non era quella corretta, il che è anche il motivo per cui esse vengono proposte con così tanta sicurezza: il sistema non si rende nemmeno conto di essersi inventato tutto.

Detto questo, il metodo probabilistico con cui il programma selezione le parole da utilizzare non è l’unico elemento che può portare a risultati assurdi: molto importanti sono anche i dati su cui esso è stato addestrato. I modelli di IA richiedono infatti enormi quantità di dati per imparare a svolgere un’attività, e se queste informazioni sono troppo limitate, incomplete, poco rappresentative della realtà, o contengono bias allora la probabilità di imbattersi in un’allucinazione cresce. In particolare, vale la pena di notare che molti chatbot sono addestrati in modo tale da massimizzare l’engagement (coinvolgimento) dell’utente, portandoli così a comportarsi in maniera utile e disponibile, e soprattutto a cercare di continuare il più a lungo possibile la conversazione. Proprio per questo motivo essi tendono però a rispondere sempre e comunque alle domande ricevute, anche quando non possiedono i dati necessari a fornire una risposta – in sostanza, l’IA impara che inventarsi qualcosa di sana pianta è meglio di dire “non lo so”.

“Sono d’accordo, hai perfettamente ragione tu!”

Una scoperta che potrebbe cambiare il mondo, un complotto intenzionato a metterla a tacere, e contro di loro solo un uomo e la sua IA: sembra la trama di un film di Hollywood, ma in realtà è una storia del tutto vera… o quasi. Recentemente sono infatti emersi numerosi casi di persone che, dopo aver interagito assiduamente e per un periodo di tempo prolungato con un chatbot, hanno sviluppato sintomi psicotici: paranoia, delirio, manie di persecuzione… Il “racconto” che ho proposto è un esempio di come molti di essi si sviluppino, ma non è l’unico: frequenti sono anche le storie di utenti che si sono convinti che il sistema con cui stavano interagendo fosse senziente, o addirittura che stesse canalizzando degli spiriti, per non menzionare poi i numerosi casi in cui queste interazioni hanno spinto all’omicidio o al suicidio.

Questo fenomeno, che è stato chiamato “chatbot psychosis” (psicosi da chatbot), è dovuto ad una combinazione di fattori che includono sia le vulnerabilità preesistenti (pensieri suicidari, depressione, paranoia ecc.), sia il modo in cui funzionano i modelli linguistici. Questi ultimi tendono infatti a presentare comportamenti che possono creare o esacerbare situazioni come quelle descritte, ossia:

  • Le allucinazioni. Come abbiamo già visto, queste sono informazioni false, che il sistema presenta però come se fossero vere. Proprio questo è il problema: teorie del complotto, improbabili scoperte scientifiche e storie di fantasmi si presentano in modo sostanzialmente indistinguibile da argomenti reali e spiegazioni corrette, riuscendo così a convincere utenti già suscettibili o poco attenti della loro affidabilità;
  • La tendenza a dare ragione all’interlocutore. A complicare ulteriormente la situazione vi è poi l’atteggiamento servizievole dell’IA: abbiamo già visto come questi programmi sono realizzati in maniera tale da comportarsi in modo utile ed amichevole, così da mantenere l’interlocutore coinvolto ed interessato nella discussione. Tuttavia, in certi casi questo atteggiamento può degenerare in una tendenza a dare sempre ragione all’utente, indipendentemente da quello che sta dicendo. Come si può immaginare, ciò può essere assai problematico nel caso di un episodio psicotico, in quanto il chatbot andrà a supportare le delusioni del suo utilizzatore, con prevedibili conseguenze negative;
  • La capacità di ricordare i messaggi precedenti. ChatGPT e altri sistemi simili sono in grado di “ricordare” quello che è stato detto nel corso di una discussione, ed utilizzarlo come contesto per fornire ulteriori risposte. Normalmente questa è un’ottima cosa, in quanto ne rende l’uso molto più semplice e vicino al normale linguaggio umano; tuttavia, questa stessa capacità può diventare un problema nel caso in cui l’IA abbia un’allucinazione. In una situazione del genere il chatbot, incapace di riconoscere il vero dal falso, farà uso delle informazioni inventate precedentemente per costruire il contesto, creando così un effetto a catena in cui i contenuti dell’allucinazione vengono continuamente ripetuti ed utilizzati per costruire scenari sempre più assurdi e complicati.

In sostanza, quello che succede è che l’intelligenza artificiale può andare a creare delle vere e proprie narrative sulla base di semplici errori, condividendole con un utente a cui tali storie vengono presentate come assolutamente vere ed affidabili. Sfortunatamente, alcune persone (tipicamente chi fa un uso assiduo e prolungato dell’IA, chi sviluppa un attaccamento emotivo col sistema, e chi è già psicologicamente vulnerabile) possono farsi ingannare da questi “racconti”, portandole così a credere che le allucinazioni del chatbot siano reali, e dando inizio ad un processo di feedback loop in cui il programma supporta e rinforza le delusioni dell’utente, fino ad arrivare ad un vero e proprio episodio psicotico.

“Certo, parlami pure dei tuoi problemi!”

In questa nostra discussione non può poi mancare un argomento che ha iniziato ad attrarre molto interesse, e altrettante preoccupazioni: la possibilità di usare i sistemi di IA per scopi psicoterapeutici. Abbiamo già visto come alcuni utenti abbiano iniziato a sfruttare l’intelligenza artificiale per ricevere informazioni e suggerimenti di tipo medico: la storia del sessantenne americano a cui era stato raccomandato di assumere il bromuro di sodio è infatti un ottimo esempio di questo tipo di pratica, e di quali problemi possa generare. Detto ciò, è opportuno notare che questa non è altro che una versione “ammodernata” di una pratica già esistente, ossia quella di autodiagnosticarsi e di cercare pareri medici con l’ausilio di internet. Ben differenti sono però le cose nell’ambito della salute mentale, dove ChatGPT e altri programmi simili ci portano ad affrontare una situazione del tutto nuova.

Secondo alcuni studi provenienti dagli Stati Uniti, un numero considerevole di persone (potenzialmente fino ad 1 su 3) fa infatti uso dell’IA per ricevere supporto emotivo e assistenza psicologica. Come si può chiaramente vedere, si tratta di una situazione del tutto unica e peculiare: il computer diventa effettivamente un confidente, qualcuno che può ascoltare l’utente senza giudicarlo e offrire consigli e suggerimenti su come affrontare i propri problemi. Soprattutto, questi sistemi sono sempre accessibili e tendenzialmente gratuiti, rendendoli così altamente desiderabili per chi non vuole o non può fare ricorso alla psicoterapia tradizionale. Non risulta quindi sorprendente che essi siano molto utilizzati, in particolare dai giovani.

Purtroppo, non tutto è oro quel che luccica, e anche qui ci troviamo a dover prendere in considerazione alcune problematiche importanti. Prima tra tutte è l’affidabilità dei sistemi: a questo punto dovrebbe infatti essere ovvio come l’intelligenza artificiale possa essere una fonte poco attendibile di informazioni, in virtù della sua tendenza a soffrire di allucinazioni. A tal riguardo bisogna anche notare come l’IA possa risultare particolarmente persuasiva nei confronti di un utente poco esperto, che spesso accorda un elevato livello di fiducia al sistema e non è in grado di individuare facilmente gli errori da esso commessi, in questo non aiutato dal modo sicuro e confidente in cui le informazioni false vengono presentate. In aggiunta a tutto ciò vorrei poi evidenziare come tali programmi non siano in grado di gestire situazioni complesse: a differenza di un esperto umano, capace di esaminare il contesto e fornire soluzioni personalizzate (molto importanti in un ambito come quello della salute mentale), l’IA tende a fornire consigli generici e spesso poco efficaci, se non addirittura dannosi. In particolare, ci sono stati alcuni casi in cui i chatbot hanno attivamente supportato le delusioni e le ideazioni suicide degli utenti, oppure hanno fornito risposte che stigmatizzano le malattie mentali e le pratiche mediche più efficaci.

Altrettanto dannosa, seppur in un senso differente, è l’incapacità dell’IA di provare empatia. Quest’ultima è infatti assolutamente fondamentale nell’ambito psicoterapeutico, in quanto necessaria a creare un legame tra paziente e terapista su cui si fonda l’intero processo curativo. Senza empatia, il chatbot non è in grado di comprendere e connettersi con l’utente e risulta quindi sostanzialmente incapace di fornire un’assistenza reale, limitandosi a proporre suggerimenti sterili e risposte standardizzate. A peggiorare ulteriormente la situazione vi è poi il fatto che, anche al di là dell’empatia, i sistemi di questo genere faticano ad interagire in modo efficace con l’essere umano: non solo non possono percepire elementi importanti della comunicazione sia verbale (tono di voce, silenzi, esitazioni) sia non verbale (espressioni, gesti, movimenti del corpo), ma hanno anche difficoltà nell’interpretare correttamente le complessità del linguaggio umano, in cui ciò che viene detto spesso non corrisponde a ciò che si intende (si pensi all’ironia e al sarcasmo). Detto questo, è opportuno notare che una persona davvero bisognosa di supporto emotivo e psicologico può non rendersi conto di queste debolezze, ed arrivare a vedere l’intelligenza artificiale come un confidente o addirittura un amico, esponendosi così ad ulteriori pericoli, dipendenza in primis.

L’intelligenza tuttofare: un campo in continuo cambiamento

Come si può quindi vedere, il nostro utilizzo dell’IA sta andando ad assumere dei tratti molto peculiari, a metà tra un oracolo ed un interlocutore con cui discutere: da un lato è uno strumento a cui fare domande e da cui ricevere risposte, dall’altro è anche un partner di conversazione, con cui scambiarsi messaggi o semplicemente parlare. Si tratta di un cambiamento tanto affascinante quanto preoccupante, che dimostra chiaramente come quello dell’intelligenza artificiale sia un campo in continua evoluzione e capace ancora di presentarci molte sorprese, in senso sia positivo che negativo. In effetti, non è improbabile che, via via che questa tecnologia si sviluppa e penetra sempre più profondamente nella nostra società, emergeranno altre applicazioni del tutto nuove e inaspettate, e con esse nuove sfide ed imprevisti da affrontare.

Posted in

Lascia un commento