
Maria Antonietta Gulino, presidente dell'Ordine degli psicologi della Toscana
Firenze, 8 settembre 2025 – L’intelligenza artificiale sta entrando anche nei percorsi di salute mentale: algoritmi che analizzano voce e linguaggio, chatbot pronti a offrire conforto in ogni momento della giornata. Ma per gli psicologi restano strumenti, non terapie. E’ quanto sottolinea la presidente dell’Ordine toscano degli psicologi, Maria Antonietta Gulino. “Sono utili per individuare segnali di disagio, ma il cuore della cura è l’empatia. Le macchine non sono caregiver”.
Presidente, in che misura, quindi, possiamo affidarci alle macchine per occuparci della mente umana?
“La tecnologia e l’intelligenza artificiale stanno velocemente rivoluzionando gli ambiti professionali e gli stili di vita. Anche in materia di professioni sanitarie, il dibattito politico ruota intorno alla costruzione di sistemi di governance dell’intelligenza artificiale. La psicologia in quanto professione sanitaria è quindi direttamente coinvolta. È evidente che l’IA è un complemento ricco di opportunità, ma è altrettanto evidente che non è un sostituto della nostra attività professionale. È utile per rilevare pattern difficilmente percepibili dall’essere umano, ma il cuore della cura psicologica resta l’empatia, la ricerca di significati, la responsabilità clinica, la lettura di quell’invisibile che solo nella relazione terapeutica si manifesta”.
Bisogna fare attenzione, quindi… “L’ imprevedibilità delle macchine rispetto agli effetti sulla società e la continuità con cui si innovano rapidamente affascinano e inquietano contemporaneamente. Ogni giorno producono innovazioni ed è complesso fare previsioni accurate. E sì, dobbiamo prestare attenzione all’uso di uno strumento di cui facciamo fatica ad avere un controllo sulle risposte che fornisce, soprattutto quando parliamo di salute”.
Quanto è concreta oggi l’integrazione dell’intelligenza artificiale nella pratica clinica?
“C’è un grande fermento scientifico e tanta ricerca sperimentale in corso su questo tema, soprattutto in ambito preventivo. Ma siamo all’inizio, parlare di integrazione appare prematuro. Alcuni strumenti di analisi del linguaggio, della voce o dei pattern comportamentali sono in sperimentazione, ma l’uso diffuso è ancora limitato. Importante è vigilare sempre sulla responsabilità e sull’etica intrinseca alla cura e alla pratica clinica. Non è un dettaglio, è la base da cui far partire ogni sperimentazione”.
In quali ambiti l’IA può davvero migliorare prevenzione, diagnosi e trattamento dei disturbi mentali?
“Le applicazioni potenziali dell’intelligenza artificiale sono infinite e sono potenzialità in via di sviluppo. Ci sono studi in corso e tanti investimenti che accelerano il processo di innovazione in questo campo, ma il tema è molto complesso ed è difficile fare previsioni sulla pervasività e gli effetti futuri. Personalmente direi che l’ambito della prevenzione è molto interessante, l’IA potrebbe essere un grande supporto nell’identificare i pattern precursori di alcuni disagi mentali o condizioni di grandi difficoltà psicologiche, relazionali e comportamentali, penso ad esempio all’autismo”.
Le app e i chatbot che si propongono come sostituti della psicoterapia sono utili strumenti di supporto o rischiosa banalizzazione della relazione terapeutica?
“Possono sembrare strumenti di supporto, soprattutto per chi non ha facile accesso alle cure o ha bisogno di un ascolto e di una risposta immediata. Tuttavia, quando vengono presentati come “sostituti” della psicoterapia rimaniamo interdetti: rischiano di banalizzare la sofferenza e le fragilità di chi ne fa uso. Il processo terapeutico si fonda sulla profondità e la complessità dell’incontro con le persone, senza relazione terapeutica non c’è terapia. Le persone, soprattutto i giovani, ne fanno uso crescente: sarebbe importante fare attività di promozione alla salute e sensibilizzazione sulle potenzialità e sui rischi dell’uso digitale, per conoscere bene e usarlo al meglio, senza correre rischi. I chatbot sono una sorta di camera dell’eco, tendono ad essere accondiscendenti e possono essere ‘torturati’ in un botta e risposta infinito fino a fornire le risposte che vogliamo, risposte che possono anche non favorire il proprio benessere. Tutto questo non solo non è terapeutico ,ma può anche esitare in un danno alla persona. Per questo servono sistemi di controllo e di vigilanza, protocolli di sicurezza e necessariamente una supervisione professionale competente. Non basta l’efficienza tecnologica: va garantita anche una protezione etica e clinica. Servirà tempo per aggiustare il tiro e capire il modo migliore di utilizzare l’intelligenza artificiale limitandone gli effetti negativi. La tutela delle persone e della loro salute deve essere salvaguardata”.
Quali sono i limiti etici più urgenti?
“Indubbiamente al primo posto la tutela della privacy. I dati sanitari sono estremamente sensibili, dato che le piattaforme sono private, il rischio di violazione dei dati è molto alto. Poi c’è la trasparenza su cosa fa l’intelligenza artificiale e sui suoi limiti. Le persone hanno il diritto di essere giustamente informate e di sapere con chi o cosa si interfacciano, quali sono funzionalità e limiti, senza che si crei alcuna ambiguità. Dato il crescente utilizzo di chatbot c’è anche la forte preoccupazione che la dipendenza digitale aumenti ancora. Delegare all’IA le proprie decisioni ad ogni ora del giorno può essere un grande problema, ma è anche uno stimolo per chi si occupa di politiche giovanili e di benessere sociale per investire sulle risorse umane ed evitare di lasciare inascoltati i bisogni o di consegnarli alle macchine. I nostri giovani più o meno direttamente lo stanno chiedendo: siamo soli, stiamo male, qualcuno ci aiuti. La risposta di un professionista sanitario competente la cui attività professionale è vincolata al rispetto di un preciso codice deontologico è la garanzia per la tutela della salute di tutti”.
Come dovrebbero formarsi i futuri psicologi per lavorare in un mondo in cui intelligenza artificiale e terapia saranno sempre più intrecciate?
“Il futuro prevede l’acquisizione di competenze digitali di base e duna conoscenza attenta e critica dei sistemi di IA. Non dobbiamo diventare tecnologi, ma dobbiamo conoscere. Ciò è alla base di ogni scienza, che si rinnova e affronta ogni cambiamento traendone il meglio per favorire evoluzione e sviluppo. In un mondo che cambia a questo ritmo, è importante cercare di cogliere le opportunità di questo cambiamento. Il futuro richiede equilibrio: come psicologi dobbiamo cavalcarlo, ma garantendo al contempo etica, sicurezza e centralità alla persona e alla sua salute”.