ANGELA LOMBARDO
Cronaca

L’intelligenza artificiale? Illusione: "È utile se riusciamo a dialogare altrimenti fa di noi ciò che vuole"

La docente Chiara Giaccardi accompagnerà nel percorso invisibile che avvolge il mondo degli algoritmi

La docente Chiara Giaccardi accompagnerà nel percorso invisibile che avvolge il mondo degli algoritmi

La docente Chiara Giaccardi accompagnerà nel percorso invisibile che avvolge il mondo degli algoritmi

Danno informazioni su qualsiasi cosa in pochi minuti. Offrono servizi in pochi click. Risolvono problemi e ci rendono la vita più comoda. Sono gli algoritmi, ormai entrati in silenzio nelle nostre vite. Invisibili e fortemente pervasivi, da molti sono considerati la dimensione cruciale del nostro tempo. "Un tempo paradossale - afferma Chiara Giaccardi (nella foto), docente di Sociologia e Antropologia della comunicazione all’Università Cattolica di Milano - perché non abbiamo mai avuto così tanti strumenti per conoscere, comunicare, creare. Al tempo stesso, non abbiamo mai avuto una perdita così grande di tutti i significati condivisi che danno la dimensione collettiva della vita sociale e consentono la partecipazione alla vita pubblica". È partendo da questo paradosso che Giaccardi accompagnerà il pubblico del Festival della Mente, sabato 30, in un percorso nell’invisibile che avvolge il mondo degli algoritmi.

Che cosa nascondono gli algoritmi?

"L’ottundimento del senso critico in favore della comodità. Ci affidiamo agli algoritmi e consegniamo i nostri dati alle piattaforme solo perché è comodo, senza preoccuparci delle implicazioni. La più pericolosa è il diffondersi di una miseria simbolica che rischia di crescere a dismisura e di privarci di quella dimensione che fin dall’uomo primitivo è stata fondamentale per l’umanizzazione".

Cosa intende per miseria simbolica?

"È una forma di povertà culturale e spirituale che caratterizza la nostra epoca. Karl Marx parlava di proletarizzazione, diceva che siamo alienati perché perdiamo il controllo sui mezzi di produzione e quindi il nostro saper fare. Con l’era digitale noi perdiamo il saper vivere e il saper pensare, perché viviamo sugli schermi e ci affidiamo all’algoritmo. Questa forma di impoverimento attraversa tutte le fasce sociali ed è una fonte potente di miseria simbolica. Immiserimento che, a sua volta, ci rende molto più fragili psicologicamente e vulnerabili sociologicamente. Non solo. La miseria simbolica, che distrugge gli orizzonti di senso condivisi, crea quella che è chiamata una società disaffiliata, in cui il legame si perde e ci si compatta contro un nemico, sia con la dinamica della polarizzazione sia con la ricerca del capro espiatorio, tipica della comunicazione pubblica oggi. Senza contare i rischi per la democrazia, vista come ostacolo all’efficienza e alla velocità dei processi. Sono tutte questioni che gli algoritmi in qualche modo ci rendono invisibili".

Come?

"Coltivando la riumanizzazione e la nostra riserva di libertà e creatività che sono invisibili all’algoritmo. Oggi viviamo in un ritardo cognitivo, nel senso che ci percepiamo solo come individui. Di conseguenza, le nostre politiche, il nostro linguaggio sono basati sulla sovranità dell’io, della nazione. E il linguaggio della sovranità è la violenza contro chi si oppone o non riconosce questa sovranità. Ma è un controsenso. Da quasi un secolo la fisica quantistica ci dice che la vita è un sistema olistico in cui tutto è interconnesso. Sostengo da tempo che in un mondo in cui tutto è connesso, le relazioni non sono un nostro prodotto ma la condizione della nostra esistenza. Siamo fasci di relazioni e l’assunzione di una forma individuale non avviene proteggendoci dagli altri ma entrando in relazione. La cultura contemporanea va in direzione opposta, dove l’altro è il nemico che minaccia la mia identità, la sovranità dell’io e del mio paese".

È qui che l’algoritmo trova terreno fertile?

"Certamente. La realtà digitale si sposa benissimo con l’ideologia individualistica che caratterizza la cultura occidentale ormai dagli anni Ottanta. È veramente un connubio perverso ma efficacissimo. Il digitale è fortemente omologante. Non in sé, ma per come viene economicamente sfruttato. L’interesse è costruire nicchie omogenee di consumatori e sfruttarle il più possibile".

Come ci si può difendere?

"Bisogna allargare i propri riferimenti simbolici, aprire i confini dei propri interessi e della propria comfort zone per contaminarsi con cose diverse. Maggiori sono i punti di riferimento esterni, invisibili all’algoritmo, maggiore è l’immunizzazione dalla sua forza riduzionista. Ma è fondamentale anche scardinare il connubio tra realtà digitale e ideologia individualistica. Se si sviluppasse un pensiero olistico utilizzeremmo gli algoritmi in altro modo. Quando interroghiamo l’intelligenza artificiale ci invita a chiederle qualsiasi cosa. È questa l’illusione, l’idea che sia in grado di darci tutto quello che ci serve. Non è così. L’intelligenza artificiale ci aiuta a fare dei salti enormi se sappiano dialogare con lei. Se invece semplicemente ci affidiamo, fa di noi quello che vuole".