DANIELE
Cronaca

L’arcipelago dell’intelligenza artificiale. I dilemmi etici e la quaresima dei giornali

La svolta digitale dice l’Agenzia europea: "Porta benefici sul lavoro ma può avere effetti corrosivi sulla società". Il caso del New York Times

L’arcipelago dell’intelligenza artificiale. I dilemmi etici e la quaresima dei giornali

L’arcipelago dell’intelligenza artificiale. I dilemmi etici e la quaresima dei giornali

Magrini *

Non esiste una definizione univoca del termine “intelligenza artificiale”, coniato molti decenni fa per indicare un enorme arcipelago di studi, discipline, applicazioni, tecnologie e metodi. Come disciplina a sé stante non esiste, vi sono invece differenti settori che la compongono: dalla robotica al machine learning e i large language models.

Lo dice Luciano Floridi, autorità mondiale in materia, per delimitare questo “arcipelago” di modelli matematici che, attraverso modalità algoritmiche, è in grado di simulare la capacità dell’intelligenza umana di dare risposte a infiniti problemi.

È così che Alan Turing nel 1944 riuscì a decrittare i messaggi in codice della Germania nazista. Lavorò in segreto, per mesi, in un grande laboratorio costruito a Bletchley, alle porte di Londra. Proprio qui, a novembre del 2023, si è tenuto il primo vertice mondiale sull’intelligenza artificiale con i rappresentanti di 28 Paesi.

Ne è uscita una Dichiarazione in cui si afferma la necessità di una cooperazione globale per affrontare i rischi. In particolare, in relazione all’eliminazione di posti di lavoro. Oltre il 35% su base mondiale secondo Goldman Sachs. Oltre 8 milioni in Italia secondo Confartigianato.

Le procedure in cerca di innovazione che prima stavamo rinchiuse dentro i laboratori delle Università o delle grandi multinazionali tecnologiche, proprio negli ultimi mesi hanno avuto risonanza mondiale.

Milioni di persone hanno infatti scaricato sul proprio computer o sullo smartphone un’applicazione di intelligenza artificiale generativa: Chat Gpt (acronimo di Chat generative pre-trained transformer) creata da Open-Ai, in grado di rispondere a qualsiasi domanda, o quasi, sulla base di miliardi di informazioni con cui è stato addestrata.

Questa diffusione universale ha finito per rendere popolare l’intelligenza artificiale, accelerando la corsa alle regole. Perché accanto a grandi opportunità, soprattutto in campo medico, che potrebbero allungare e migliorare la vita dell’uomo, i rischi sono palpabili.

A cominciare da un utilizzo a fini bellici da parte di guerrafondai come Putin o il dittatore coreano Kim Jong-un o i terroristi dell’Isis. Ecco, allora, il varo della prima legge al mondo sull’Ai varata dall’Unione Europea, l’Ordine Esecutivo per la sicurezza nazionale emanato da Biden, il Protocollo normativo della Cina che, all’articolo 4, recita così: “I contenuti generati utilizzando l’intelligenza artificiale generativa dovranno riflettere i valori fondamentali del socialismo e non devono includere contenuti che sovvertono il potere statale”.

Tra i documenti che hanno accompagnato il varo dell’Artificial Intelligence Act, la legge dell’Ue, ce n’è uno passato incredibilmente sotto silenzio. Si intitola “Automazione delle attività cognitive: conseguenze per la sicurezza e la salute sul lavoro”. È redatto dall’Agenzia europea per la sicurezza e la salute sul lavoro.

Il report, accanto ai benefici nei processi produttivi e nelle dinamiche del lavoro, indica anche questo concetto: “Poiché è più probabile che l’introduzione dell’Ia elimini dei compiti piuttosto che interi posti di lavoro e occupazioni, si verificherà un’ampia trasformazione dei posti di lavoro. Dato che gli algoritmi sono utilizzati per sostituire gli esseri umani nel prendere decisioni che hanno un contenuto morale, la capacità degli individui di svolgere un ragionamento morale potrebbe atrofizzarsi. La dequalificazione, di ogni tipo, può avere un effetto corrosivo sulla società”.

Non sono parole di un terrapiattista sui social, ma di un’agenzia istituzionale. E la stessa Open-Ai, proprietaria di Chat Gpt, ha messo in guardia rispetto ad altri rischi, di portata sociale enorme: quelli contro la democrazia. Nel 2024 oltre 5 miliardi di persone andranno al voto e Open-Ai ha ammesso: “È necessario intervenire prima che la situazione sfugga di mano. Stiamo lavorando per proteggere l’integrità delle elezioni”.

Proprio per tutelare il proprio lavoro sceneggiatori e attori di Hollywood nella scorsa prima primavera hanno indetto il primo sciopero contro l’intelligenza artificiale, per dire no alle trame di film e fiction scritte dai robot. E hanno vinto.

Non pronosticabile, invece, è l’esito della prima denuncia contro Chat Gpt e Copilot. È del New York Times, per violazione del copyright. Visto che alle due macchine sono stati somministrati da Open-Ai e Microsoft, valanghe di contenuti letteralmente “copiaeincollati” dal giornale.

La rivoluzione dell’Ai può cambiare il mondo rendendolo migliore. O peggiore. Ora è comunque il tempo in cui è necessaria una conoscenza diffusa e una consapevolezza non luddistica ma razionale.

La rotta giusta la indica papa Francesco, con il messaggio “Intelligenza artificiale e pace” diffuso a inizio d’anno: “L’intelligenza artificiale dovrebbe essere al servizio del migliore potenziale umano e delle nostre più alte aspirazioni, non in competizione con essi”.

Il pontefice invita a recuperare “il senso del limite”, pena il rischio, per l’essere umano, “di cadere nella spirale di una dittatura tecnologica”.

* autore del libro “L’anno dell’Intelligenza Artificiale”