Pisa, 12 settembre 2017 - Al festival internazionale della Robotica, che è incorso a Pisa in questi giorni, si affronta, tra le altre, la questione del rapporto tra robots, società ed etica. E proprio questo rapporto è stato al centro dell’incontro ‘Robolaw, regulating robotics’. Quale impatto avrà, nella società, la diffusione, sempre più massiva dell’intelligenza artificiale e quali saranno le conseguenze giuridiche di queste nuove tecnologie? Sono regolamentabili le innovazioni robotiche? A questi interrogativi ha cercato di rispondere il progetto di ricerca ‘Robolaw’, coordinato dall’Istituto Superiore San Anna, di Pisa. L’emergente necessità, a livello europeo, di una regolazione sui robots, ha portato la commissione dell’UE a finanziare, tra il 2012 e il 2014, il primo progetto sistematico di ricerca sulle problematiche etico-sociali e legali poste dalla robotica. Robolaw è stato portato avanti, da un gruppo internazionale di studiosi che è coordinato da Erica Palmerini, professore associato di diritto civile, all’ istituto Dirpolis della Scuola Superiore San Anna, nonché prima relatrice del convegno. «Va chiarito – dice  Palmerini – con cosa abbiamo a che fare, quando parliamo di robots; l’universo robotico è vastissimo e non riducibile ad un’unica realtà, ma abbraccia un numero di entità molto diverse: dai droni alle protesi bioniche, dagli esoscheletri fino alle intelligenze artificiali pure, prive di un supporto corporeo, che consistono in complessi software, contenuti in clouds (spazi virtuali di memorizzazione)».
 Nei paesi asiatici sono ormai una realtà, applicazioni del tutto virtuali, i cui algoritmi sono in grado di mimare il comportamento umano, simulando, ad esempio un’amica, che manda messaggi alla persona per farle compagnia; proprio il governo di Singapore sta finanziando un progetto di Intelligenza Artificiale(AI), chiamato ‘Smart Nation’, che consiste nell’istallare, in tutta la città dei sensori, in grado di raccogliere e processare una serie di dati sul traffico, in modo da controllare i flussi di veicoli, contribuendo al sicurezza stradale. Non è secondario constatare che questi robots, in un prossimo futuro, abiteranno spazi comuni a noi, come ospedali e strade, aumentando l’interazione uomo-macchina, con tutte le potenzialità, ma anche i rischi di danni, che questa prossimità può comportare alla nostra libertà e ai nostri interessi. E’ paradigmatico il caso di come, la capacità di scambiare un enorme numero di informazioni con l’ambiente esterno, implementata in molti robots, sollevi un problema di protezione dei dati personali, che risultano sempre più esposti, di fronte ai giganti della connectivity, come Facebook e Google. Il team di Robolaw individua, tra i caratteri giuridicamente rilevanti del robot, non solo la capacità di percepire, tramite sensori dati esterni e vagliarli, per poter pianificare un azione (sense, think, act), ma anche la cosiddetta autonomia, ossia la capacità della macchina di apprendere (machine learning) e riprodurre il comportamento dell’uomo, mimandone il processo decisorio. Esistono già esempi di questa autonomia, basti pensare alle self- cars, le macchine con la guida automatizzata, oppure ai ‘self driving contracts’, contratti, nei quali si usano algoritmi in grado di decidere e negoziare come un soggetto giuridico in senso stretto. Si aprono,poi, molte ipotesi affascinanti e innovative sull’autonomia delle intelligenze artificiali, come l’idea del giudice algoritmico,un algoritmo in grado di imitare alla perfezione il ‘legal reasoning’ e arrivare alla sentenza, sulla base di un complesso numero di dati, sostituendo il giudice stesso. Un sistema così oggettivizzato eviterebbe gli errori umani, migliorando la capacità di dare giustizia? E ancora WATSON, il sistema esperto, usato in ambito ospedaliero per fare diagnosi, riuscirà ad evitare lo sbaglio del medico? La risposta a simili domande non è univoca, ma ci fa capire come, l’autonomia dei robots si porta dietro il problema, se essi vadano considerati o meno giuridicamente responsabili. La capacità di mimare il processo decisorio umano, infatti, può tradursi in comportamenti imprevedibili, per gli stessi programmatori, facendo emergere l’esigenza di ripensare la disciplina della responsabilità legale, in rapporto ai robots. Ilaria Caggiano, dell’Università degli Studi Suor Orsola Benincasa, che si è occupata dei rapporti tra A.I. e Diritto privato, fa notare, che già esistono della persone giuridiche, ad esempio le società o i comitati, cui l’ordinamento riconosce una capacità di agire, anche se esse non sono persone fisiche, in senso stretto, e ritiene sia possibile, estendere questa nozione allargata di persona giuridica, anche ai robots, considerandoli, come soggetti in grado di compiere attività loro imputabili, almeno a livello di responsabilità. In tal caso, potrebbero essere costituiti, attraverso forme di assicurazione, dei patrimoni propri dei robots, distinti dal patrimonio dei loro produttori, con cui poter rispondere civilmente nel caso di danni; quest’impostazione avrebbe un impatto positivo, liberando i produttori da un eccessivo rischio economico, in caso di malfunzionamenti e incentivando la spinta all’innovazione Diversa appare la posizione dell’Unione Europea, che tende a considerare i robots come degli oggetti, di cui sono responsabili i produttori, cosa che emerge dalle proposte di creare appositi diritti di autore, per le intelligenze artificiali. L’Europa mostra verso il mercato della robotica e verso la sua regolazione legislativa un grande interesse, legato sia alla rilevanza strategica di questo mercato nell’economia, sia alle possibilità di miglioramento della qualità della vita, che, tale tecnologia promette in ambiti di grande impatto sociale, come l’incremento della sicurezza stradale, grazie ai veicoli parzialmente o totalmente automatizzati, o l’inserimento della tecnologia robotica, in campo chirurgico, con l’utilizzo di esoscheletri, che agevolano le condizioni di vita dei soggetti i disabili. Questa attenzione dell’Europa si riflette proprio nel progetto Robolaw; poiché dalla panoramica, che ne traccia la sua coordinatrice, Erica Palmerini, emerge l’uso di un approccio casistico al tema, basato sull’analisi approfondita di tipi specifici di robots, in modo da soddisfare lo scopo, con cui la commissione europea aveva concepito il progetto: vedere come dovranno essere regolamentate alcune tecnologie robotiche, particolarmente presenti nelle società, (dai veicoli autonomi, fino ai “cares robots”). E’stata esclusa una soluzione normativa eccezionalistica, in quanto risulta impossibile e poco proficuo elaborare, ex novo, una legge unica sulla materia. Non ci troviamo in un assoluto vuoto normativo nel settore robotico, ma ci sono norme, già esistenti, che possono funzionare efficacemente, anche per le intelligenze artificiali. Per questo gli studiosi sono partiti dalle norme vigenti, applicando quelle, che risultano efficaci (è il caso delle leggi sulla privacy), e intervenendo solo quando, l’ordinamento giudico si dimostra carente, nel disciplinare la realtà robotica. Il risultato del progetto Robolaw è stata l’elaborazione di linee guida per una regolamentazione legale del settore ,sulla base delle quali il 16 febbraio 2017, il parlamento Europeo ha approvato una risoluzione, recante raccomandazioni di diritto civile sulla robotica. Il preambolo alla risoluzione afferma chiaramente che, ci troviamo alle soglie di una nuova rivoluzione industriale, il cui impatto sarà inevitabile in ogni livello della società: l’UE ha voluto disciplinare, fin da ora, il settore robotico, per evitare, da un lato il crearsi di mercati e leggi frammentarie tra i differenti paesi , e assicurare il rispetto dei principi europeistici fondanti in materia di politiche della scienza e tecnologia, primo tra tutti ,quello della cosiddetta ‘responsable researching innovation’. E’ interessante vedere che, il sistema di regolazione progettato dalla risoluzione del 16 febbraio è un sistema composito,in cui, accanto agli strumenti tradizionali delle direttive, si ricorre a strumenti di autoregolazione responsabile, che vanno dalle licenze per i programmatori e utilizzatori di robots, ai codici di condotta, che ricercatori e comitati scientifici dovrebbero adottare, fino alla soluzione della ‘regulation by design’, che consiste nell’inserire, dentro al programma della macchina stessa delle regole, rendendo questa automaticamente obbediente a quel codice. L’opportunità di dotare di un prontuario etico anche i robots rimanda alla suggestiva provocazione, con cui la professoressa Caggiano ha aperto il suo intervento: cosa c’è nel mondo di non algoritmizzabile? Cos’è che costituisce il quid dell’essere umano rispetto a macchine sempre più intelligenti? Alla fine, solo l’uomo è un soggetto capace di creare qualcosa senza seguire griglie di dati fissi, ma soprattutto, solo l’uomo può essere un soggetto morale, ossia un individuo in grado di discernere tra bene e male e di fare scelte etiche complesse, di essere, quindi, in senso proprio responsabile delle proprie azioni. E’ tanto più urgente allora il richiamo a fissare un’etica e una legislazione nel mondo delle macchine, in quanto queste riflettono la lungimiranza, con cui l’uomo di oggi si approccia alla loro uso, con conseguenze indelebili per il futuro.