È necessaria una governance dell’Ai
La pervasività dell’intelligenza artificiale (Ai) impone una serie di riflessioni da un punto di vista, sia geopolitico, sia geoeconomico. Se l’impatto di questa nuova tecnologia sarà paragonabile a quello di altre innovazioni, quali l’elettricità e internet, è opportuno interrogarsi come sarà gestita e governata, viste le conseguenze che potrebbe avere sul sistema mondiale nel suo complesso e sulla vita dei singoli individui. Su questi temi Be Private ha raccolto le riflessioni di Aldo Pigoli, docente presso l’Università Cattolica di Milano ed esperto di analisi d’intelligence, delle relazioni internazionali e dei mercati.
Ci sono due giganti che si fronteggiano nel campo dell’intelligenza artificiale: gli Stati Uniti e la Cina. Quali dinamiche possono emergere?
«Così come avviene in altri ambiti internazionali, soprattutto quelli che hanno un impatto sullo sviluppo economico, commerciale e finanziario, anche per l’intelligenza artificiale è in atto una competizione. Il tema dell’Ai è molto sensibile, perché ha una serie di collegamenti con aspetti politici e sociali. Esso risente, dal punto di vista dell’impostazione e di come viene approcciato dalle singole realtà, dell’impianto politico-ideologico e del modello di governance che ogni singolo stato ha sviluppato e intende portare avanti. Gli Stati Uniti e gli alleati europei guardano alla gestione e allo sviluppo di questa tecnologia prestando particolare attenzione alla tutela dei diritti, tipica di un sistema democratico, e accusano la Cina e la Russia di utilizzare le grandi potenzialità dell’Ai in modo autoritario e con finalità di controllo politico-sociale. Lo sviluppo dell’Ai a livello internazionale è sicuramente un tema rilevante e di riflessione: non riguarda solo il fatto di immettere sul mercato maggiore conoscenza e tecnologia, ma anche la necessità di identificare quali siano le regole del gioco. È un aspetto fondamentale che non può essere ignorato quando si cerca di capire il ruolo dell’Ai nel creare vantaggi per i singoli paesi e come ciò si traduca in termini di competizione. C’è poi una narrazione che viene fatta su questi argomenti che non sempre offre un quadro oggettivo della reale situazione».
Tuttavia, anche all’interno dei sistemi democratici, come nel caso degli Stati Uniti, ci sono alcuni grandi gruppi che controllano e guidano lo sviluppo dell’Ai…
«Se si analizza come la Cina sta procedendo in materia di utilizzazione dei dati, si può cogliere la guida statuale del processo usato, pur con la presenza di attori privati. Non è la stessa cosa negli Stati Uniti, così come testimonia, ad esempio, la legislazione americana sulla gestione della privacy che esiste in alcuni stati, ma non a livello federale. Anche nei sistemi democratici, che condividono gli stessi modelli, può esserci un diverso approccio alla tutela dei dati sensibili: da questo punto di vista, il Gdpr europeo è più restrittivo rispetto alle regole statunitensi. Poi c’è una questione di governance. In occidente, gli attori che sono i motori dello sviluppo dell’Ai e delle riflessioni legate al suo utilizzo (dai limiti alle potenzialità sino ad arrivare ai rischi e alle opportunità a essa connessi) sono soggetti privati che si confrontano con le istituzioni. I quesiti sul tavolo della discussione sono dirimenti e riguardano gli obiettivi e le modalità d’utilizzo dell’Ai e, non da ultimo, chi è chiamato a decidere in questo ambito. Il dibattito sul tema è vivace e c’è indubbiamente il rischio che la definizione di una regolamentazione dell’intelligenza artificiale possa avvenire ex-post o che addirittura non venga fatta».
Ritiene che non sia una strada praticabile?
«La sfera di intervento è complessa e riguarda aspetti etici, tecnici e politici. Credo che sia necessaria una governance a livello internazionale, un omologo del “diritto del mare” per l’Ai, ma si presenta come un obiettivo arduo da raggiungere. Infatti, la ricerca scientifica, teoretica e applicata, si basa su un modello di condivisione. Sulle tecnologie dirompenti, ossia tutto ciò che oggi determina la capacità competitiva di un sistema rispetto a un altro, si è entrati in una fase di decoupling: lo scenario che si prospetta è che l’esperto di Ai non dialoghi con i suoi omologhi in altri paesi. La creazione di uno sviluppo che sia sostenibile nel tempo, che è un grande atout della scienza, in questo contesto viene così a mancare e diventa impossibile capire quali siano le migliori modalità di gestione della nuova tecnologia. Nella fase attuale, che è di sperimentazione dell’Ai, viene quindi meno un aspetto fondamentale per creare un reale modello di condivisione».
C’è quindi la possibilità che ciascuno stato vada per la sua strada?
«Sì e che, così facendo, ciascun paese cerchi di porre i propri limiti, frutto di differenti finalità. Ma, attenzione: lo spartiacque non è appartenere a un blocco piuttosto che a un altro, perché le frizioni ci sono anche tra gli Stati Uniti e l’Europa. Se poi si considerasse la regolamentazione, i cinesi sono stati molto più proattivi degli americani. La narrazione potrebbe farci pensare che in Cina ciò avvenga a discapito della libertà di espressione e diventi uno strumento di controllo sociale. È possibile, ma lo è altrettanto il fatto che la regolamentazione cinese potrebbe diventare un modello di riferimento: è un’ipotesi non da escludere a priori, soprattutto per chi, anche in occidente, propugna un maggiore ruolo delle istituzioni nazionali in questo ambito. Il problema dell’Ai, da un punto di vista di una persona come me, che cerca di capirne l’applicabilità in determinati contesti, è che ha un livello di trasversalità incredibile ed è tante cose diverse».
Ma legato all’Ai non c’è anche un tema di sicurezza degli stati che spiega questo atteggiamento di chiusura dei singoli paesi?
«Questo aspetto è presente e, in quanto tale, non prevede che si condividano fino in fondo i progressi conseguiti. Ma facciamo un esempio pratico utilizzando, quale paragone, un evento accaduto di recente. Non sono stati ancora identificati in via definitiva i responsabili del bombardamento all’ospedale Al-Alhi nel centro di Gaza, anche se il mondo occidentale ha dichiarato che l’accaduto non è ascrivibile all’esercito israeliano. Per rendere possibile questo convincimento, gli Stati Uniti hanno velocizzato l’apertura delle informazioni secretate agli altri servizi di sicurezza degli stati amici. Ne consegue che, così come nell’intelligence, anche nello sviluppo dell’Ai o di qualsiasi altra tecnologia, si pone il problema di appartenenza di “club”: di quale modello di comunità internazionale si vuole fare parte? Non vorrei essere considerato un sognatore, ma l’ideale sarebbe che sia un organismo super partes a formulare una governance in materia di intelligenza artificiale condivisa. Da questo punto di vista, ritengo che il “Ai Safety Summit”tenutosi a Londra all’inizio di novembre e la “Bletchley Declaration”, da esso prodotta, possano costituire un primo step per una base di dialogo e confronto a livello internazionale, soprattutto considerando il coinvolgimento non solo di Usa e paesi dell’Unione europea, ma anche della Cina. Tuttavia, il testo sottoscritto dagli stati membri indica che la collaborazione tra i vari governi avverrà sulla base della definizione di principi e codici di condotta, senza entrare nello specifico e mantenendo margini di libertà su base nazionale. Queste formulazioni suggeriscono un valore più simbolico che vincolante».
Esistono però alcuni colossi privati talmente potenti nel gestire e sviluppare l’Ai che, teoricamente, potrebbero di fatto regolamentare indirettamente uno stato.
«Nella società attuale ci si concentra molto sui concetti di democrazia e autoritarismo, soprattutto dopo il conflitto in Ucraina, ma non si presta attenzione a tutta un’altra serie di elementi analitici. Ci sono, infatti, alcuni mega-gruppi industriali nel mondo che hanno dimensioni in termini di fatturato, di personale, di mezzi finanziari, di tecnologia e di controllo dell’informazione che superano la media dei paesi a livello internazionale. Ne consegue che, quando si riflette sull’intelligenza artificiale, il riferimento va automaticamente a quanto affermano i presidenti o gli amministratori delegati di queste società. Tuttavia, così facendo, si esce da quello che viene considerato il parametro fondamentale nella definizione delle regole, che prevede un sistema strutturato come uno stato o un’organizzazione internazionale. Inoltre, non va trascurato che ogni paese, dove queste figure sono presenti, ha il proprio modello di riferimento nella gestione del rapporto tra pubblico e privato. È indubbio, quindi, che esista la necessità da parte di uno stato di controllare in qualche modo questi imprenditori che esprimono una leadership molto forte».
C’è il rischio che l’intelligenza artificiale crei una divisione all’interno della società?
«L’Ai fa parte di una società che sta cambiando ed è elitaria, perché solo un numero limitato di persone è in grado di controllare questo strumento. Non è un caso che si stia vivendo un fenomeno di alfabetizzazione al contrario: digitalmente parlando la media della popolazione è più ignorante rispetto alle generazioni precedenti sul grado di alfabetizzazione tradizionale, analogica. È un dato di fatto. Chi ha competenze matematiche e informatiche o chi controlla organizzazioni che si occupano di questi campi ha indubbiamente un vantaggio competitivo, così come gli stati che si sviluppano tecnologicamente. Oggi, circa il 10% della popolazione mondiale non ha ancora accesso all’elettricità. Proprio per queste ragioni, penso che all’interno degli obiettivi di sviluppo sostenibile delle Nazioni Unite debba trovare spazio anche uno che si occupi delle ricadute dello sviluppo tecnologico in corso. L’intelligenza artificiale è ancora una materia così poco definita che occorreranno i contributi di molti per delinearne i tratti caratterizzanti di una parola che associa due concetti indefiniti: artificialità e intelligenza».
Da questo punto di vista, l’Ai diventa anche un problema politico?
«La politica ha l’obbligo di regolamentare, nei limiti concessi dal sistema e dall’oggetto in questione, ma anche di prevedere l’evoluzione futura. Bisogna però focalizzarsi sui problemi più cogenti. Invece di preoccuparci di come sarà possibile, entro il 2100, gestire l’esistenza di 11 miliardi di persone al mondo, ci si interroga se l’Ai sottrarrà o meno posti di lavoro. Forse si sta spendendo troppo tempo a discutere degli aspetti meno rilevanti e marginali, invece di pensare a come utilizzare questa nuova tecnologia per sostenere il progresso, limitando al contempo il più possibile gli effetti incontrollati e potenzialmente dannosi. Più la società sarà edotta e consapevole in materia, più farà pressione perché venga introdotta una regolamentazione che renda più difficile per i colossi industriali esercitare un controllo».
Nella competizione sull’Ai, la Ue rischia di rimanere schiacciata tra la Cina e gli Stati Uniti?
«È il problema politico atavico dell’Unione Europea, ossia l’incapacità di avere una visione unitaria forte che permetta all’Eurozona di esprimere una leadership, anziché essere territorio di conquista da parte delle società estere. Purtroppo, non si è ancora capito che il singolo membro dell’Ue non riuscirà a conquistare alcuna posizione di forza su questioni di carattere strategico, né tanto meno a diventare protagonista. E ciò vale anche per l’intelligenza artificiale. Nell’Unione si è campioni di regolamentazione, come nel caso del Gdpr, ma, dall’altro lato, non lo si è per quanto riguarda le economie di scala».
Vede luci o ombre sul futuro dell’Ai?
«Sono sempre positivo rispetto allo sviluppo tecnologico. L’elemento importante è che il maggiore numero di persone possibile sia consapevole del processo in corso e ciò significa aumentare i livelli di cultura e di conoscenza dei cittadini. Poiché l’intelligenza artificiale riguarda non solo gli stati, ma anche i singoli consumatori, mi porrei il problema se questi siano o meno consci delle regole presenti sul mercato, indipendentemente da chi le abbia formulate».
Occorre un occhio critico nei confronti dell’Ai?
«Nella mia attività, l’Ai mi permette di velocizzare e migliorare i processi di analisi e ciò è positivo. Tuttavia, mi interrogo sempre se il tempo risparmiato si sia tradotto in efficienza effettiva, analizzando l’output finale prodotto da una macchina che ha alterato, volutamente o non volutamente, per allucinazione, il risultato: studio e mi preoccupo sempre di governare lo strumento che utilizzo».