La prima risoluzione universale relativa all’intelligenza artificiale dell’Assemblea Generale delle Nazioni Unite, approvata lo scorso 21 marzo, rappresenta un evento di significativa importanza nel contesto della regolamentazione internazionale delle tecnologie di intelligenza artificiale.
La risoluzione sancisce l’adozione di principi guida volti a indirizzare lo sviluppo e l’utilizzo dell’AI verso standard che ne garantiscano la sicurezza, l’affidabilità, l’etica e la sostenibilità.
La bozza approvata si pone come punto di riferimento per la formulazione di politiche e direttive future, mirando a instaurare un quadro regolatorio armonizzato a livello globale.
L’enfasi sui principi di etica e sostenibilità riflette la crescente consapevolezza delle implicazioni sociali ed economiche e ambientali dell’AI, sottolineando l’importanza di una gestione responsabile di tali tecnologie.
In questo quadro, la risoluzione adottata dalle Nazioni Unite funge da catalizzatore per il dialogo internazionale, incentivando una sinergia tra stati membri e settore privato nella ricerca di soluzioni condivise alle sfide poste dall’AI.
L’enfasi sulla creazione di sistemi d’intelligenza artificiale sicuri e affidabili evidenzia con urgenza la necessità di affrontare tematiche critiche come la trasparenza, la responsabilità sociale e la salvaguardia dei diritti umani nel processo di sviluppo tecnologico.
Attraverso la risoluzione, proposta dagli Stati Uniti e sostenuta da oltre 120 Nazioni, l’Assemblea Generale ha evidenziato il ruolo significativo che i sistemi di intelligenza artificiale possono svolgere nel progresso verso il conseguimento dei 17 obiettivi elencati nell’Agenda 2030 per lo Sviluppo Sostenibile.
L’Assemblea ha esortato tutti gli Stati membri a evitare o interrompere l’impiego di sistemi di intelligenza artificiale che non siano conformi al diritto internazionale sui diritti umani o che comportino rischi ingiustificati per il pieno godimento di quest’ultimi.
Inoltre, ha sottolineato che i diritti garantiti alle persone nel mondo fisico devono essere preservati anche nell’ambito digitale, attraverso tutto il ciclo di vita dei sistemi di intelligenza artificiale. L’Assemblea ha sollecitato così gli Stati, il settore privato, la società civile, le istituzioni di ricerca e i media, a promuovere e a implementare l’elaborazione di strategie e quadri normativi e di governance che garantiscano l’utilizzo sicuro dell’artificial intelligence.
È stato richiesto agli Stati membri e alle entità interessate di intensificare la cooperazione e fornire un sostegno concreto ai paesi in via di sviluppo, al fine di consentire loro di beneficiare appieno delle opportunità offerte dall’era digitale.
Questo impegno prevede la promozione di un accesso aperto ed equo alle tecnologie digitali avanzate, con l’obiettivo di superare le barriere che contribuiscono al divario digitale globale.
Inoltre, è stata enfatizzata l’importanza dell’implementazione di strategie efficaci con il fine di migliorare l’alfabetizzazione digitale tra le popolazioni dei paesi in via di sviluppo e di rafforzare le loro capacità di partecipare attivamente e in modo significativo alla società dell’informazione globale.
Questo sforzo congiunto mira non solo a facilitare l’accesso alle tecnologie, ma anche a garantire che tutti i cittadini siano dotati delle competenze necessarie per utilizzare le tecnologie digitali in modo sicuro ed efficace.
L’approvazione di tale risoluzione si inserisce in un contesto più ampio di iniziative regolatorie e di standardizzazione dell’IA, indicando una tendenza verso la formalizzazione di un approccio etico e responsabile alla tecnologia.
Questo movimento globale verso la regolamentazione dell’AI è riconoscibile in diverse giurisdizioni, dove si osserva una progressiva implementazione di linee guida, normative e principi volti a indirizzare lo sviluppo tecnologico in maniera sostenibile e socialmente responsabile.
L’Unione Europea, ad esempio, ha svolto un ruolo pionieristico nel campo della normativa sull’intelligenza artificiale.
In anticipo rispetto alla risoluzione delle Nazioni Unite, il Parlamento Europeo ha approvato, lo scorso 13 marzo, il primo regolamento al mondo sull’intelligenza artificiale, conosciuto come AI Act.
Tale regolamento introduce una classificazione dei sistemi di IA in base al loro livello di rischio, con particolare attenzione ai sistemi ad alto rischio che potrebbero avere un impatto significativo sulla salute, la sicurezza, i diritti fondamentali, l’ambiente e la democrazia.
Il regolamento vieta l’uso di sistemi di IA considerati inaccettabili, come quelli per la sorveglianza di massa o basati su caratteristiche sensibili per la categorizzazione biometrica.
Inoltre, impone agli sviluppatori e agli utilizzatori di sistemi di IA obblighi di trasparenza, tracciabilità e accountability, con l’obiettivo di garantire che tali sistemi operino in modo equo ed etico, minimizzando i rischi di pregiudizi e discriminazioni.
L’entrata in vigore dell’AI Act posiziona l’Unione Europea all’avanguardia nella regolamentazione dell’intelligenza artificiale a livello globale, rafforzando la sua posizione di leadership tecnologica e normativa.
Questo regolamento non solo stabilisce uno standard distintivo per la regolamentazione dell’AI, ma potrebbe anche influenzare lo sviluppo di futuri framework legislativi in tale ambito a livello mondiale.
A tal proposito, il 30 ottobre 2023, è stato emanato negli Stati Uniti l’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, che, contrariamente alla normativa europea centrata sull’essere umano, adotta un approccio più orientato al sostegno delle imprese e allo sviluppo dei sistemi di AI con il fine ultimo di mantenere la leadership americana nel settore.
Dunque, negli Stati Uniti, si evita l’adozione di un corpus normativo organico come in Europa, prediligendo una maggiore frammentazione per preservare la competitività. Il compito di definire linee guida e standard di sicurezza è affidato ai Dipartimenti e alle Agenzie, mentre si fa affidamento sulla formazione, lo sviluppo e la collaborazione volontaria delle imprese per garantire la trasparenza e l’affidabilità dei sistemi.
Nonostante l’Executive Order ponga maggiore enfasi sullo sviluppo dell’IA, affronta anche il rischio, in particolare per i sistemi più sofisticati, tramite standard di sicurezza e obblighi di trasparenza imposti agli sviluppatori.
Allo stesso tempo, promuove la collaborazione volontaria dei fornitori, così come la protezione contro deep fake e frodi, per garantire trasparenza e autodeterminazione dell’utente, in linea con gli obiettivi dell’AI Act europeo.
La differenza di approccio enfatizza la diversità e un dualismo di strategie adottate a livello mondiale nella regolamentazione dell’intelligenza artificiale, sottolineando l’importanza di mantenere un dialogo internazionale costante per affrontare le sfide comuni presentate da tale tecnologia in rapido sviluppo.
Le varie normative forniscono spunti significativi, ponendo in risalto l’esigenza di bilanciare l’incoraggiamento all’innovazione tecnologica e l’urgenza di salvaguardare la società dai rischi potenziali associati all’AI.
La risoluzione delle Nazioni Unite agisce come collegamento tra queste prospettive divergenti, promuovendo un impegno condiviso verso lo sviluppo di una tecnologia che sia non solo all’avanguardia, ma anche etica e responsabile.