L’intelligenza artificiale (AI) è una tecnologia in continua evoluzione che ha portato una grossa rivoluzione in molti aspetti della nostra vita quotidiana.
Una delle sue più recenti applicazioni è la Generative AI, una tecnologia che utilizza algoritmi avanzati per generare contenuti originali, come immagini, testi e suoni, che possono essere utilizzati in molteplici contesti.
La Generative AI (o Gen AI) rappresenta un passo avanti epocale nel percorso di evoluzione dell’AI, poiché permette di creare contenuti originali, piuttosto che semplicemente riprodurre o imitare ciò che già esiste.
Questa capacità è resa possibile dall’impiego delle reti neurali generative, che sono in grado di apprendere dai dati di addestramento e generare nuove informazioni basate sul contesto di riferimento.
Ne consegue che un aspetto cruciale per il buon funzionamento di questi algoritmi è l’impiego di dati di addestramento di qualità che garantiscano l’imparzialità delle informazioni generate.
Dai dati di addestramento, infatti, dipendono i risultati prodotti dagli algoritmi e, in ultima analisi, l’impatto che ne può derivare nella nostra quotidianità laddove le tecniche di Generative AI vengano impiegate.
Un classico settore di applicazione della Generative AI è la generazione di immagini. I modelli di AI possono apprendere da milioni di immagini disponibili (ad esempio online) e utilizzare queste informazioni per creare nuove immagini che sembrano essere state scattate da un fotografo professionista. Questa capacità ha aperto nuove possibilità per artisti, designer e creativi di sperimentare e creare opere d’arte uniche e innovative.
Ma la Generative AI non si ferma alle immagini. È in grado di generare anche testi, suoni e persino video. Ad esempio, i modelli di AI possono essere addestrati su grandi quantità di testo e utilizzati per generare articoli, storie o persino poesie. Questo offre nuove opportunità per gli scrittori e gli editori di esplorare nuovi generi e stili di scrittura.
La convergenza tra intelligenza e Generative AI ha suscitato un grande interesse ed ha scatenato grandi dibattiti.
Da un lato, c’è l’entusiasmo per le possibilità creative e innovative offerte da questa tecnologia.
Dall’altro lato, ci sono preoccupazioni riguardo le diverse implicazioni che vanno da questioni che interessano la proprietà intellettuale delle opere generate da macchine fino al possibile utilizzo per la generazione di contenuti completamente inventati e non aderenti alla realtà (c.d. contenuti fake) utilizzati per influenzare l’opinione pubblica.
A loro volta questi contenuti fake possono alimentare algoritmi generativi determinando il dilagare di falsa informazione con l’impatto che questo può avere in tutti i settori della vita quotidiana (es. pubblicità di prodotti, reputazione di personaggi pubblici, opinione politica ecc.).
Un recente esempio di tale utilizzo distorto della Generative AI è quello relativo alle elezioni in Venezuela di luglio 2024 dove l’opposizione ha denunciato l’utilizzo di fake new come campagna di disinformazione.
Altro recentissimo esempio è quello del conflitto tutt’ora in corso tra Russi ed Ucraina, dove la disinformazione viene utilizzata come nuovo “armamento” per orientare l’opinione pubblica interna e della nazione avversaria.
Per contrastare questo problema, accanto agli algoritmi di Generative AI, sono in corso di implementazione anche algoritmi in grado di rilevare e filtrare contenuti fraudolenti generati da AI. Ma questo non basta. Gli utenti vanno educati a verificare puntualmente la fonte delle notizie per assicurarsi della veridicità dei contenuti. Ancora una volta è richiesto l’intervento umano, laddove l’intelligenza umana è necessaria per far fronte ad utilizzi distorti della tecnologia e quindi anche in merito all’intelligenza artificiale.
Dal punto di vista della relazione tra creatività umana e AI, si impongono spunti di riflessione su questioni etiche e morali quali: se una macchina genera un’opera d’arte, chi ne è il vero autore? Chi detiene i diritti d’autore su quel lavoro? Come distinguere il risultato di un algoritmo di AI dal reale (ad esempio nel caso di fotografie e/o video)?
Proviamo a immaginare quanti campi di applicazione può trovare la Generative AI. Facciamo qualche esempio pratico per toccare con mano quali benefici questa tecnologia possa apportare, ma allo stesso tempo quali problemi ponga.
È possibile utilizzare la generative AI per generare automaticamente sentenze giudiziarie, basandosi su dati storici e precedenti sentenze.
Questo può essere utile per automatizzare alcune attività nel settore legale, come la stesura di sentenze standard o la ricerca di precedenti giurisprudenziali.
Tuttavia, l’utilizzo della generative AI nel campo delle sentenze giudiziarie solleva alcune questioni etiche e legali. Ad esempio, l’accuratezza e l’imparzialità dei modelli generati dall’intelligenza artificiale possono essere oggetto di dibattito del momento che potrebbero portare ad errori o ad un’applicazione distorta della legge.
È importante trovare un equilibrio tra l’uso delle tecnologie generative AI nel campo legale e la preservazione delle garanzie di imparzialità, equità e responsabilità nel processo decisionale.
L’implementazione di queste tecnologie dovrebbe essere attentamente valutata e regolamentata per garantire un utilizzo corretto e responsabile.
L’utilizzo della generative AI nel settore della selezione del personale può offrire diverse opportunità quali:
Tuttavia, l’utilizzo della generative AI nel recruiting solleva anche importanti questioni etiche e di responsabilità. È infatti fondamentale garantire che gli algoritmi siano imparziali, evitando discriminazioni o pregiudizi involontari.
È, inoltre, necessario anche garantire la protezione dei dati personali dei candidati e rispettare le normative sulla privacy.
Si pensi, ad esempio, ad algoritmi che acquisiscano dati dal web e li correlino con quelli presenti sul CV mettendo in atto processi decisionali che possono essere lesivi della libertà e dei diritti dei candidati.
Si pone, quindi, una questione non solo etica ma anche di protezione dei dati personali e di impatto sugli interessati (in questo caso i candidati ad una posizione lavorativa).
Di fatto, questi algoritmi partono da dati presenti sul web (quindi pubblici) e dal CV rispetto al quale il candidato ha fornito il consenso al trattamento. Eppure, mettono in atto un ulteriore trattamento (la correlazione delle informazioni ed il conseguente processo decisionale) che è sicuramente ad elevato rischio. Si pensi ad esempio alla possibilità che informazioni siano dedotte da fotografie pubblicate sui social.
Ancora una volta è necessario l’intervento umano per gestire imparzialità e per dare a tutti i candidati le medesime possibilità di accesso alle posizioni lavorative.
Tra le atre cose, in questi casi diventa cruciale il ruolo del Data Protection Officer come baluardo della legalità e della sicurezza delle informazioni personali.
In campo investigativo è determinante la possibilità di analizzare grandi quantità di dati eterogenei (testi, intercettazioni, video, fotografie ecc.) individuando correlazioni e definendo possibili scenari evolutivi che possano supportare anche nell’attività di prevenzione.
Altro impiego è l’individuazione di situazioni anomale, possibilità molto utile nella rilevazione delle frodi (es. frodi bancarie).
Ancora una volta però si pongono questioni cruciali quali il rispetto della privacy (anche se in questo caso il rischio potrebbe essere mitigato da attività di natura giudiziaria). Anche in questo caso entra in gioco l’intelligenza umana sia per evitare che gli algoritmi possano arrivare a conclusioni errate con impatto su possibili soggetti innocenti sia nella valutazione dell’ammissibilità delle prove in tribunale.
Nonostante queste sfide, l’intelligenza e la Generative AI continuano a progredire, aprendo nuove porte per l’innovazione e la creatività.
È importante che la società si impegni in un dialogo aperto e inclusivo su come guidare e regolamentare queste tecnologie, al fine di garantire un equilibrio tra l’innovazione e la protezione dei diritti e delle responsabilità umane.
In definitiva, l’intelligenza e la Generative AI rappresentano una convergenza di due mondi, offrendo nuove possibilità creative e aprendo nuovi orizzonti per l’arte e la cultura.
Tuttavia, è essenziale considerare le implicazioni etiche e legali di queste tecnologie al fine di garantire una coesistenza armoniosa tra l’intelligenza artificiale e la creatività umana.
Per comprendere meglio la Generative Ai dobbiamo conoscere qual è la modalità di funzionamento di tale tecnologia e quindi, in ultima analisi, qual è il principio di funzionamento delle reti neurali generative e quali siano i loro principali limiti.
Una rete neurale è una struttura elaborativa complessa che presenta un’architettura ispirata alla stessa struttura del cervello umano.
Quest’ultimo è, infatti, costituito da cellule, i neuroni, che formano una rete altamente interconnessa attraverso la quale vengono scambiati segnali elettrici mediante i quali gli esseri umani elaborano le informazioni.
La stessa struttura e lo stesso principio di funzionamento vengono replicati nella rete neurale artificiale dove i neuroni sono sostituiti da moduli software, chiamati nodi, che collaborano per risolvere un problema complesso.
Da questa descrizione si comprende che alla base di una rete neurale sussistono una serie di elementi abilitanti che ne hanno determinato l’espansione e la diffusione sul mercato negli ultimi anni, nonostante la ricerca stia lavorando in questo ambito da oltre un trentennio.
Gli elementi abilitanti essenzialmente sono:
Un’interessante evoluzione delle reti neurali sono le reti neurali generative che, come già detto, consentono di generare contenuti originali a partire da dati di addestramento.
La tipologia più diffusa di reti neurali generative sono le Reti Generative Avversarie (in inglese generative adversarial network o GAN). Le GAN sono l’unione di due reti in lotta tra loro in un gioco “a somma zero” (se un giocatore guadagna qualcosa, causa una perdita all’altro).
La GAN è composta da due modelli, un modello discriminante (D) ed uno generativo (G).
Ogni modello cerca di fare meglio dell’altro e di “vincere” il confronto. L’obiettivo del modello G è quello di creare campioni falsi di dati, che sono distribuiti all’interno dei dati originali. L’obiettivo del D è invece quello di riconoscere e distinguere i campioni reali dai campioni falsi creati dal modello G.
Questo gioco continua fino a quando ogni modello diventa un esperto di ciò che sta facendo. Il modello G aumenta la sua capacità di simulare l’effettiva distribuzione dei dati. Il D diventa più esperto nell’identificare i campioni reali. In altre parole, le due reti neurali competono “addestrandosi” l’un l’altra. Al termine del gioco si raggiunge l’equilibrio di Nash, ovvero i due modelli diventano molto bravi nello svolgere i loro compiti e non sono più in grado di migliorare.
Un modello simile può essere utilizzato in molte applicazioni. In particolare, nel campo del Natural Language Processing (elaborazione del linguaggio naturale) o del riconoscimento delle immagini.
Le reti neurali generative presentano diverse caratteristiche distintive che le rendono un potente strumento nell’ambito dell’intelligenza artificiale. Ecco alcune delle principali caratteristiche delle reti neurali generative:
È importante considerare che le reti neurali generative presentano limitazioni a volte consistenti e per questo è fondamentale utilizzarle in modo responsabile e consapevole, tenendo conto delle implicazioni etiche e legali legate alla generazione di dati artificiali.
Ecco alcuni dei limiti principali delle reti neurali generative:
È importante riconoscere queste limitazioni per continuare a ricercare e sviluppare tecniche sempre più sofisticate per risolverle. Il superamento di queste limitazioni migliorerà ulteriormente le capacità delle reti neurali generative e amplierà le loro potenziali applicazioni.
Allo stesso tempo queste limitazioni di natura tecnica pongono un grosso interrogativo sull’utilizzo di queste soluzioni in campi dove l’impatto sugli esseri umani può essere critico (campo del diritto, campo medico, processi di assunzione, processi investigativi ecc.).
Tale utilizzo non può ancora prescindere dalla supervisione dell’intelligenza umana.
Si è accennato prima all’aspetto etico come uno degli elementi che limitano l’utilizzo delle tecnologie di AI. L’etica è un aspetto fondamentale quando si tratta di intelligenza artificiale.
Poiché l’AI può avere un impatto significativo sulla società e sulle persone, è importante considerare e affrontare le questioni etiche associate alla sua progettazione, sviluppo e utilizzo.
Ecco alcune delle principali questioni etiche legate all’IA che sono state anche ribadite nell’AI Act, regolamento sull’impiego di questo tipo di tecnologia emesso dall’Unione Europea:
Affrontare queste questioni etiche richiede un approccio collaborativo che coinvolga sviluppatori, ricercatori, responsabili politici e la società nel suo complesso. È importante sviluppare linee guida, norme e regolamentazioni che guidino lo sviluppo e l’uso responsabile dell’AI, al fine di massimizzare i suoi benefici e mitigare i rischi potenziali.
I concetti appena espressi sono stati anche ripresi da Papa Francesco che ha affrontato il tema dell’intelligenza artificiale in vari discorsi e dichiarazioni, l’ultimo dei quali al G7 svoltosi in Italia quest’anno dove si sono posti diversi interrogativi sulla diffusione di queste tecnologie.
Papa Francesco ha già espresso le sue preoccupazioni riguardo all’AI in diverse occasioni: in occasione della Giornata mondiale della pace del primo gennaio 2024, ha sottolineato l’importanza di un uso responsabile e umano dell’AI.
Proprio con questo obiettivo, nel 2020 il Vaticano ha proposto ed avviato un’iniziativa per rafforzare una dimensione etica nell’applicazione degli algoritmi, con l’obiettivo di mantenere l’uomo al centro delle tecnologie e prevenire gli effetti di una tecnologia che può minare il controllo dell’individuo sulla propria vita, con l’algoritmo che guida le scelte personali in modo persuasivo, ad esempio attraverso disinformazione mirata.
I principi di trasparenza, sicurezza, rispetto della privacy richiamati da più parti anche dal punto di vista legale, devono essere alla base della progettazione di soluzioni di AI e generative AI in particolare.
Ancora una volta viene messo in luce il principio “by design e by default” già emerso nell’impianto del GDPR (ed in quel conteso riferito alla protezione dei dati personali) che predilige una progettazione responsabile dove i principi etici sopra menzionati vengano rispettati già in fase di disegno e realizzazione delle soluzioni. Solo in questo modo sarà possibile prevenire gli impatti che un possibile utilizzo distorto delle tecnologie può comportare.
Tutta la comunità che gira intorno alla progettazione di soluzioni AI deve essere responsabilizzata. Nello specifico:
Questi sono solo alcuni degli attori che devono essere responsabilizzati nella progettazione di soluzioni di AI. È un compito condiviso che richiede la collaborazione di diverse parti sociali interessate per garantire un utilizzo etico, equo e responsabile dell’AI.
L’evoluzione tecnologica sia nel campo delle risorse elaborative (cloud) sia nelle tecniche di analisi e elaborazione di ingenti ed eterogenee moli di dati (big data analysis, machine learning e deep learning) ha consentito lo sviluppo dell’AI negli ultimi anni nonostante la comunità scientifica stia lavorando in questo settore da decenni.
Il recente diffondersi delle tecniche di Generative AI, basate su reti neurali, ha consentito l’impiego massivo dell’AI in diversi contesti della vita umana soprattutto lavorativi.
Come è avvenuto per la sicurezza e per la protezione dei dati personali, il mercato tecnologico ha pensato prima alla diffusione di soluzioni basate su generative AI accattivanti per gli utenti e poi alle possibili implicazioni che ne possano derivare con risvolti dal punto di vista etico, morale e dei diritti umani.
Questa situazione ha consentito il diffondersi di utilizzi distorti (es. fake news) con impatti spesso devastanti ad esempio sull’opinione pubblica che fruisce dei contenuti fake con velocità impressionante, amplificata anche dal web.
Al cattivo utilizzo si aggiungono le limitazioni intrinseche delle tecnologie di generative AI che, se non indirizzate con adeguate scelte già in fase di disegno ed implementazione (by default e by design), possono naturalmente portare a risultati distorti e parzialmente rispondenti al contesto di riferimento.
Tali risultati vengono spesso acquisiti ed utilizzati come corretti senza un controllo, dal momento che i fruitori di tali contenuti non hanno ancora una precisa comprensione del funzionamento e dei limiti dell’AI e, anzi, nutrono su di essa molte aspettative di aumentare la qualità e la velocità del proprio operato.
Dunque, un utilizzo corretto e consapevole dell’AI non può prescindere dalla guida e dalla supervisione dell’intelligenza umana.
Nonostante si stia lavorando per una convergenza dei due mondi, è opportuno constatare che esiste ancora un grosso divario che consiste essenzialmente nel fatto che gli algoritmi hanno un funzionamento ripetitivo e basato su elementi oggettivi che non riescono ancora a cogliere implicazioni, sfumature e conseguenze di quanto prodotto che al momento resta un freddo risultato elaborativo, sebbene vicino ma non sovrapponibile ai risultati dell’intelligenza umana.
Quest’ultima rimane imprescindibile per indirizzare, supervisionare ed arginare il possibile dilagare di utilizzi distorti delle tecnologie AI.
Artificial Intelligence: A Guide for Thinking Humans” – Melanie Mitchell, 2020.
“Human Compatible: Artificial Intelligence and the Problem of Control” – Stuart Russell, 2020.
“Deep Learning” – Ian Goodfellow, Yoshua Bengio, Aaron Courville, 2020.
“Generative AI: Opportunities and Risks” – MIT Technology Review, 2022.
“The State of AI 2023” – Nathan Benaich and Ian Hogarth, 2023.
“AI Ethics” – Mark Coeckelbergh, 2020.
“Accountability in AI: From Principles to Practice” – Sandra Wachter, Brent Mittelstadt, 2021.
“Privacy and the Ethical Implications of Generative AI” – Sarah M. Nelson, 2021.
“Data Privacy and Security in AI” – Richard Chbeir, Bechara Al Bouna, 2022.
“Getting the future rights – Artificial Intelligence and Fundamental Rights” – European Union Agency for Fondamental Rights, Report 2020.
Messaggio di Sua Santità Francesco per la LVII Giornata Mondiale della Pace – primo gennaio 2024.
Partecipazione del Santo Padre Francesco al G7 a Borgo Egnazia – 14 giugno 2024.Regolamento del Parlamento Europeo e del Consiglio Europeo che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale).