Sviluppo responsabile dell’IA: così USA e Regno Unito provano a valutare e mitigare i rischi
2023-11-7 19:31:40 Author: www.cybersecurity360.it(查看原文) 阅读量:5 收藏

TECNOLOGIA E SICUREZZA

USA e Regno Unito hanno dato vita a istituti di ricerca il cui obiettivo è valutare e mitigare i rischi posti dai modelli avanzati di intelligenza artificiale. Un passo significativo verso la garanzia di sviluppo responsabile, favorendo la fiducia pubblica e la collaborazione globale nella comunità internazionale. Il punto

Pubblicato il 07 Nov 2023

Stati Uniti e Regno Unito stanno compiendo passi significativi per affrontare le sfide legate allo sviluppo e all’implementazione dell’intelligenza artificiale (IA) e garantire il suo utilizzo responsabile.

L’istituzione di istituti per la sicurezza dell’IA in entrambi i Paesi mira a valutare e mitigare i rischi posti dai modelli avanzati, segnando una tappa cruciale nell’ambito degli sforzi globali per promuovere la sicurezza di tale tecnologia.

Rafforzamento della cooperazione europea sull’intelligenza artificiale: una visione condivisa

Stati Uniti: avvio del Consorzio dell’Istituto per la sicurezza dell’IA

Il National Institute of Standards and Technology (NIST) degli Stati Uniti e il Dipartimento del Commercio hanno avviato il Consorzio dell’Istituto per la Sicurezza dell’IA. Questo consorzio è una risposta all’ordine esecutivo emesso dal Presidente degli Stati Uniti che stabilisce nuovi standard per la sicurezza e la protezione dell’IA.

24 Novembre 2023 - 12:00

Ti spieghiamo come rendere efficace e sostenibile la tua strategia cyber

Lo scopo di questa collaborazione è creare e implementare politiche e misurazioni che pongono al centro l’approccio centrato sull’essere umano alla sicurezza e alla governance dell’IA.

I collaboratori in questo consorzio sono chiamati a partecipare a varie attività, tra cui lo sviluppo di strumenti di misurazione, raccomandazioni politiche, analisi dei rischi, psicoanalisi e analisi ambientale.

Questo approccio multilaterale coinvolge organizzazioni non-profit, università, agenzie governative e aziende tecnologiche che lavorano insieme per garantire che i sistemi di IA siano sicuri e affidabili.

L’obiettivo dell’Istituto per la sicurezza dell’IA degli Stati Uniti è migliorare la misurazione dell’IA, rafforzare le basi scientifiche della sicurezza dell’IA e fornire orientamenti per la valutazione e la convalida dei sistemi di IA. Si basa sul Framework di Gestione del Rischio dell’IA (AI RMF) rilasciato dal NIST, offrendo una risorsa volontaria per gestire efficacemente i rischi dei sistemi di IA.

Regno Unito: un passo avanti con l’Istituto per la sicurezza dell’IA

Il Regno Unito ha compiuto progressi significativi nella sicurezza dell’IA. Il paese ha annunciato l’istituzione del primo Istituto per la Sicurezza dell’IA al mondo, un centro globale per valutare i pericoli delle tecnologie emergenti di IA

Questa iniziativa segue quattro mesi di sforzi dedicati da parte del Frontier AI Taskforce, che è stato trasformato nell’Istituto per la sicurezza dell’IA.

L’Istituto per la sicurezza dell’IA del Regno Unito è supportato da leader dell’industria, esperti in sicurezza nazionale e organizzazioni, tra cui OpenAI, DeepMind e l’Imperial College di Londra.

Questa collaborazione internazionale, con partner come Giappone, Canada e il Governo di Singapore, posiziona il Regno Unito come un leader nella ricerca sulla sicurezza dell’IA.

Come gli Istituti per la sicurezza dell’IA affrontano i rischi

Il ruolo principale di questi Istituti per la Sicurezza dell’IA è valutare e mitigare i rischi associati ai modelli di IA all’avanguardia

Questi istituti collaboreranno strettamente con organizzazioni e il mondo accademico per sviluppare strumenti tecnici, stabilire standard di sicurezza e fornire ambienti di prova per i rischi dell’IA. Affronteranno vari rischi, dalla parzialità e disinformazione ai rischi estremi, in cui l’IA potrebbe potenzialmente causare danni.

Gli Istituti mirano a prevenire i rischi sociali legati all’IA e assicurarsi che i modelli di IA siano sviluppati in modo sicuro. Ciò include l’analisi dei dati utilizzati per addestrare i sistemi di IA per la parzialità e il monitoraggio per evitare l’autoregolamentazione da parte degli sviluppatori di IA.

Collaborazione internazionale

Gli Istituti per la sicurezza dell’IA degli Stati Uniti e del Regno Unito pianificano di lavorare strettamente insieme, condividendo informazioni sui rischi derivanti dai rispettivi modelli di IA. Questo approccio collaborativo è fondamentale per affrontare in modo efficace le sfide globali della sicurezza dell’IA.

Altri paesi stanno anche valutando l’istituzione di Istituti nazionali per la sicurezza dell’IA.

L’Unione Europea sta esplorando una “struttura permanente di ricerca” nell’ambito del suo AI Act, mentre paesi come Francia e Canada stanno lanciando centri di competenza per collaborare con gli istituti del Regno Unito e degli Stati Uniti.

Conclusione

L’istituzione degli Istituti per la sicurezza dell’IA negli Stati Uniti e nel Regno Unito segna un passo significativo verso la garanzia di uno sviluppo responsabile dell’IA.

Questi istituti sono all’avanguardia nella valutazione dei rischi dell’IA e nell’istituzione di standard internazionali per la sicurezza dell’IA.

Con il supporto di partner globali, mirano a promuovere lo sviluppo sicuro ed equo della tecnologia dell’IA, favorendo la fiducia pubblica e la collaborazione globale nella comunità dell’IA.

Piano di gestione degli incidenti Cyber: come strutturarlo e aggiornarlo

@RIPRODUZIONE RISERVATA


文章来源: https://www.cybersecurity360.it/soluzioni-aziendali/sviluppo-responsabile-dellia-cosi-usa-e-regno-unito-provano-a-valutare-e-mitigare-i-rischi/
如有侵权请联系:admin#unsafe.sh