Primo accordo mondiale sull’intelligenza artificiale

Unione europea Regno Unito, Stati Uniti, Cina e i governi di altri 25 paesi hanno sottoscritto la prima dichiarazione mondiale sui rischi derivanti dall’intelligenza artificiale.

È la pietra angolare di un nuovo ordine globale sull’intelligenza artificiale. La “Dichiarazione di Bletchley Park” è l’accordo mondiale per regolare il vertiginoso sviluppo della IA: un documento intergovernativo firmato dai delegati di ventotto Paesi – tra cui Stati Uniti, Cina e i governi dell’Unione europea – che hanno concordato di lavorare insieme per contenere i rischi potenzialmente catastrofici posti dai progressi sempre più rapidi dell’intelligenza artificiale. l’AI Safe Summit, fortemente voluto dal premier britannico Rishi Sunak, si è tenuto a Bletchley Park, località alle porte di Londra dove durante la seconda guerra mondiale furono decifrati i messaggi in codice utilizzati dalla Germania nazista con la macchina Enigma. Lo sviluppo sicuro delle tecnologie AI è stato il tema al centro delle discussioni. Dedicano attenzione alla notizia della Conferenza tutti i principali organi di stampa, compresi magazine molto attenti alla digital transformation come Wired, che ha pubblicato un suo articolo lo scorso 2 novembre: “Molti rischi posti dall’intelligenza artificiale sono di natura intrinsecamente transnazionale e quindi possono essere affrontati al meglio solo attraverso la cooperazione internazionale. Decidiamo di lavorare insieme in modo inclusivo per garantire lo sviluppo di un’intelligenza artificiale affidabile e responsabile, che sia sicura, sostenga il bene di tutti e abbia al suo centro il benessere dell’umanità”, si legge nel testo della dichiarazione. Tra questi rischi, la dichiarazione ne elenca alcuni che possono avere un impatto significativo anche nella vita di tutti i giorni, potendo mettere in pericolo i diritti umani, la protezione della privacy e dei dati personali, la trasparenza e la responsabilità delle istituzioni o l’affidabilità della stampa, così come contribuire ad aumentare i pregiudizi o le diseguaglianze.

Come sottolineato nell’articolo, l’obiettivo finale è di arrivare a tutelare l’intera umanità da questi pericoli tramite lo sviluppo di “politiche basate sull’individuazione del rischio, volte a garantire“la sicurezza globale e nei diversi paesi”,ma implementate attraverso la collaborazione e il riconoscimento delle differenze dovute“alle circostanze nazionali e ai quadri giuridici applicabili”. Per farlo, si legge sempre nell’articolo sarà necessario pretendere una “maggiore trasparenza da parte degli attori privati che sviluppano le intelligenze artificiale”, aumentare gli strumenti per “la verifica della sicurezza”, sviluppare“parametri di valutazione adeguati e standardizzati” e aumentare la presenza degli stati nel settore, attraverso la creazione di centri di ricerca e sviluppo pubbliciche studino l’intelligenza artificiale. Da ricordare che alla conferenza hanno partecipato anche dirigenti di aziende leader nel settore della tecnologia e dell’intelligenza artificiale, tra cui Anthropic, Google DeepMind, Ibm, Meta, Microsoft, Nvidia, OpenAI, Tencent, Elon Musk di X .

I dubbi maggiori, hanno affermato diversi osservatori presenti alla Conferenza, riguardano la capacità degli Stati di dare seguito a questo approccio collaborativo, renderlo davvero efficace e operativo, non solo di facciata. Alcuni analisti ritengono che la conferenza possa essere più simbolica che sostanziale dal momento che molti governi stanno andando avanti con proprie leggi e regolamenti.