AI Act: Le Regole Europee per l'Intelligenza Artificiale
L'AI Act è considerata la prima legge al mondo che vieta alcuni usi dell'intelligenza artificiale (IA) e stabilisce salvaguardie contro i sistemi di IA ad alto rischio nei 27 paesi membri dell'Unione Europea.
Il testo è stato adottato senza modifiche e prevede misure per limitare l'uso del riconoscimento facciale. I negoziati interistituzionali sono stati avviati immediatamente dopo l'adozione della legge.
Nell'era dell'innovazione tecnologica, l'intelligenza artificiale sta rivoluzionando rapidamente il nostro mondo. Tuttavia, insieme al suo enorme potenziale, sorgono anche rischi significativi che richiedono una regolamentazione adeguata da parte dell'UE.
È emerso chiaramente dal nostro recente passato che i sistemi di IA non regolamentati possono causare danni significativi. I social media hanno influenzato le elezioni democratiche, minacciato la salute pubblica durante la pandemia e contribuito a problemi di salute mentale tra i giovani. Con l'avvento di strumenti di IA generativa come ChatGPT e tecnologie come il Metaverso, i danni causati dagli algoritmi sono diventati ancora più gravi. Queste minacce sono particolarmente urgenti in vista delle prossime elezioni, poiché c'è il rischio di interferenze senza precedenti che minacciano la stabilità democratica.
Ci troviamo all'inizio di un'era di innovazione tecnologica in cui strumenti di intelligenza artificiale generativa sono accessibili a tutti e possono diffondere disinformazione, violare dati e diritti di proprietà intellettuale, perpetuare discriminazioni e pregiudizi e agevolare attività illegali come il furto d'identità. Il rapido sviluppo di tali sistemi senza adeguate misure di salvaguardia, responsabilità e trasparenza rappresenta una minaccia significativa.
L'AI Act approvato dal Parlamento europeo prevede l'etichettatura obbligatoria dei contenuti generati da IA e richiede la divulgazione dei dati coperti da copyright utilizzati per addestrare modelli di IA generativa.
Nonostante alcune obiezioni, come quelle espresse dal presidente francese Emmanuel Macron, è fondamentale comprendere l'importanza di queste misure. Il problema dell'IA richiede un approccio coordinato a livello internazionale e la cooperazione con organizzazioni come il G7, l'OSCE e l'UNESCO. Solo attraverso un approccio multilaterale possiamo regolamentare efficacemente l'IA e prevenire il suo abuso.
È stato riconosciuto che la regolamentazione dell'IA non può limitarsi all'ambito europeo, ma richiede una risposta globale. Il CEO di OpenAI, Sam Altman, ha sostenuto la necessità di una regolamentazione globale dell'IA durante i suoi incontri con vari leader mondiali. Tuttavia, ci sono state anche preoccupazioni sulle proposte di OpenAI di ridurre gli oneri normativi nell'AI Act dell'UE.
Anche se l'AI Act dovesse essere adottato entro la fine dell'anno, diventerà effettivo solo nel 2025/2026. Nel frattempo, la Commissione europea sta promuovendo iniziative per anticipare le regole sull'IA e promuovere l'allineamento internazionale tra i membri del G7. L'AI Pact proposto dal commissario Breton si concentra su regole non vincolanti per le aziende europee di IA, mentre la commissaria Vestager ha proposto un codice di condotta volontario in collaborazione con gli Stati Uniti.
La regolamentazione è un passo cruciale, ma da sola non può risolvere il problema. È essenziale investire significativamente nella formazione e nell'istruzione digitale per cittadini, legislatori, aziende e professionisti al fine di garantire un futuro sicuro e sostenibile. Dobbiamo comprendere appieno il funzionamento dell'IA e utilizzarla in modo responsabile. La sicurezza del nostro futuro digitale e della nostra democrazia dipende da questo equilibrio delicato.