Giornale Online Direttore Paolo Centofanti

Diritti e inclusione

L’Europa approva la Legge sull’Intelligenza Artificiale, per un futuro sicuro e innovativo

Tra divieti mirati e promozione dell’innovazione, il regolamento approvato dal Parlamento europeo mira a garantire una IA etica e al servizio dell’uomo.

Il Parlamento europeo ha recentemente approvato una legge pionieristica sull’intelligenza artificiale (IA), ponendo le basi per un quadro normativo che mira a garantire sicurezza, rispetto dei diritti fondamentali e promozione dell’innovazione in questo campo. Questo regolamento, frutto di un accordo con gli Stati membri raggiunto nel dicembre 2023, è stato approvato con una larga maggioranza di 523 voti favorevoli, evidenziando un forte consenso trasversale.

La nuova legislazione ha l’ambizione di stabilire un equilibrio tra la protezione dei cittadini europei da potenziali rischi legati all’uso di sistemi di IA ad alto rischio e la promozione dell’innovazione tecnologica, assicurando all’Europa una posizione di leadership globale nel settore dell’IA. Tra gli obiettivi principali ci sono la tutela dei diritti fondamentali, la salvaguardia della democrazia e dello stato di diritto, nonché la promozione della sostenibilità ambientale.

La legge introduce specifiche restrizioni e divieti per l’uso di alcune applicazioni di IA ritenute pericolose o eticamente discutibili, come i sistemi di riconoscimento facciale indiscriminato, il riconoscimento delle emozioni in contesti lavorativi e scolastici, i sistemi di credito sociale simili a quelli in uso in alcune parti del mondo, e le pratiche di polizia predittiva basate esclusivamente su profilazione. Inoltre, è prevista una stretta regolamentazione sull’uso dei sistemi di identificazione biometrica da parte delle forze dell’ordine, ammessi solo in circostanze eccezionali e sotto strette condizioni.

I sistemi di IA classificati come ad alto rischio, per esempio quelli utilizzati in ambiti critici come la sanità, l’istruzione, la giustizia e la gestione delle infrastrutture, dovranno soddisfare requisiti rigorosi. Questi includono l’obbligo di valutare e mitigare i rischi, mantenere registri d’uso dettagliati, assicurare trasparenza e precisione nelle loro operazioni e garantire un livello adeguato di sorveglianza umana.

Per quanto riguarda i sistemi di IA di uso generale, si richiederà una particolare attenzione alla trasparenza e al rispetto delle normative sull’autore durante le fasi di addestramento dei modelli. Inoltre, la legge prevede che tutte le immagini, i contenuti audio o video generati artificialmente o manipolati (i cosiddetti “deepfake”) siano chiaramente etichettati come tali.

La legge si propone anche di sostenere l’innovazione e le piccole e medie imprese (PMI) attraverso l’istituzione di spazi di sperimentazione normativa e meccanismi di prova in condizioni reali, noti come “sandbox”, che permetteranno alle start-up e alle PMI di sviluppare e testare nuovi sistemi di IA prima del loro ingresso sul mercato.

Infine, la legge risponde anche alle richieste emerse durante la Conferenza sul futuro dell’Europa, riflettendo l’impegno dell’UE a promuovere un utilizzo dell’IA che sia sicuro, affidabile e allineato con i valori e i principi fondamentali europei. La prossima adozione definitiva e l’entrata in vigore rappresenteranno un passo significativo verso un nuovo modello di governance tecnologica, ponendo le basi per un futuro in cui l’IA possa essere utilizzata in modo responsabile e benefico per la società nel suo insieme.

Fonte LavoroIA – LavoroIntelligenzaArtificiale.

Comments

comments