Il Consiglio dell’UE ha dato il via libera alla legge sull’intelligenza artificiale, segnando l’introduzione di un quadro normativo pionieristico per l’intelligenza artificiale in tutta Europa. Questa legislazione, descritta dalla Commissione Europea (CE) come un “approccio basato sul rischio”, mira a imporre norme più severe sui prodotti di intelligenza artificiale che comportano rischi maggiori per la società. L’obiettivo della CE è garantire che le tecnologie di intelligenza artificiale siano sicure e trasparenti.

Regolamentazione dei sistemi di IA ad alto rischio

I sistemi di IA classificati come ad alto rischio, come quelli utilizzati nei settori critici e nelle forze dell’ordine, saranno soggetti a una supervisione rigorosa. Questi sistemi dovranno essere sottoposti a controlli regolari, superare valutazioni di impatto sui diritti fondamentali ed essere registrati in un database centrale. Mathieu Michel, segretario di Stato belga per la digitalizzazione, ha sottolineato che la legge sull’intelligenza artificiale enfatizza la fiducia, la trasparenza e la responsabilità , sostenendo al tempo stesso l’innovazione in Europa.

Pratiche di intelligenza artificiale vietate

La legge sull’intelligenza artificiale vieta esplicitamente diverse pratiche di intelligenza artificiale ritenute troppo rischiose, tra cui la manipolazione cognitivo comportamentale. social scoring e polizia predittiva basata sulla profilazione. Inoltre, sono vietati i sistemi che classificano gli individui in base alla razza, alla religione o all’orientamento sessuale. La legge copre anche la futura potenziale intelligenza generale artificiale (AGI), ma prevede esenzioni per applicazioni militari, di difesa e di ricerca.

Attuazione e conformità globale

La legge, che entrerà in vigore tra due anni, prevede disposizioni per la creazione di nuovi uffici amministrativi e gruppi di esperti per supervisionarne l’attuazione. La non conformità comporterà sanzioni calcolate come percentuale del fatturato annuo globale o come importo predeterminato, a seconda di quale sia il più elevato. Anche le aziende al di fuori dell’UE che utilizzano i dati dei clienti europei nelle loro piattaforme di intelligenza artificiale dovranno conformarsi a queste nuove normative. L’avvocato Patrick van Eecke ha sottolineato che altri paesi potrebbero adottare quadri simili, simili al regolamento generale sulla protezione dei dati (GDPR).

Iniziative per la sicurezza dell’intelligenza artificiale del Regno Unito

In uno sviluppo correlato, il Regno Unito e la Corea del Sud hanno ottenuto l’impegno di 16 aziende globali di intelligenza artificiale, tra cui Amazon, Google, IBM, Microsoft e Meta, per sviluppare modelli di intelligenza artificiale sicuri. Queste aziende hanno accettato di valutare i rischi dei loro ultimi modelli e di astenersi dal rilasciarli se il rischio di uso improprio è troppo alto. Il presente accordo si basa sulla Dichiarazione di Bletchley firmata lo scorso anno e mira a garantire trasparenza e responsabilità nello sviluppo dell’IA, secondo il primo ministro britannico Rishi Sunak. Tuttavia, questo accordo non è giuridicamente vincolante.

La legge sull’intelligenza artificiale dell’UE rappresenta un passo importante nella regolamentazione delle tecnologie di intelligenza artificiale, concentrandosi sulla sicurezza e sulla trasparenza e incoraggiando al tempo stesso l’innovazione. Si prevede che le implicazioni della legge si estenderanno oltre l’Europa, influenzando potenzialmente la regolamentazione dell’IA su scala globale.

Categories: IT Info