Approfondimenti

AI Act: il nuovo regolamento europeo sull’Intelligenza Artificiale

Social scoring, ChatGPT, Midjourney, riconoscimento facciale… non passa giorno in cui non si parli di uno di questi argomenti. L’Intelligenza Artificiale non è una moda passeggera, ma una realtà che si sta sviluppando velocemente e che sta già impattando sul nostro modo di vivere. Proprio per questo il Parlamento Europeo attraverso l’AI Act mira a regolarne l’utilizzo. Vediamo meglio di cosa si tratta!

Cos’è l’AI Act

L’AI Act è stato proposto dalla Commissione Ue nell’aprile del 2021. Sono seguiti due anni di discussioni e modifiche ma adesso il Parlamento europeo sarà chiamato a votarlo e tutto fa pensare che l’AI Act verrà approvato. Se così fosse si tratterebbe della prima legge al mondo a regolamentare l’Intelligenza Artificiale in maniera completa e strutturale.
Negli scorsi anni, in Europa si sono susseguiti diversi documenti, raccomandazioni, valutazioni e linee guida riguardanti l’IA e le opportunità e rischi ad essa associati. In particolare, nel 2020 è stato pubblicato il Libro Bianco sull’Intelligenza Artificiale, documento attraverso il quale è stato presentato e formalizzato il cosiddetto “approccio europeo all’eccellenza e alla fiducia”.
L’AI Act intende racchiudere ed armonizzare gli sforzi sin ora compiuti. Quello su cui il Parlamento Europeo sarà chiamato a pronunciarsi è quindi un insieme di regole che mirano a tutelare i diritti del cittadino, imponendo un approccio “umano-centrico” a chiunque sviluppi o utilizzi sistemi di Intelligenza Artificiale. Si darà quindi una definizione precisa di IA, si creerà un elenco di attività e tecniche che le IA non potranno utilizzare (come l’uso di tecniche subliminali), e un altro dedicato invece a quelle attività considerate “ad alto rischio”, ovvero che possono avere conseguenze anche gravi in vari ambiti.
Scopo ultimo della normativa è quello di assicurare che i sistemi di IA immessi sul mercato dell’Unione siano sicuri e rispettino i diritti dei cittadini. Ma non solo. L’AI Act prevede infatti una serie di regole per facilitare gli investimenti e l’innovazione nell’Intelligenza Artificiale e per creare i presupposti per lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili.

L’ECAT

Come è facile immaginare, non si tratta di un lavoro semplice. Il concetto stesso di Intelligenza Artificiale è ancora vago e comunque in continuo mutamento. Non basterà quindi creare un regolamento normativo, ma sarà necessario aggiornarlo costantemente, valutare – giorno dopo giorno – le evoluzioni tecnologiche e le loro ripercussioni sulla vita delle persone. Anche per questo, il 18 aprile è stato inaugurato a Siviglia l’European Centre for Algorithmic Transparency (ECAT), un Centro che contribuirà a definire la strategia comunitaria sul digitale, e che avrà il compito di studiare il funzionamento dell’Intelligenza Artificiale di oggi e di domani.
Scopo dell’ECAT sarà duplice: da una parte supportare il Parlamento Europeo individuando eventuali rischi derivanti dal mondo digitale; dall’altra stilare delle linee guida che gli sviluppatori dovranno seguire per creare dei sistemi di IA approvabili e utilizzabili all’interno dell’Unione Europea e – più in generale – per rispettare i principi racchiusi nel Digital Services Act (DSA).

L’approccio europeo: eccellenza e fiducia

Sia l’AI Act che il lavoro dell’ECAT si basano sul cosiddetto “approccio europeo” all’Intelligenza Artificiale. Questo si suddivide in due principi: quello dell’eccellenza e quello della fiducia. Se sino ad ora abbiamo detto che uno degli obiettivi dell’UE è quello di garantire i diritti dei cittadini, infatti, questo non significa che si lavori per arginare lo sviluppo dell’IA. Tutt’altro. La Commissione Europea ha anzi proposto una serie di azioni volte a promuovere l’eccellenza e la diffusione dell’IA in Europa, tanto da voler rendere l’UE un luogo in cui l’Intelligenza Artificiale possa prosperare. È questo il principio dell’eccellenza, che si concretizza poi in una coordinazione di lavoro e finanziamenti che vogliono far diventare l’Europa un leader globale nel campo.
Vi è poi il concetto di fiducia. Perché l’IA possa effettivamente entrare a far parte delle nostre vite e arrivi a portare i benefici previsti, è necessario che i cittadini e le aziende si fidino a utilizzarla. Perché questo accada, però, è necessario non solo lavorare sulla qualità degli output prodotti (cosa che riporta all’eccellenza), ma anche a una serie di strumenti che regolino i rischi e le responsabilità derivanti dall’uso dell’Intelligenza Artificiale. Un quadro giuridico, quindi, capace di proporre un approccio di facile comprensione, sia agli utenti che agli sviluppatori, in cui spiegare in maniera chiara gli standard di sviluppo da una parte e i rischi nell’utilizzo dall’altra. Vi è poi un altro tassello da aggiungere per poter parlare di fiducia: che le persone sappiano utilizzare in maniera corretta le Intelligenze Artificiali. È solo con l’aumento e lo sviluppo delle competenze digitali dei cittadini europei – già obiettivo dell’iniziativa DigComp – che si potrà ottenere una reale fiducia negli strumenti utilizzati.

Classificazione dei rischi

Uno degli obiettivi dell’AI Act è quello di individuare i profili di rischio nell’utilizzo delle Intelligenze Artificiali. Se la normativa verrà approvata, infatti, verrà introdotto un sistema univoco di classificazione, suddiviso in 4 livelli di rischio (inaccettabile, elevato, limitato e minimo), di modo che gli sviluppatori e le aziende possano valutare se e come procedere nell’implementazione delle IA.

1) Rischio inaccettabile

In questa categoria rientrano tutti i sistemi di IA che possono costituire una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone, che possono manipolare il comportamento umano, nel tentativo di aggirare il libero arbitrio, o che consentono di attribuire un “punteggio sociale” da parte dei governi. Tutti i sistemi che possono rientrare in questo livello di rischio sono espressamente vietati all’interno dell’Unione Europea.

2) Rischio elevato

La seconda categoria è invece quella dei rischi elevati. In questa rientreranno tutti quei sistemi che possono impattare in maniera importante sulla vita delle persone. Esempi possono essere infrastrutture critiche dotate di IA (come strade o autoveicoli smart), sistemi in grado di determinare l’accesso all’istruzione e il percorso professionale di una persona (ad esempio software in grado di leggere e selezionare i CV), o quelli applicati a servizi pubblici o privati essenziali (come programmi di analisi e scoring del credito), nonché tutti i sistemi di identificazione biometrica remota (come le telecamere con identificazione in tempo reale). Tutti questi sistemi non saranno vietati, ma saranno soggetti a obblighi rigorosi, con adeguati sistemi di valutazione e attenuazione dei rischi e appropriate misure di sorveglianza umana.

3) Rischio limitato

Questa categoria comprende tutti quei sistemi che richiedono soprattutto trasparenza nei confronti degli utenti. I chatbot, ad esempio, sono sistemi dotati di Intelligenza Artificiale, ma è necessario che l’utente che lo usi sappia, sia consapevole, di star parlando con una macchina.

4) Rischio minimo

Tutti quei sistemi che invece non presentano problematiche (ad esempio filtri spam e videogiochi), rientreranno nell’ultima categoria, quella dei rischi minimi.

Un aiuto alla regolamentazione: il capAI

Un aiuto alle imprese che vogliono utilizzare le Intelligenze Artificiali, verrà anche dal mondo accademico e in particolare dall’Università di Bologna e da quella di Oxford. I ricercatori dei due Atenei, infatti, tra cui citiamo anche il Professor Luciano Floridi direttore del Centro per l’Etica Digitale (CEDE) dell’Università di Bologna e docente all’Oxford Internet Institute, hanno creato capAI (conformity assessment procedure for AI, qui la versione sempre aggiornata), una particolare procedura che permetterà alle aziende di valutare i loro sistemi di Intelligenza Artificiale e adeguarsi alla legislazione europea. CapAI ha un duplice scopo: da una parte monitorare il lavoro delle AI, mitigandone i rischi e prevenendo così eventuali danni; dall’altro fornire una scheda di valutazione che è possibile far avere ai propri clienti per combattere pregiudizi e contrastare la mancanza di fiducia.

I sistemi di Intelligenza Artificiale evolvono e si diffondono sempre più rapidamente. Conoscere come l’Europa si sta muovendo in termini di regolamentazione significa comprendere quali sono i punti fermi che influenzeranno sviluppi ed azioni future.

Continua ad approfondire, leggi altri articoli Skilla!

Scritto da: Nicola Della Pergola e Arianna Meroni il 26 Aprile 2023

Potrebbe interessarti anche

© Copyright 2023 Amicucci Formazione | P.IVA 01405830439 | Cap. Soc.: Euro 100.000,00 (i.v.) | C.C.I.A.A. (Macerata) | R.E.A. (149815) | Privacy policy | Cookie policy | Etica e compliance