top of page

Artificial Intelligence: svolgere la Fundamental Rights Impact Assessments (FRIA) secondo il "metodo HUDERIA" proposto dal Committee on Artificial Intelligence (CAI)

Immagine del redattore: Himmel AdvisorsHimmel Advisors

Aggiornamento: 5 gen



Partiamo dalle basi: che cosa è il CAI?


Il Comitato per l'IA (CAI) è il centro delle competenze in materia di IA in tutta l'UE. Svolge un ruolo chiave nell'attuazione del Regolamento (UE) sull'IA, in particolare per l'IA generativa, promuovendo lo sviluppo e l'uso di un'IA affidabile e della cooperazione internazionale.


Il CAI è dotato di strumenti unici per sostenere l'approccio dell'UE all'IA. Svolge un ruolo chiave nell'attuazione della legge sull'IA sostenendo gli organi di governance degli Stati membri nei loro compiti. Applica le norme per i modelli di IA generativa. Ciò è sostenuto dai poteri conferiti alla Commissione dal Regolamento (UE) sull'IA, compresa la capacità di effettuare valutazioni dei modelli di IA, richiedere informazioni e misure ai fornitori di modelli e applicare sanzioni. Il CAI promuove inoltre un ecosistema innovativo di IA affidabile, per raccogliere i benefici sociali ed economici. Garantisce un approccio europeo strategico, coerente ed efficace all'IA a livello internazionale, diventando un punto di riferimento sia a livello europeo che globale.


Per un processo decisionale ben informato, il CAI collabora con gli Stati membri e la più ampia comunità di esperti attraverso forum e gruppi di esperti dedicati. Questi combinano le conoscenze della comunità scientifica, dell'industria, dei gruppi di lavoro, della società civile in generale e delle risorse open source, garantendo che le loro opinioni e competenze siano prese in considerazione. Basato su approfondimenti completi dell'ecosistema dell'IA, compresi i progressi nelle capacità, nella diffusione e in altre tendenze, il CAI promuove una comprensione approfondita dei potenziali benefici e rischi.


Si parla del "metodo HUDERIA" del CAI


Recentemente, il Consiglio d'Europa ha ufficialmente espresso il proprio sostegno a un nuovo strumento mirato a fornire orientamenti e un approccio strutturato per l'esecuzione delle valutazioni dei rischi e degli impatti associati ai sistemi di Intelligenza Artificiale (IA).


L'art. 27 del Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio sull'intelligenza artificiale del 13 giugno 2024, stabilisce che, "prima di utilizzare un sistema di IA ad alto rischio di cui all'articolo 6, paragrafo 2, ad eccezione dei sistemi di IA ad alto rischio destinati a essere usati nel settore elencati nell'allegato III, punto 2, i deployer che sono organismi di diritto pubblico o sono enti privati che forniscono servizi pubblici e i deployer di sistemi di IA ad alto rischio di cui all'allegato III, punto 5, lettere b) e c), effettuano una valutazione dell'impatto sui diritti fondamentali che l'uso di tale sistema può produrre".


La valutazione di impatto che i deployer o titolari devono effettuare nell'ambito dei trattamenti di dati personali per cui si avvalgono di sistemi di AI ad alto rischio (e non solo) riceve il nome di "FRIA" (Fundamental Rights Impact Assessments). Tale strumento, proposto nell’ambito del regolamento AI Act, ha come obiettivo quello di valutare l’impatto dei sistemi di Intelligenza Artificiale sui diritti fondamentali. La valutazione d'impatto relativa all'Intelligenza Artificiale deve concentrarsi non esclusivamente sui dati personali, ma anche, in maniera più ampia, sui diritti fondamentali, comprendendo dignità e integrità umane, libertà individuali, uguaglianza e solidarietà, giustizia, democrazia, lo stato di diritto e la tutela ambientale. In riferimento alla FRIA, è imprescindibile che tale valutazione venga effettuata in una fase preventiva, antecedente l'introduzione sul mercato o l'utilizzo in contesti critici di un sistema di Intelligenza Artificiale, quali, a titolo esemplificativo, il riconoscimento facciale, l'analisi predittiva e la ricerca scientifica.


Al fine di coadiuvare i deployer ovvero i titolari interessati ad utilizzare sistemi di AI, il CAI ha pubblicato recentemente nel mese di novembre 2024 il documento intitolato "Methodology for the Risk and Impact Assessment of Artificial Intelligence Systems from the Point of View of Human Rights, Democracy and the Rule of Law (Huderia Methodology)".


Il suddetto metodo non si rivela utile soltanto per i titolari o i soggetti responsabili dell'implementazione, bensì anche per i Data Protection Officer, i quali, durante la fase di valutazione, possono essere chiamati a partecipare attivamente al processo valutativo e sono chiamati a esprimere un parere riguardo al trattamento dei dati personali implicato nel sistema di Intelligenza Artificiale in uso.


Link qui per scaricare la metodologia


Secondo il CAI, la metodologia HUDERIA è stata specificamente adattata alla protezione e alla promozione dei diritti umani, della democrazia e dello Stato di diritto. Può essere utilizzata da attori sia pubblici che privati per identificare e affrontare i rischi e l’impatto sui diritti umani, sulla democrazia e sullo Stato di diritto nell’intero ciclo di vita dei sistemi di IA.


In ogni circostanza, il metodo proposto dal Comitato per l'Intelligenza Artificiale (CAI) dovrebbe essere valutato dal Chief AI Officer, dal Data Protection Officer o dal Privacy Officer prima della sua adozione, in quanto potrebbe risultare applicabile parzialmente. Inoltre, i soggetti coinvolti nella FRIA hanno pertanto il dovere non solo di considerare i passaggi previsti dalla metodologia del CAI, ma anche di intervenire nella valutazione di ulteriori normative applicabili, comprese quelle di dettaglio (sia in ambito privacy che in altri ambiti), per comprendere in maniera esaustiva i potenziali rischi connessi all'impiego di un sistema di Intelligenza Artificiale (ad alto rischio e non). La metodologia HUDERIA non fornisce un risultato definitivo, ma si presenta come una guida destinata ad orientare i responsabili dell'implementazione, approvazione e gestione di un sistema di AI prima dell'utilizzo.


I punti salienti della metodologia Huderia


Probabilmente la parte più interessante della metodologia Huderia è quella relativa al "Stakeholder Engagement Process (SEP)".


Secondo il CAI, "la possibilità di eseguire questa fase può essere presa in considerazione per migliorare la qualità delle informazioni da raccogliere", quale elemento successivo fondamentale per la conduzione di una valutazione di impatto. Tale processo permetterebbe di incorporare i punti di vista dei soggetti potenzialmente interessati, compresi quelli in situazioni vulnerabili. Il coinvolgimento delle parti interessate, come indicato nella Metodologia HUDERIA, può assumere varie forme. Il livello di partecipazione delle persone colpite deve essere informato dai fattori di rischio e dagli impatti potenziali ed effettivi identificati. Inoltre, il coinvolgimento delle parti interessate durante l'intero ciclo di vita del sistema di IA può offrire una serie di vantaggi aggiuntivi, come la promozione della trasparenza (particolarmente nel settore pubblico), il mantenimento della fiducia e il miglioramento dell'usabilità e delle prestazioni del sistema di IA, anche in futuro.


Hai ancora dubbi? Ecco il nostro servizio in materia Artificial Intelligence


bottom of page