IA ad alto rischio (Capo III AI Act)
Con l’entrata in vigore dell’Artificial Intelligence Act (AI Act) il 1° Agosto 2024, l’Unione Europea ha voluto aggiungere un nuovo tassello alla creazione di un ambiente digitale sicuro. Tale obiettivo rientra, del resto, tra le sei priorità individuate dalla Commissione Europea per il periodo 2019-2024. L’Unione mira a beneficiare del pieno potenziale della rivoluzione digitale, garantendo al contempo elevati standard di rispetto per la salute, la sicurezza e i diritti fondamentali delle persone.
In questo quadro si inserisce l’AI Act che si propone di orientare lo sviluppo e l’uso dei sistemi di intelligenza artificiale affinché essi risultino sicuri e affidabili (secure and trustworthy, Considerando 8). Per perseguire tale finalità, il legislatore europeo ha scelto consapevolmente di ricorrere a uno strumento legislativo vincolante, piuttosto che promuovere codici di comportamento e soft laws, tradizionali metodi usati da paesi produttori di IA. Come evidenziato già dal mondo accademico, questa scelta risulta pienamente comprensibile solo se collocata nel panorama geopolitico contemporaneo: la rivoluzione digitale è guidata prevalentemente da aziende americane e cinesi, i cui stati hanno la forza di dirigere indirettamente le strategie industriali. L’Unione Europea, al contrario, si trova in posizione di relativo svantaggio e rischia sempre più di subire le decisioni imposte dalle grandi multinazionali tecnologiche.
In tale scenario, il ricorso ad una legge vincolante appare come l’unico strumento efficace per far valere i propri interessi.
Per comprendere in modo più preciso quali siano tali interessi, è utile analizzare brevemente la struttura dell’AI Act. Seguendo l’interpretazione proposta da Palmirotto (F. Palmiotto, “The AI Act Roller Coaster: The Evolution of Fundamental Rights Protection in the Legislative Process and the Future of the Regulation”, European Journal of Risk Regulation. 2025;16(2):770-793), il regolamento può essere inteso come una legge ibrida, a metà strada tra una normativa sul mercato interno e una sui diritti fondamentali. Tale impostazione emerge chiaramente già dall’articolo 1, che stabilisce: “Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno e promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea”.
In effetti, l’AI Act segue una struttura in parte analoga a quelle delle normative sui prodotti pericolosi, imponendo ai produttori il rispetto di standard e specifici requisiti. Tuttavia, se ne discosta in modo significativo con riferimento alla natura dei danni presi in considerazione: i rischi associati ai sistemi di IA non si esauriscono nei tradizionali criteri di salute e sicurezza, ma possono giungere persino a minacciare i diritti fondamentali delle persone.
I sistemi di intelligenza artificiale infatti sono tecnologie che promettono un’ampia “gamma di benefici a livello economico, ambientale e sociale nell’intero spettro delle attività industriali e sociali” (Considerando 4) ma che, sopratutto quando usate in processi decisionali, possono alimentare fenomeni discriminatori o contribuire alla creazione e al consolidamento di ineguaglianze sociali.
Proprio il riconoscimento di questa ambivalenza ha portato il legislatore europeo ad assumere il rischio come concetto cardine del regolamento, definito come “la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso” (art. 3(2)), in relazione alla salute, la sicurezza e i diritti fondamentali. È sulla base di tale nozione che la legge introduce una classificazione dei sistemi di IA in quattro categorie: sistemi a rischio inaccettabile, sistemi ad alto rischio, sistemi a rischio limitato e sistemi a rischio minimo.
Tale tassonomia si inserisce coerentemente nella duplice finalità del regolamento, la promozione del mercato interno e la tutela dei diritti fondamentali, attraverso l’adozione di un approccio basato sul rischio. Come chiarito dal Considerando 26: “Al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA è opportuno avvalersi di un approccio basato sul rischio definito in modo chiaro. Tale approccio dovrebbe adattare la tipologia e il contenuto di dette regole all’intensità e alla portata dei rischi che possono essere generati dai sistemi di IA”. L’approccio risk-based, già adottato dall’Unione in ambiti quali la protezione dei dati, consente di modulare gli obblighi a carico dei fornitori di IA in funzione del livello di rischio generato: maggiore è il rischio, più stringenti sono gli obblighi e le responsabilità.
Alla luce di questo approccio, risulta evidente il motivo per cui la parte più consistente del regolamento è dedicata ai sistemi IA ad alto rischio.
Se, da un lato, l’uso di sistemi a rischio inaccettabile è vietato in quanto eccessivamente invasivo nei confronti dei diritti fondamentali, dall’altro i sistemi ad alto rischio rappresentano la categoria in cui il legislatore ha ritenuto possibile consentire l’impiego, a condizione che l’utilizzo sia sottoposto a rigorosi requisiti volti a prevenire pericoli per la salute, la sicurezza e il pieno godimento dei diritti fondamentali.
Prima di analizzare i criteri utilizzati dal regolamento per qualificare un sistema di IA come “ad alto rischio”, è opportuno chiarire un punto spesso frainteso: la classificazione di un sistema in questa categoria non equivale a una legittimazione del suo utilizzo. Come precisato dal Considerando 63: “Il fatto che un sistema di IA sia classificato come sistema di IA ad alto rischio a norma del presente regolamento non dovrebbe essere interpretato come un’indicazione del fatto che l’utilizzo del sistema sia lecito […] [I]l presente regolamento non dovrebbe essere inteso come un fondamento giuridico”. L’AI Act fornisce la cornice generale di requisiti e obblighi applicabili a tali sistemi, ma l’effettiva possibilità di impiegarli richiede sempre l’esistenza di una specifica base giuridica.
Chiarito questo punto, resta da comprendere in che modo il regolamento stabilisca quali sistemi rientrino nella categoria dei sistemi ad alto rischio. A questo riguardo, l’AI Act adotta un’impostazione peculiare: pur trattandosi di una categoria unitaria, la qualificazione di un sistema come “ad alto rischio” si fonda su un criterio articolato, definito da parte della letteratura accademica come “doppio criterio”.
Come emerge dall’articolo 6, dedicato alle “regole di classificazione dei sistemi di IA ad alto rischio”, rientrano in questa categoria, da un lato, i sistemi di IA utilizzati come prodotti o componenti di sicurezza di prodotti disciplinati da atti dell’Unione elencati nell’allegato I e soggetti a una valutazione della conformità da parte di terzi (art. 6(1)); dall’altro, i sistemi di IA elencati nell’allegato III (art. 6(2)). A partire da tale distinzione, le parti che seguono illustreranno nel dettaglio gli esempi di sistemi ad alto rischio contenuti negli allegati I e III, al fine di chiarire l’estensione e la portata della norma.
Sistemi di IA in prodotti pericolosi (art. 6(1))
La prima categoria di sistemi di IA ad alto rischio è individuata dall’articolo 6(1) dell’AI Act. Essa comprende i sistemi di IA che costituiscono prodotti soggetti alle normative europee di armonizzazione elencate all’allegato I, nonché quelli che operano come componenti di sicurezza di tali prodotti. Ne consegue che un sistema di IA è qualificato ad alto rischio quando rientra direttamente nell’ambito di applicazione di una delle normative indicate, oppure quando svolge la funzione di componente di sicurezza all’interno di un prodotto regolato.
Per normative europee di armonizzazione si intende un insieme di atti legislativi e standard tecnici adottati dall’Unione Europea al fine di uniformare le regole applicabili nei diversi Stati membri. Tali norme stabiliscono requisiti comuni che consentono la libera circolazione delle merci nel mercato interno: la conformità ad esse comporta il rispetto dei livelli di protezione richiesti in materia di salute e sicurezza.
In questo quadro, è utile soffermarsi sulla nozione di componente di sicurezza. L’AI Act fornisce una definizione all’articolo 3(14), secondo cui per componente di sicurezza si intende “un componente di un prodotto o di un sistema di IA che svolge una funzione di sicurezza per tale prodotto o sistema di IA o il cui guasto o malfunzionamento mette in pericolo la salute e la sicurezza di persone o beni”. Il legislatore ha quindi adottato una definizione ampia e funzionale che include i componenti il cui malfunzionamento può generare rischi per persone o oggetti, oltre a quelli progettati specificatamente per finalità di sicurezza.
L’articolo 6 chiarisce inoltre che, ai fini della classificazione di un sistema di IA come ad alto rischio, è irrilevante il fatto che il sistema sia immesso sul mercato insieme al prodotto di cui è componente di sicurezza oppure separatamente.
Per delineare con maggiore precisione l’ambito di applicazione di questa categoria, è quindi necessario esaminare le normative richiamate nell’allegato I. Quest’ultimo elenca venti regolamenti dell’Unione che fissano requisiti armonizzati, ossia regole tecniche comuni e uniformi applicabili in tutti gli Stati membri, volte a garantire un livello minimo e coerente di tutela della salute e della sicurezza e a prevenire la frammentazione normativa a livello nazionale che potrebbe ostacolare la libera circolazione delle merci. Tali normative riguardano: i macchinari, la sicurezza dei giocattoli, le imbarcazioni da diporto, gli ascensori, le apparecchiature destinate a essere utilizzate in atmosfere potenzialmente esplosive, le apparecchiature radio, le attrezzature a pressione, gli impianti a fune, i dispositivi di protezione individuale, gli apparecchi che bruciano combustibili gassosi, i dispositivi medici, la sicurezza dell’aviazione civile, i veicoli a due o tre ruote, i veicoli agricoli e forestali, le attrezzature marine, il sistema ferroviario, i veicoli a motore e i loro rimorchi e, infine, gli aeromobili.
Tuttavia l’appartenenza a una delle categorie di prodotti elencate nell’allegato I, o il fatto di costituirne un componente di sicurezza, non è di per sé sufficiente a determinare la qualificazione di un sistema di IA come ad alto rischio. L’articolo 6(1) richiede infatti che siano soddisfatti, contemporaneamente, due criteri. Oltre al requisito appena descritto, il sistema di IA deve essere soggetto a una valutazione di conformità da parte di terzi, prevista dalla normativa di armonizzazione applicabile, al fine di verificare il rispetto degli standard stabiliti. In certi casi, infatti, l’immissione sul mercato europeo di determinati prodotti è subordinata al superamento di una valutazione di conformità. Le normative richiamate nell’allegato I prevedono obblighi di livelli differenti a seconda del rischio associato ai prodotti: la valutazione di conformità da parte di organismi terzi rappresenta il livello più rigoroso di controllo ed è riservata ai prodotti che presentano rischi significativi per la salute e la sicurezza delle persone.
È importante, tuttavia, chiarire il rapporto tra il concetto di alto rischio delineato dall’AI Act e quello previsto dalle singole normative di armonizzazione. In alcuni casi, infatti, la valutazione di conformità da parte di terzi è richiesta anche per prodotti che, secondo la normativa settoriale di riferimento, sono classificati come a rischio medio. L’esempio più significativo, richiamato dallo stesso regolamento, è quello dei dispositivi medici, per i quali la valutazione di conformità da parte di terzi è necessaria anche in presenza di un livello di rischio medio.
In tale ipotesi, pur non essendo il prodotto qualificato come “ad alto rischio” ai sensi della normativa settoriale applicabile, il sistema di IA in esso integrato, o che ne costituisce una componente di sicurezza, sarà comunque classificato come sistema ad alto rischio ai fini dell’AI Act. Come esplicitamente espresso nel Considerando 51, la classificazione del sistema di IA come ad alto rischio ai sensi del regolamento non implica necessariamente che anche il prodotto nel suo complesso, o il sistema di IA in quanto prodotto, sia qualificato “ad alto rischio” secondo i criteri della normativa di armonizzazione dell’Unione applicabile al prodotto.
Sistemi IA inclusi nell’allegato III (art. 6(2))
Il paragrafo 2 dell’articolo 6 dell’AI Act introduce la seconda tipologia di sistemi di IA classificati come ad alto rischio. Il testo, a tal riguardo, è laconico, affermando solo che “oltre ai sistemi di IA ad alto rischio di cui al paragrafo 1, sono considerati ad alto rischio anche i sistemi di IA di cui all’allegato III”. Tale allegato, dedicato specificatamente ai sistemi riconducibili al paragrafo 2, individua otto settori di applicazione: biometria; infrastrutture critiche; istruzione e formazione professionale; occupazione, gestione dei lavoratori e accesso al lavoro autonomo; accesso a servizi privati essenziali e a prestazioni e servizi pubblici essenziali e fruizione degli stessi; attività di contrasto (law enforcement); migrazione, asilo e gestione del controllo delle frontiere; amministrazione della giustizia e dei processi democratici.
Per comprendere perché queste aree ricadano tra i contesti ad alto rischio, è utile richiamare il Considerando 52 del preambolo. Esso chiarisce che “per quanto riguarda i sistemi di IA indipendenti […] è opportuno classificarli come ad alto rischio se, alla luce della loro finalità prevista, presentano un alto rischio di pregiudicare la salute e la sicurezza o i diritti fondamentali delle persone, tenendo conto sia della gravità del possibile danno sia della probabilità che si verifichi, e sono utilizzati in una serie di settori specificamente predefiniti indicati nel presente regolamento”.
Dunque, rischio – definito dall’art. 3(2) come “la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso” – e finalità prevista – intesa dall’art. 3(12) come “l’uso di un sistema di IA previsto dal fornitore, compresi il contesto e le condizioni d’uso specifici” – sono gli elementi determinati che orientano la scelta delle aree indicate nell’allegato III.
A tal proposito, è interessante evidenziare la diversa impostazione tra la proposta originaria e il testo finale del regolamento. Infatti, nella bozza del 2021 la Commissione adottava un approccio “automatico”: la mera inclusione nell’allegato III determinava la qualificazione del sistema come ad alto rischio; questo era stato pensato anche per semplificare l’identificazione dei destinatari degli obblighi. Il testo finale, modificato dal Consiglio e dal Parlamento, ha però introdotto ulteriori precisazioni, tra cui il paragrafo 3 dell’articolo 6, che delimita questo automatismo.
Tale disposizione stabilisce che “in deroga al paragrafo 2, un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale”. In altre parole, se il sistema “non ha un impatto sulla sostanza, e quindi sull’esito, del processo decisionale” non rientra nella categoria dei sistemi ad alto rischio (Considerando 53).
Il regolamento esplicita inoltre i casi in cui un sistema, pur riconducibile all’allegato III, non è ritenuto rischioso: quando è destinato a svolgere un compito procedurale limitato; quando si limita a migliorare l’esito di una decisione già assunta dall’uomo; quando rileva schemi decisionali o deviazioni rispetto a modelli precedenti; oppure quando svolge attività meramente preparatoria. Il preambolo torna utile anche qui, chiarendo la portata concreta di queste eccezioni.
Per quanto riguarda la prima eccezione, si fa riferimento a compiti procedurali circoscritti come la trasformazione di dati non strutturati in dati strutturati o la classificazione automatica dei documenti in entrata per categorie. La seconda eccezione riguarda sistemi che forniscono un supporto a un’attività umana preesistente, per esempio, strumenti destinati a migliorare la forma linguistica di documenti già redatti. La terza si applica a sistemi che individuano incoerenze o deviazioni rispetto a decisioni precedenti, senza sostituirsi al giudizio umano, come quelli utilizzati per verificare eventuali disparità nel metodo valutativo di un insegnante. Infine, l’ultima ipotesi è riferita ai sistemi che svolgono solo funzioni preparatorie, ad esempio modelli impiegati nell’indicizzazione di fascicoli.
Nonostante l’introduzione delle eccezioni, il paragrafo 3 dell’articolo 6 conserva un elemento che richiama l’“approccio automatico” della prima proposta della Commissione. La clausola stabilisce infatti che “fatto salvo il primo comma, un sistema di IA di cui all’allegato III è sempre considerato ad alto rischio qualora esso effettui profilazione di persone fisiche”. Il regolamento non fornisce una definizione propria di “profilazione” (profiling), ma rinvia, nel preambolo, all’articolo 4(4) del Regolamento Generale per la Protezione dei Dati (GDPR), secondo cui essa è “qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica”.
La profilazione implica ordinariamente l’analisi di insiemi estesi di dati riferibili a una persona per individuare correlazioni e collocarla all’interno di un determinato gruppo, così da inferire o prevedere comportamenti relativi a uno specifico ambito di interesse – ad esempio, stimare la probabilità che un individuo acquista un prodotto in base ai suoi precedenti acquisti.
Pertanto, quando un sistema riconducibile all’allegato III effettua attività di profilazione nei confronti dei soggetti interessati, esso viene automaticamente qualificato come ad alto rischio, in ragione dell’elevata probabilità di effetti discriminatori connessi a tali operazioni.
Allegato III
Dopo aver esaminato criteri e regole generali, eccezioni e casi speciali attraverso i quali l’AI Act definisce la nozione di alto rischio, occorre rivolgersi all’allegato III, che individua casi d’uso concreti, fungendo da riferimento centrale per l’individuazione della seconda categoria di sistemi ad alto rischio.
Biometria
Il primo ambito qualificato come ad alto rischio è quello della biometria. Con questo termine si indicano tecnologie che, utilizzando dati personali come le caratteristiche fisiche – come viso o impronte digitali– o comportamentali sono in grado di ricavare informazioni su una persona: dalla sua identità alle sue caratteristiche personali – quali sesso e età – fino ai suoi stati d’animo – nel caso del riconoscimento delle emozioni.
Prima di analizzare specifiche situazioni contemplate dall’allegato III, occorre ricordare che i sistemi sono classificati ad alto rischio solo se non rientrano tra le pratiche proibite dal regolamento. L’articolo 5 dell’AI Act proibisce infatti alcuni impieghi, tra cui l’identificazione “in tempo reale” in spazi accessibili al pubblico (art. 5(1)(h)) e i sistemi capaci di inferire le emozioni di una persona nel contesto lavorativo (art. 5(1)(f)).
Chiarito questo punto, si può passare all’analisi dei casi previsti dall’allegato III, che elenca tre tipologie di sistemi di IA biometrici: i sistemi di identificazione biometrica remota, quelli destinati alla categorizzazione biometrica e quelli impiegati per il riconoscimento delle emozioni.
La prima categoria comprende i sistemi capaci di attribuire un’identità a un individuo partendo da un’immagine. Tali sistemi sono sempre considerati ad alto rischio, poiché, contrariamente all’identificazione “in tempo reale”, non si applica qui alcuna limitazione territoriale come quella prevista per l’utilizzo di luoghi accessibili al pubblico. Il legislatore ha tuttavia precisato che “non vi rientrano i sistemi di IA destinati a essere utilizzati per la verifica biometrica la cui unica finalità è confermare che una determinata persona fisica è la persona che dice di essere”. Non si tratta di un’eccezione, ma della distinzione tra due concetti: l’identificazione, delineata all’articolo 3(35), è realizzata generalmente senza il consenso dell’interessato, è la verifica biometrica, definita all’art. 3(36), che si realizza con il consenso dell’utente e si limita a confermare un’identità dichiarata. Un esempio, citato anche nel Considerando 54, è il riconoscimento biometrico impiegato per sbloccare smartphone e dispositivi personali.
In questo contesto, la qualifica di alto rischio discende dal potenziale errore insito in tali sistemi. Un’identificazione inesatta nel corso di un’indagine, per esempio, può comportare l’attribuzione a una persona della responsabilità per un reato non commesso. A questo si aggiunge un rischio più ampio: la violazione della privacy e il possibile effetto deterrente sull’esercizio di diritti fondamentali, quali la libertà d’espressione e di associazione. Quando gli individui sanno di poter essere identificati mentre esercitano tali diritti, come nel caso di una manifestazione, possono essere scoraggiati dal farlo.
La seconda tipologia riguarda i sistemi di IA che classificano le persone in categorie specifiche sulla base di dati biometrici (art. 3(39)). Come osserva Huergo Lora (A. Huergo Lora, “Classification of AI Systems as high-risk (Chapter III, Section 1), The EU regulation on Artificial Intelligence: A commentary, 2025: 79-130, a cura di A. J. Huergo Lora e G. M. Díaz González), tali categorie coincidono con le “categorie speciali di dati personali”, definite dall’articolo 9 del GDPR. Anche in questo caso il rischio evidente è quello di errori nella classificazione; ma prima ancora si pone una questione più profonda: è legittimo suddividere gli individui sulla base di categorie di dati sensibili, come sesso o origine etnica, quando l’unico effetto di questa classificazione è l’attribuzione di trattamenti differenti?
L’ultima categoria prende in considerazione i sistemi destinati al riconoscimento delle emozioni. Il rischio principale consiste nell’invasione della sfera privata, poiché queste tecnologie permettono di accedere a informazioni intime che solitamente è l’individuo a decidere se e come rivelare.
Infrastrutture critiche
Il secondo contesto contemplato dall’allegato III riguarda le infrastrutture critiche. Nella definizione fornita dal legislatore emerge una certa continuità con quanto disposto dal paragrafo 1, in ragione del riferimento ai “componenti di sicurezza”. L’allegato include, infatti: “i sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione e nel funzionamento delle infrastrutture digitali critiche, del traffico stradale o nella fornitura di acqua, gas, riscaldamento o elettricità”. Per comprendere appieno cosa si intenda per componente di sicurezza, è necessario richiamare la definizione già fornita nella sezione relativa ai sistemi ad alto rischio del paragrafo 1. Rientrano in questo ambito, ad esempio, i sistemi impiegati per monitorare la pressione idrica o per il controllo degli incendi nei centri di cloud computing. Per quanto concerne invece la nozione di infrastrutture critiche, il regolamento rinvia all’articolo articolo 2(4) della Direttiva 2022/2557, mentre per le infrastrutture digitali critiche occorre analizzare il punto 8 dell’allegato della stessa direttiva.
La ragione dell’inclusione di questi sistemi tra quelli ad alto rischio è esplicitata nel Considerando 55: “un loro guasto o malfunzionamento può mettere a rischio la vita e la salute di un grande numero di persone e provocare perturbazioni significative del normale svolgimento delle attività sociali ed economiche”. Nello stesso passaggio viene offerto anche un importante chiarimento, stabilendo che “i componenti destinati a essere utilizzati esclusivamente a fini di cybersicurezza non dovrebbero essere considerati componenti di sicurezza”.
Istruzione e formazione professionale
Il terzo punto dell’allegato III è dedicato all’uso dei sistemi IA nel settore dell’istruzione. Il legislatore riconosce che queste tecnologie possono offrire benefici significativi, sia per gli studenti che per gli insegnati, contribuendo a “promuovere un’istruzione e una formazione digitali di alta qualità” e ad agevolare l’acquisizione delle competenze necessarie nell’era digitale (Considerando 56). Tuttavia, l’impiego dell’IA in alcuni ambiti specifici viene classificato ad alto rischio in ragione della possibilità che tali sistemi violino “il diritto all’istruzione e alla formazione, nonché il diritto alla non discriminazione, e perpetuare modelli storici di discriminazione”.
L’allegato individua quattro i casi d’uso che rientrano in questa categoria: sistemi destinati a determinare l’accesso o l’ammissione agli studi; sistemi utilizzati per valutare i risultati dell’apprendimento; sistemi di IA impiegati per stabilire il livello di istruzione adeguato che una persona riceverà; sistemi di IA finalizzati a monitorare e rilevare comportamenti vietati durante le prove, intese come esami e verifiche scolastiche o universitarie, svolti sia in presenza sia da remoto.
Il percorso istruttivo rappresenta un momento determinante nella vita delle persone, non solo per lo sviluppo intellettivo, ma anche perché condiziona l’accesso a opportunità lavorative più remunerative e specializzate. Ne consegne la necessità di garantire che le possibilità offerte dall’istruzione non siano precluse da bias algoritmici. Come evidenziato dallo stesso legislatore, tali sistemi vanno considerati ad alto rischio perché “possono determinare il percorso d’istruzione e professionale della vita di una persona e quindi incidere sulla sua capacità di garantire il proprio sostentamento”. Il rischio discriminatorio si manifesta sia sul piano individuale, nel caso vi sia un errore nella valutazione di una domanda di ammissione, sia a livello collettivo, qualora il sistema presenti bias sistematici verso determinate categorie.
Il primo caso riguarda l’impiego di sistemi di IA per stabilire l’ammissione degli studenti a corsi o programmi di studio. Qui il principale rischio è la violazione del diritto all’istruzione e, più in generale, la discriminazione derivante dall’utilizzo di caratteristiche estranee al merito del candidato. Va osservato tuttavia che, come rilevato dalla critica accademica, l’uso attuale di sistemi di IA in fase di ammissione è prevalentemente ancillare: gli algoritmi effettuano una prima scrematura delle domande palesemente non conformi ai requisiti, mentre la decisione finale rimane in mano a un operatore umano.
Una riflessione analoga può essere estesa alla terza categoria, i sistemi destinati a valutare quale sia il livello di istruzione appropriato per una persona, poiché nella pratica questa decisione è spesso ricompresa proprio nel processo di ammissione.
Gli altri due casi si collocano su un piano differente, poiché riguardano la valutazione delle performance accademiche dello studente. In tali situazioni, la presenza umana come arbitro finale rimane cruciale. L’esperienza del Regno Unito nel 2020 è emblematica: un sistema di IA utilizzato per attribuire un voto predittivo agli studenti è stato duramente contestato perché addestrato su dati relativi a performance di passati studenti, con il risultato di non valutare gli studenti sulla base delle loro capacità individuali. L’episodio ha sollevato fondati dubbi di legittimità, in particolare riguardo al trattamento riservato alle minoranze.
L’ultimo esempio individuato dall’allegato riguarda i sistemi “utilizzati per monitorare e rilevare comportamenti vietati degli studenti durante le prove”. L’impiego di tali tecnologie ha conosciuto un forte incremento durante la pandemia del 2020, quando gli istituti hanno sostituito gli esami in presenza con valutazioni da remoto. In questi casi, il rischio non risiede soltanto nella sorveglianza in sé, ma nel possibile utilizzo dell’esito algoritmico come prova contro lo studente, con conseguente indebolimento della presunzione di innocenza. Il parallelo con l’uso dell’IA nelle attività di predictive policing è evidente: mentre nel contesto giudiziario il risultato dell’algoritmo serve a orientare le indagini, in ambito educativo rischia di diventare direttamente determinante per l’attribuzione di responsabilità. A ciò si aggiunge l’elevata probabilità di bias legati alle tecnologie biometriche, più volte documentata, che in alcuni casi ha comportato persino l’incapacità del sistema di rilevare la presenza dello studente di fronte alla telecamera.
Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
Il settore che segue l’istruzione è quello dell’occupazione. Si tratta di un ambito segnato da uno squilibrio di potere tra le parti, ragione per i sistemi di IA utilizzati sono qualificati come ad alto rischio. L’allegato individua due tipologie di impiego che ricadono in tale classificazione: i sistemi impiegati per la selezione dei candidati e i sistemi impiegati per adottare decisioni sulle condizioni del rapporto di lavoro.
Per quanto riguarda il primo utilizzo, è ormai noto che molte aziende utilizzano strumenti di IA per effettuare uno screening preliminare dei curricula ricevuti: tali sistemi analizzano le informazioni elencate dai candidati e li ordinano secondo criteri predefiniti. Meno conosciuto è l’uso di tecnologie che consentono ai recruiter di arricchire tali valutazioni con ulteriori dati, ottenuti dall’attività online dei candidati o acquisiti tramite data brokers, al fine di creare una profilazione più completa e orientare la decisione sul miglior candidato.
Se la prima tipologia di sistemi è impiegata prima dell’instaurazione di un rapporto di lavoro, la seconda trova applicazione durante una relazione lavorativa già in corso. Come spiegato dal Considerando 57, essa comprende i sistemi di IA “per l’adozione di decisioni riguardanti le condizioni del rapporto di lavoro la promozione e la cessazione dei rapporti contrattuali di lavoro, per l’assegnazione dei compiti sulla base dei comportamenti individuali, dei tratti o delle caratteristiche personali e per il monitoraggio o la valutazione delle persone nei rapporti contrattuali legati al lavoro”.
Merita attenzione la scelta del legislatore di estendere la tutela anche alle persone “che forniscono servizi tramite piattaforme”. Tale formula evita che i lavoratori delle piattaforme di lavoro su richiesta, come Deliveroo, restino privi di protezione, specie nei Paesi membri in cui il loro status giuridico è ancora incerto. Il testo chiarisce dunque che anche i sistemi utilizzati da tali piattaforme rientrano tra quelli ad alto rischio.
Il preambolo fornisce, anche in questo caso, la motivazione della classificazione. Il Considerando 57 individua tre tipi di criticità, che si distinguono sia in base all’esito della performance del sistema (corretto o errato) sia in relazione al soggetto colpito dal rischio (individuo, gruppo o collettività dei lavoratori).
Un primo elemento riguarda l’impatto che l’uso dell’IA può avere sulla vita delle persone. Errori durante la selezione e la valutazione possono incidere in modo decisivo sulle prospettive professionali e sulle possibilità di sostentamento degli individui. In questo scenario, l’errore algoritmico danneggia un singolo lavoratore o candidato.
Un secondo profilo riguarda il rischio sistemico nei confronti delle categorie storicamente svantaggiate. Il Considerando ricorda che “tali sistemi possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale”. Qui, la criticità non si limita all’errore individuale, ma si traduce nella possibile esclusione o penalizzazione di interi gruppi.
Infine, il legislatore richiama i rischi legati alla tutela dei diritti fondamentali nel contesto lavorativo, soprattutto in relazione ai sistemi utilizzati dopo l’assunzione. Il problema, in questo caso, non è tanto la correttezza della performance tecnica, quanto la natura invasiva del trattamento, capace dunque di “comprometterne i diritti fondamentali in materia di protezione dei dati e vita privata”. Si tratta dunque di rischi che possono colpire tutti i lavoratori coinvolti, indipendentemente dal fatto che l’algoritmo commetta errori o meno.
Servizi essenziali
Il quinto punto dell’allegato affronta un insieme eterogeneo di casi d’uso in cui i sistemi di IA sono impiegati per decidere chi può accedere a servizi o benefici essenziali, necessari per condurre una vita dignitosa. Il filo conduttore che unisce tali applicazioni è chiarito dal Considerando 58, secondo cui alcuni servizi e prestazioni, pubblici e privati, sono indispensabili affinché le persone possano partecipare pienamente alla vita sociale o migliorare il proprio tenore di vita.
Nel delineare tali servizi essenziali, il legislatore individua quattro categorie di tecnologie: quelle utilizzate dalle autorità pubbliche, o per loro conto, per valutare l’ammissibilità delle persone fisiche a prestazioni e servizi di assistenza pubblica essenziali; quelle impiegate per determinare l’affidabilità creditizia delle persone; quelle utilizzate nella valutazione dei rischi e nella determinazione dei premi in ambito assicurativo, con riferimento alle assicurazioni sanitarie e sulla vita; e, infine, quelle destinate alla valutazione e classificazione delle chiamate di emergenza o all’invio dei servizi di primo soccorso.
Per cogliere la portata della prima clausola, il preambolo precisa che tali prestazioni comprendono “servizi sanitari, prestazioni di sicurezza sociale, servizi sociali che forniscono protezione in casi quali la maternità, la malattia, gli infortuni sul lavoro, la dipendenza o la vecchiaia e la perdita di occupazione e l’assistenza sociale e abitativa”. La formulazione non risulta perfettamente trasparente, ma sembra indicare che qui rientrino anche i servizi erogati da privati che operano per conto della pubblica amministrazione, pur restando esclusi quelli forniti da da privati in quanto tali.
Lo stesso Considerando 58 chiarisce inoltre le ragioni che hanno condotto alla qualificazione di tali sistemi come ad alto rischio. Il regolamento segnala infatti che queste tecnologie “possono avere un impatto significativo sul sostentamento delle persone e violare i loro diritti fondamentali, quali il diritto alla protezione sociale, alla non discriminazione, alla dignità umana o a un ricorso effettivo”.
La seconda categoria riguarda i sistemi di IA destinati a essere utilizzati per valutare l’affidabilità creditizia delle persone fisiche. Si tratta probabilmente dell’impiego più noto dell’intelligenza artificiale: tali modelli, impiegati da banche e istituti finanziari, analizzano passate transazioni e ulteriori informazioni fornite dagli utenti per elaborare un profilo creditizio, successivamente utilizzato per decidere se concedere un prestito o un altro servizio finanziario al richiedente.
Le ragioni della loro inclusione tra i sistemi ad alto rischio, individuate nel Considerando 58, sono essenzialmente due. Da un lato, rispetto al singolo individuo, l’output del modello incide direttamente sull’accesso a servizi essenziali, quali alloggio, l’elettricità e i servizi di telecomunicazione. Dall’altro, in una prospettiva collettiva, tali sistemi presentano un chiaro rischio di discriminazione: il regolamento invita a prestare attenzione sia all’eventuale replicazione di bias preesistenti, come quelli legati all’origine etnica o al sesso, sia alla possibile creazione di nuove categorie svantaggiate. Come spiega lo stesso testo, questi modelli “possono portare alla discriminazione fra persone o gruppi e possono perpetuare modelli storici di discriminazione, […] o possono dar vita a nuove forme di impatti discriminatori”.
Il legislatore introduce tuttavia un’importante precisazione, escludendo dalla categoria di sistemi ad alto rischio quelli impiegati esclusivamente per individuare frodi finanziarie. Tale eccezione è da intendere con riferimento alle frodi commesse nell’erogazione di servizi finanziari, e non alle frodi perpetrate dai consumatori, che restano invece comprese nel regime ad alto rischio. In modo analogo, il preambolo esenta anche i sistemi utilizzati a fini prudenziali per calcolare i requisiti patrimoniali degli enti creditizi e delle imprese assicurative.
Il terzo esempio riguarda i sistemi destinati alla valutazione dei rischi e nella determinazione dei premi assicurativi. Anche in questo caso si tratta di un settore in cui l’adozione di IA è consolidata: tali modelli stimano la probabilità che si verifichi un evento futuro, incerto e dannoso, e contribuiscono a stimare sia se concedere una polizza sia il relativo premio. Il rischio principale associato a questo tipo di sistemi è che “se non debitamente progettati, sviluppati e utilizzati, possono violare i loro diritti fondamentali e comportare gravi conseguenze per la vita e la salute delle persone, tra cui l’esclusione finanziaria e la discriminazione”. La scelta del legislatore è stata tuttavia quella di considerare ad alto rischio soltanto i sistemi utilizzati per calcolare premi e rischi in relazione alle assicurazioni sanitarie e sulla vita. Sebbene tale selezione si giustifichi con l’importanza vitale delle coperture coinvolte, restano escluse altre forme assicurative diffuse, come quelle automobilistiche e abitative.
Infine, rientrano nella categoria dei sistemi ad alto rischio quelli utilizzati per “valutare e classificare le chiamate di emergenza effettuate da persone fisiche o per inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all’invio di tali servizi, compresi polizia, vigili del fuoco e assistenza medica, nonché per i sistemi di selezione dei pazienti per quanto concerne l’assistenza sanitaria di emergenza”. Come chiarito dal Considerando 58, tali tecnologie operano in contesti “molto critici per la vita e la salute delle persone e per i loto beni”. Il rischio sotteso a queste operazioni è evidente: un errore nel classificare una chiamata può compromettere le possibilità di sopravvivenza o recupero degli interessati, come nel caso di un paziente colpito da ictus, per il quale la tempestività dell’intervento è un fattore chiave.
Attività di contrasto (law enforcement)
L’impiego dell’IA nel contrasto del crimine rappresenta uno degli ambiti applicativi più diffusi. Le tecnologie disponibili sono eterogenee: alcune stimano la probabilità che una persona commetta un reato, altre valutano il rischio che in un determinato luogo possa verificarsi una crimine. Tali applicazioni incarnano i benefici generali che il Considerando 4 attribuisce all’IA, dal miglioramento delle previsioni all’ottimizzazione di operazioni e risorse, ma comportano al tempo stesso rischi significativi, dato che un errore può tradursi in misure oppressive per la vita delle persone.
Per questo motivo l’Unione Europea ha deciso di classificare tali usi sia tra i sistemi vietati sia tra quelli ad alto rischio. In particolare, l’articolo 5(1)(d), proibisce i sistemi progettati per valutare o prevedere il rischio che un individuo commetta reati quando la valutazione si basa unicamente sulla profilazione.
Diversamente, l’allegato III individua cinque categorie di sistemi ad alto rischio impiegati dalle autorità di polizia e dagli organi che operano per loro conto. È utile ricordare che con attività di contrasto si intendono “le attività svolte dalle autorità di contrasto o per loro conto a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse”, come definito all’articolo 3(46).
Le cinque tipologie sono: sistemi che stimano il rischio che una persona possa divenire vittima di un reato; poligrafi e strumenti equivalenti; sistemi che valutano l’attendibilità di elementi probatori; sistemi che stimano il rischio di commissione di reato o recidiva non basandosi esclusivamente su profilazione o su valutazione automatizzate dei tratti personali; sistemi che effettuano profilazione nel corso di indagini, accertamenti e proseguimento dei reati.
Tra questi, il quarto riveste un ruolo centrale, data la chiara assonanza con il divieto dell’articolo 5. La differenza risiede nel grado di automazione: le applicazioni proibite si fondano solo sul trattamento automatizzato; quelle ad alto rischio prevedono invece un intervento umano e un utilizzo dell’output come supporto alla decisione. Il riferimento essenziale è all’articolo 22 del GDPR, che attribuisce agli individui il diritto a non essere sottoposti a decisioni con effetti giuridici basate solamente su trattamento automatizzato di dati personali. Come chiarito dal Gruppo di lavoro Articolo 9, oggi sostituito dal Comitato europeo per la protezione dei dati, una decisione è unicamente basata sul trattamento automatizzato solo se priva di qualsiasi intervento umano. Come sottolineano Miró Llinares e Galarza, la vera distinzione è da trovarsi nell’impiego dell’output: da supporto nelle decisioni umane nel caso di sistemi ad alto rischio, determinante nei casi vietati (si veda F. Mirò Llinares e M.S. Galarza, “The Regulation of Predictive Policing Systems in the Artificial Intelligence Act”, The European Union Artificial Intelligence Act. 2025; 4(2) 327-350, a cura di L. Cotino Hueso e D. U. Galetta).
La motivazione dell’inclusione del quinto caso va ritrovata invece nella contro-eccezione fornita dall’articolo 6(3), per cui i sistemi che compiono profilazione di persone fisiche sono da considerarsi sempre ad alto rischio.
L’allegato ricomprende poi i sistemi che calcolano la probabilità che un soggetto sia vittima di un reato. Come osserva Lora, tali strumenti non sono equiparati ai precedenti perché un errore comporta conseguenze di grado differente: l’equivoco nel considerare qualcuno potenziale vittima genera al massimo misure di tutela, mentre un errore nel qualificare un individuo come possibile reo o recidivo espone quest’ultimo a interventi significativamente più invasivi.
A completare l’elenco figurano i poligrafi e i sistemi destinati a verificare l’affidabilità del materiale probatorio, tecnologie accomunate dall’obiettivo di fornire un ausilio alle autorità nelle attività d’indagine. I primi analizzano la sincerità delle dichiarazioni dei sospettati attraverso indicatori fisiologici, mentre i secondi mirano a valutare l’attendibilità degli elementi raccolti nella fase investigativa.
Il Considerando 59 richiama un ampio ventaglio di rischi, che vanno da outcome discriminatori alla possibile compressione di diritti procedurali fondamentali. Tra questi, il diritto a un ricorso effettivo e a un giudice imparziale, i diritti della difesa e la presunzione di innocenza. Da qui l’insistenza del legislatore sulla necessità di garantire trasparenza e comprensibilità, requisiti chiave per preservare la fiducia dei cittadini nell’operare delle forze dell’ordine e garantire agli indagati la piena protezione dei diritti di difesa.
In chiusura, il preambolo chiarisce che l’ambito di applicazione riguarda esclusivamente le attività di contrasto dei reati penali. “I sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali […] non dovrebbero essere classificati come sistemi di IA ad alto rischio”.
Migrazione, asilo e gestione del controllo delle frontiere
Il settimo ambito incluso nell’allegato III riguarda la gestione del controllo delle frontiere. Il Considerando 60 ribadisce un punto essenziale: tali sistemi rientrano tra quelli ad alto rischio per via dei possibili “effetti su persone che si trovano spesso in una posizione particolarmente vulnerabile e il cui futuro dipende dall’esito delle azioni delle autorità pubbliche competenti”.
L’allegato elenca quattro casi d’uso; il primo richiama da vicino un utilizzo già considerato nel settore delle attività di contrasto: i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche, o per loro conto, come poligrafi o strumenti analoghi.
Un secondo caso riguarda i sistemi impiegati per assistere le autorità pubbliche competenti nell’esame delle domande di asilo, di visto o di permesso di soggiorno, nonché dei relativi reclami, con riferimento all’ammissibilità delle persone che richiedono tale status. Il parallelismo qui è con il settore dell’occupazione: come i sistemi che valutano i candidati ad una posizione lavorativa, quelli impiegati nell’ambito della migrazione valutano i requisiti del richiedente per determinare la possibilità di rilascio di un titolo.
Segue poi la categoria dei sistemi destinati a stimare i rischi. Tra questi sono compresi i sistemi per stimare rischi per la sicurezza, rischi di migrazione irregolare o rischi per la salute che vengano generati dall’ingresso di persone nel territorio di uno Stato membro. Sebbene la finalità sia affine alla precedente, l’ambito di applicazione è più ampio: tali sistemi possono incidere sia sulla possibilità di ottenere documenti di soggiorno sia influire sulla decisione di espellere un individuo nel caso si presenti uno dei rischi indicati sopra. Come già previsto per i sistemi destinati al contrasto della criminalità, l’IA in questo contesto può solo assistere un decisore umano.
Infine, sono classificati ad alto rischio i sistemi destinati a individuare, riconoscere o identificare persone fisiche nel contesto della migrazione, dell’asilo o del controllo delle frontiere, ad eccezione della verifica dei documenti di viaggio. Tale utilizzo riporta alla categoria di sistemi biometrici trattati nella prima sezione: quando il sistema non si limita alla verifica ma svolge funzioni di identificazione, ricade nella categoria di sitemi ad alto rischio.
In tutti questi scenari, diventano centrali requisiti come accuratezza, non discriminazione e trasparenza, affinché l’impiego di IA non comprometta diritti fondamentali quali la libera circolazione, la protezione della vita privata, la non discriminazione, l’accesso alla protezione internazionale.
Amministrazione della giustizia e processi democratici
L’ultima sezione dell’allegato individua due ulteriori ambiti di applicazione dell’IA: i sistemi usati nell’amministrazione della giustizia e quelli per i processi democratici.
Per quanto riguarda il primo, il regolamento classifica come ad alto rischio quei sistemi destinati “ad assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie”. La norma distingue dunque due funzioni: la ricerca e l’interpretazione della legge e dei fatti e l’applicazione della legge ad un caso concreto. La prima attività include i sistemi sviluppati da imprese di informazione legale (legal information companies), che forniscono dati, analisi e software di supporto a professioni e istruzioni giuridiche, come avvocati e giudici. Quanto ai destinatari, la disposizione riguarda sia le autorità giudiziarie pubbliche sia dagli organismi di risoluzione alternativa, come l’arbitrato.
Le ragioni dell’inclusione di tali sistemi tra quelli ad alto rischio emergono dal Considerando 61, che richiama i potenziali impatti sul diritto ad un ricorso effettivo, sulla garanzia di un giudice imparziale e sulle libertà individuali, oltre ai possibili effetti sistemici sulla democrazia e sullo Stato di diritto.
Lo stesso Considerando chiarisce poi che “[n]on è tuttavia opportuno estendere la classificazione […] ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale [e] i compiti amministrativi”. L’impostazione è coerente le eccezioni previste dall’articolo 6(3).
La seconda funzione concerne i sistemi “utilizzati per influenzare l’esito di un’elezione o di un referendum o il comportamento di voto delle persone fisiche nell’esercizio del loro voto alle elezioni o ai referendum”. In questo ambito, non mancano esempi recenti che mostrano come strumenti digitali e piattaforme online possano incidere sul corretto svolgimento del processo democratico. Particolarmente significativo è il caso delle elezioni rumene del 2024, nelle quali influenze estere hanno condizionato il normale esercizio del diritto di voto. La portata dell’ingerenza ha indotto la Corte costituzionale rumena ad annullare l’esito del primo turno elettorale. Allo stesso tempo, non va trascurato che l’IA è ampiamente usata dai partiti politici stessi, ad esempio nel targeting pubblicitario, ambito disciplinato anche dal Regolamento 2024/900 sulla trasparenza e al targeting della pubblicità politica.
Il Considerando 62 sottolinea il rischio “di indebite interferenze esterne sul diritto di voto sancito dall’articolo 39 della Carta e di effetti negativi sulla democrazia e sullo Stato di diritto”. Non rientrano nella categoria ad alto rischio, invece, i sistemi “ai cui output le persone fisiche non sono direttamente esposte”, come gli strumenti utilizzati per organizzare, ottimizzare e strutturare le campagne politiche da un punto di vista amministrativo e logistico.
Applicazione delle eccezioni presentate all’articolo 6(3)
Come anticipato, l’approccio ai sistemi ad alto rischio adottato nel testo finale del regolamento si discosta da quello “automatico” proposto dalla Commissione e riconosce che un sistema elencato nell’allegato III può non essere considerato ad alto rischio quando svolge funzioni che non influenzano materialmente il processo decisionale, ad esempio quando si limita a migliorare il lavoro già svolto da un operatore umano oppure a compiere attività puramente procedurali e circoscritte.
Quando un fornitore ritiene che il proprio sistema rientri in una delle quattro ipotesi previste dall’articolo 6(3), deve seguire la procedura indicata nel paragrafo successivo, l’articolo 6(4). Il fornitore è tenuto a documentare “la [propria] valutazione prima che tale sistema sia immesso sul mercato oppure messo in servizio” e a registrare il sistema nella banca dati dell’UE, come specificato dall’articolo 49(2). La documentazione prodotta deve essere messa a disposizione delle autorità competenti su richiesta. Tale impostazione, tuttavia, può generare un potenziale conflitto di interessi: dato che per un fornitore è vantaggioso evitare la qualificazione di alto rischio, l’autovalutazione potrebbe indurlo a classificare il sistema come non ad alto rischio per agevolarne la commercializzazione.
A bilanciare questa discrezionalità interviene l’articolo 80(1), che attribuisce all’autorità di vigilanza del mercato il potere di verificare la documentazione del fornitore qualora sospetti che un sistema dichiarato come non ad alto rischio ricada invece nella categoria. L’autorità deve accertare se le condizioni di esclusione previste all’articolo 6(3) siano realmente soddisfatte. Qualora ritenga che il sistema deve essere considerato ad alto rischio, il fornitore è obbligato ad adottare “tutte le misure necessarie” per assicurare la conformità ai requisiti e agli obblighi dell’AI Act entro un termine stabilito dall’autorità. Se non adegua il sistema entro tale scadenza, sarà soggetto a sanzione pecuniaria, conformemente all’articolo 99.
Obblighi e poteri della Commissione stabiliti dall’articolo 6
L’articolo 6 non si limita a presentare i casi d’impiego dei sistemi di IA classificati come ad alto rischio, ma attribuisce anche specifici poteri alla Commissione – in particolare la facoltà di modificare le eccezioni previste dall’articolo 6(3) – nonché un obbligo, previsto al paragrafo 5.
Quest’ultimo affida alla Commissione il compito di pubblicare “orientamenti che specificano l’attuazione pratica del presente articolo”. Gli orientamenti (guidelines) dovranno essere pubblicati entro il 2 Febbraio 2026, dunque prima dell’entrata in vigore degli obblighi per i sistemi ad alto rischio, fissata al 2 Agosto 2026, e devono essere predisposti previa consultazione del Consiglio europeo per l’IA. In coerenza con l’articolo 96, tali orientamenti dovranno prestare particolare “attenzione alle esigenze delle PMI, comprese le start-up, delle autorità pubbliche locali e dei settori maggiormente interessati”. Con riferimento specifico all’articolo 6, è evidente che essi dovranno chiarire l’ambito di applicazione delle eccezioni elencate all’articolo 6(3). Non a caso, il paragrafo 5 richiede espressamente che le guidelines siano accompagnate da “un elenco esaustivo di esempi pratici di casi d’uso di sistemi di IA ad alto rischio e non ad alto rischio”.
Per quanto riguarda i poteri attribuiti alla Commissione, essi riguardano innanzitutto la possibilità di modificare l’elenco delle condizioni che consentono a un sistema impiegato in un caso d’uso dell’allegato III di non essere considerato ad alto rischio. Il paragrafo 6 conferisce infatti il potere di aggiungere o modificare le condizioni previste dall’articolo 6(3), a condizione che continuino ad assicurare che il sistema di IA non influenzi materialmente il processo decisionale. A ciò si aggiunge un ulteriore vincolo: le modifiche devono essere sostenute da “prove concrete e affidabili dell’esistenza di sistemi di IA che rientrano nell’ambito di applicazione dell’allegato III ma non presentano un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche”.
In modo speculare, il paragrafo 7 attribuisce alla Commissione il potere di rimuovere una delle condizioni previste dall’articolo 6(3). Anche in questo caso, ogni intervento deve poggiare su prove concrete: la modifica deve essere giustificata alla luce dei rischi che tali sistemi possono presentare per la salute, la sicurezza e i diritti fondamentali delle persone. La ratio è chiara: alcuni sistemi inizialmente considerati non ad alto rischio, e quindi sottratti ai relativi obblighi, possano successivamente dimostrarsi capaci di generare rischi per la salute, la sicurezza o i diritti fondamentali delle persone.
Infine, il paragrafo 8 stabilisce che qualsiasi modifica – presumibilmente riferita soprattutto all’aggiunta di nuove condizioni – non debba compromettere il livello di protezione garantito per la salute, la sicurezza e i diritti fondamentali. Inoltre, tali interventi dovranno tenere conto degli “sviluppi tecnologici e del mercato”, affinché il regolamento rimanga attuale ed efficace nel tempo.
Modifiche all’allegato III
Sempre nell’ottica di garantire che il regolamento rimanga efficace nel tempo, l’articolo 7 conferisce alla Commissione il potere di apportare modifiche all’allegato III.
La norma si articola in 3 paragrafi. Il primo attribuisce alla Commissione il potere di aggiungere o modificare i casi d’uso elencati all’allegato III, a condizione che siano soddisfatti due presupposti:
a) i sistemi di IA sono destinati a essere usati in uno dei settori elencati nell’allegato III;
b) i sistemi di IA presentano un rischio di danno per la salute e la sicurezza, o di impatto negativo sui diritti fondamentali, e tale rischio è equivalente o superiore al rischio di danno o di impatto negativo presentato dai sistemi di IA ad alto rischio di cui all’allegato III.
Dunque, anche l’articolo 7 si fonda sulla stessa ratio dell’articolo 6(7): un caso d’uso può essere aggiunto all’elenco presente all’allegato III qualora presenti rischi almeno di pari gravità a quelli già presenti.
Il secondo paragrafo chiarisce gli elementi che la Commissione deve prendere in considerazione per valutare l’opportunità di includere un nuovo caso d’uso nell’allegato III. Come osservato da Huergo Lora (A. Huergo Lora, “Classification of AI Systems as high-risk”, in The EU regulation on Artificial Intelligence: A commentary), tali criteri differiscono dalle eccezioni stabilite all’articolo 6(3): non descrivono situazioni in cui il rischio è trascurabile, bensì dimensioni attraverso cui il rischio dei sistemi di IA può rendersi manifesto. Questi criteri sono undici e sono, in sintesi: la finalità prevista del sistema; la diffusione attuale o attesa del suo utilizzo; la natura e la quantità dei dati trattati, con particolare riferimento a categorie particolari di dati personali; il grado di autonomia del sistema e la possibilità di intervento umano; eventuali danni già verificatesi o preoccupazioni documentate; la portata potenziale del danno; la dipendenza delle persone dai risultati del sistema; eventuali squilibri di potere o situazioni di vulnerabilità; la reversibilità o possibile correzione degli effetti; i benefici attesi dalla diffusione del sistema; e la presenza nel diritto dell’unione di misure o rimedi efficaci per mitigare i rischi identificati.
Infine, il terzo paragrafo conferisce alla Commissione il potere di modificare l’allegato III in senso riduttivo, rimuovendo alcune aree di applicazione qualora siano soddisfatte due condizioni:
a) il sistema di IA ad alto rischio interessato non pone più rischi significativi per i diritti fondamentali, la salute o la sicurezza, tenendo conto dei criteri elencati al paragrafo 2;
b) la soppressione non riduce il livello generale di protezione della salute, della sicurezza e dei diritti fondamentali a norma del diritto dell’Unione.
È significativo osservare che l’elenco può essere modificato solo attraverso la rimozione di aree già incluse, e non mediante l’aggiunta di nuove categorie, quando l’evidenza dimostra che un determinato ambito non integra più rischi significativi. In definitiva, si confermano i criteri già utilizzati nell’articolo 6: l’aggiunta è giustificata dalla presenza di rischi rilevanti; la rimozione è consentita solo se non incide negativamente sul livello di protezione.


