REGOLAMENTO SULL’INTELLIGENZA ARTIFICIALE

Condividi

Il 13 marzo 2024, il Parlamento Europeo ha approvato il “REGOLAMENTO DEL PARLAMENTO EUROPEO E DEL CONSIGLIO CHE STABILISCE REGOLE ARMONIZZATE SULL’INTELLIGENZA ARTIFICIALE (legge sull’intelligenza artificiale – AI Act).

Il regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale è il primo quadro giuridico in assoluto sull’intelligenza Artificiale che ne affronta i rischi e posiziona l’Europa in una posizione di leadership a livello mondiale.

L’obiettivo principale dell’AI Act è garantire che gli sviluppatori e gli utenti comprendano chiaramente i requisiti e gli obblighi riguardanti utilizzi specifici dell’intelligenza artificiale. Inoltre, il regolamento mira a ridurre le complessità burocratiche e gli oneri finanziari per le aziende, specialmente quelle di dimensioni ridotte come le piccole e medie imprese (PMI). Con l’AI Act si mira a promuovere una intelligenza artificiale affidabile affinché non vengano lesi diritti fondamentali il rispetto per la sicurezza e i principi etici derivanti dallo sviluppo e dall’utilizzo di potenti modelli di intelligenza artificiale.

Lo scopo del regolamento è “migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale in conformità ai valori dell’Unione.” Il regolamento deriva dalla consapevolezza che  l’uso dell’intelligenza artificiale può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale ed ambientale in molti settori come, ad esempio: assistenza sanitaria, agricoltura, istruzione e formazione, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, mitigazione dei cambiamenti climatici e adattamento ad essi.  D’altra parte, è importante considerare che l’utilizzo dell’intelligenza artificiale comporta una serie di rischi potenziali che potrebbero compromettere gli interessi pubblici e i diritti garantiti dalla legislazione dell’Unione Europea. Questi rischi potrebbero manifestarsi in varie forme come, ad esempio: violazioni della privacy; discriminazioni; mancanza di trasparenza nei processi nei quali l’AI viene adottata, l’immissione sul mercato e l’utilizzo di   sistemi di IA intesi a distorcere il comportamento umano e che possono provocare danni fisici o psicologici; sistemi di IA che potrebbero avere ripercussioni negative per la salute e la sicurezza delle persone; sistemi diagnostici poco affidabili e accurati.

Per il perseguimento degli obiettivi enunciati, il regolamento stabilisce:

  1. regole armonizzate per l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale (“sistemi di IA”) nell’Unione;
  2. il divieto di determinate pratiche di intelligenza artificiale;
  3. requisiti specifici per i sistemi di IA ad alto rischio e obblighi per gli operatori di tali sistemi;
  4. regole di trasparenza armonizzate per i sistemi di IA destinati a interagire con le persone fisiche, i sistemi di riconoscimento delle emozioni, i sistemi di categorizzazione biometrica e i sistemi di IA utilizzati per generare o manipolare immagini o contenuti audio o video;
  5. regole in materia di monitoraggio e vigilanza del mercato.

Il regolamento stabilisce sia gli ambiti di applicazione che gli ambiti di esclusione e si applica:

  • ai fornitori che immettono sul mercato o mettono in servizio sistemi di IA nell’Unione, indipendentemente dal fatto che siano stabiliti nell’Unione o in un paese terzo;
  • agli utenti dei sistemi di IA situati nell’Unione;
  • ai fornitori e agli utenti di sistemi di IA situati in un paese terzo, laddove l’output prodotto dal sistema sia utilizzato nell’Unione.

Sono esclusi, ad esempio, dall’ambito di applicazione i sistemi di IA sviluppati o usati per scopi esclusivamente militari. Nell’ambito dell’AI Act per “sistema di intelligenza artificiale” (sistema di IA) si intende:” un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I [1], che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono;”

Il regolamento definisce Vietate un insieme di pratiche di intelligenza artificiale fra cui:

  • l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico;
  • l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che sfrutta le vulnerabilità di uno specifico gruppo di persone, dovute all’età o alla disabilità fisica o mentale, al fine di distorcere materialmente il comportamento di una persona che appartiene a tale gruppo in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico;
  • l’immissione sul mercato, la messa in servizio o l’uso di sistemi di IA da parte delle autorità pubbliche o per loro conto ai fini della valutazione o della classificazione dell’affidabilità delle persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi determinati scenari [2]
  • l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per determinati obiettivi[3];

[1] TECNICHE E APPROCCI DI INTELLIGENZA ARTIFICIALE (allegato I): a) Approcci di apprendimento automatico, compresi l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo, con utilizzo di un’ampia gamma di metodi, tra cui l’apprendimento profondo (deep learning);  b) approcci basati sulla logica e approcci basati sulla conoscenza, compresi la rappresentazione della conoscenza, la programmazione induttiva (logica), le basi di conoscenze, i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti; c) approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione.

[2] i) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone fisiche in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti; ii) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone fisiche che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità;

[3] i) la ricerca mirata di potenziali vittime specifiche di reato, compresi i minori scomparsi; ii) la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l’incolumità fisica delle persone fisiche o di un attacco terroristico; iii)  il rilevamento, la localizzazione, l’identificazione o l’azione penale nei confronti di un autore o un sospettato di un reato cui all’articolo 2, paragrafo 2, della decisione quadro 2002/584/GAI del Consiglio punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno tre anni, come stabilito dalla legge di tale Stato membro

L’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto tiene conto dei seguenti elementi: a) la natura della situazione che dà luogo al possibile uso, in particolare la gravità, la probabilità e l’entità del danno causato dal mancato uso del sistema; b) le conseguenze dell’uso del sistema per i diritti e le libertà di tutte le persone interessate, in particolare la gravità, la probabilità e l’entità di tali conseguenze. Tali utilizzi rispettano, inoltre, le tutele e le condizioni necessarie e proporzionate in relazione all’uso, in particolare per quanto riguarda le limitazioni temporali, geografiche e personali.

Il regolamento definisce, poi, nel dettaglio le pratiche di intelligenza artificiale ritenute ad alto rischio, in relazione agli obiettivi del regolamento stesso. Un sistema di intelligenza viene definito ad alto rischio se soddisfa le seguenti due condizioni:

    1. il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell’Unione elencata nell’allegato II;
    2. il prodotto, il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto è soggetto a una valutazione della conformità da parte di terzi ai fini dell’immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell’Unione elencata nell’allegato II  [4]. Questo processo di valutazione è necessario per ottenere l’autorizzazione per immettere il prodotto sul mercato o metterlo in servizio. In sostanza, l’obiettivo è garantire che il prodotto, compreso il suo sistema di IA, sia conforme alle normative e che sia sicuro per l’uso dei consumatori e rispetti gli standard di qualità stabiliti dalle autorità di regolamentazione dell’Unione Europea.
[4] allegato II al regolamento. Un esempio della normativa è: “La direttiva 2013/53/UE del Parlamento europeo e del Consiglio, del 20 novembre 2013, relativa alle imbarcazioni da diporto e alle moto d’acqua e che abroga la direttiva 94/25/CE (GU L 354 del 28.12.2013);”

Un sistema di intelligenza artificiale (IA) impiegato come componente di sicurezza in un prodotto può essere definito come un sistema di IA integrato all’interno di un altro prodotto per potenziarne le funzionalità o incrementare il livello di sicurezza. Il caso di una vettura autonoma che sfrutta l’IA per una guida sicura rappresenta un esempio in cui l’IA contribuisce alla sicurezza del prodotto (in questo caso, l’auto). Alternativamente, il componente IA, offerto come soluzione autonoma, potrebbe essere un prodotto indipendente. Un esempio potrebbe essere il caso di un software di riconoscimento facciale.

Le norme di armonizzazione dell’Unione Europea si applicano a entrambi i contesti e definiscono i requisiti e gli standard necessari per assicurare la conformità legale.

Per quanto riguarda la valutazione della conformità eseguita da terze parti, si tratta del processo attraverso il quale un ente indipendente e accreditato esamina se un prodotto, che incorpora un sistema di IA come componente di sicurezza o come prodotto autonomo, rispetta i criteri e gli standard stabiliti dalle norme di armonizzazione dell’Unione Europea. Questa valutazione è essenziale per ottenere l’autorizzazione alla commercializzazione o all’uso del prodotto.

Applicazioni ad alto rischio

Oltre a quelli citati, il regolamento, definisce ad alto rischio un certo numero di applicazioni di intelligenza artificiale, riportate in dettaglio nell’allegato III al regolamento, nei seguenti ambiti:

    1. Identificazione e categorizzazione biometrica delle persone fisiche;
    2. Gestione e funzionamento delle infrastrutture critiche;
    3. Istruzione e formazione professionale;
    4. Occupazione, gestione dei lavoratori e accesso al lavoro autonomo;
    5. Accesso a prestazioni e servizi pubblici e a servizi privati essenziali e fruizione degli stessi;
    6. Attività di contrasto;
    7. Gestione della migrazione, dell’asilo e del controllo delle frontiere;
    8. Amministrazione della giustizia e processi democratici.

Per i sistemi di intelligenza artificiale ad alto rischio, nel capo 2 del regolamento, vengono definiti i requisiti prescritti per l’utilizzo di questa tipologia di applicazioni. In particolare, deve essere istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi costituito da un processo iterativo

continuo eseguito nel corso dell’intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un aggiornamento costante e sistematico.

 

Tale sistema comprende le seguenti fasi:

  1. identificazione e analisi dei rischi noti e prevedibili associati a ciascun sistema di IA ad alto rischio;
  2. stima e valutazione dei rischi che possono emergere quando il sistema di IA ad alto rischio è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile;
  3. valutazione di altri eventuali rischi derivanti dall’analisi dei dati raccolti dal sistema di monitoraggio successivo all’immissione sul mercato;
  4. adozione di adeguate misure di gestione dei rischi conformemente alle disposizioni previste.

Le misure di gestione dei rischi devono prendere in considerazione gli effetti e le possibili interazioni che possono derivare dall’applicazione combinata dei requisiti richiesti. Tali misure devono essere basate sullo stato dell’arte generalmente riconosciuto, come indicato nelle norme armonizzate o nelle specifiche comuni pertinenti.

Queste misure devono essere progettate in modo tale che i rischi residui associati a ciascun pericolo, così come il rischio residuo complessivo dei sistemi di intelligenza artificiale ad alto rischio, siano considerati accettabili. Questo vale a condizione che il sistema di intelligenza artificiale ad alto rischio venga utilizzato conformemente alla sua finalità prevista o in circostanze di uso improprio ragionevolmente prevedibili. Inoltre, i rischi residui devono essere comunicati agli utenti.

Il regolamento impone che nella gestione dei rischi associati ai sistemi di intelligenza artificiale ad alto rischio, sia cruciale adottare un approccio che preveda in primo luogo l’eliminazione o, quando ciò non sia possibile, la riduzione dei rischi attraverso una progettazione e fabbricazione attenta. Qualora alcuni rischi non possano essere completamente eliminati, è necessario implementare misure di mitigazione e controllo adeguatamente studiate. Un aspetto fondamentale di questo processo è anche garantire che gli utenti siano informati adeguatamente riguardo ai potenziali rischi, compresi quelli derivanti dall’uso previsto del sistema e da un suo uso improprio prevedibile. Laddove necessario, dovrebbe essere fornita una formazione specifica per preparare gli utenti ad affrontare tali rischi. In tutte queste fasi, è importante tenere in considerazione le conoscenze tecniche, l’esperienza, l’istruzione e la formazione che si possono ragionevolmente aspettare dagli utenti, nonché l’ambiente in cui il sistema è destinato ad essere impiegato, per assicurare che le misure adottate siano non solo adeguate ma anche efficaci.

I sistemi di intelligenza artificiale (IA) ad alto rischio richiedono una fase di test per identificare le misure di gestione dei rischi più efficaci, assicurando che operino conformemente alle loro finalità e rispettino i requisiti normativi pertinenti. Queste procedure di verifica sono progettate per essere direttamente allineate con gli obiettivi del sistema di IA, evitando qualsiasi eccesso oltre il necessario. La valutazione dei sistemi di IA ad alto rischio avviene durante lo sviluppo e, imperativamente, prima che il sistema sia lanciato sul mercato o messo in servizio, utilizzando metriche e soglie specifiche predefinite che corrispondono alla finalità del sistema. Inoltre, nell’applicare le pratiche di gestione del rischio, si presta particolare attenzione alla sicurezza e all’accessibilità dei sistemi di IA ad alto rischio per i minori, così come al loro potenziale impatto su questo gruppo vulnerabile.

Dati e governance dei dati

I sistemi di IA ad alto rischio che utilizzano tecniche che prevedono l’uso di dati per l’addestramento di modelli sono sviluppati sulla base di set di dati di addestramento, convalida e prova che soddisfano determinati criteri di qualità.

I set di dati di addestramento, convalida e prova sono soggetti ad adeguate pratiche di governance e gestione dei dati in relazione: alle scelte progettuali pertinenti; alla raccolta dei dati; alle operazioni di trattamento pertinenti ai fini della preparazione dei dati, quali annotazione, etichettatura, pulizia, arricchimento e aggregazione;  alla formulazione di ipotesi pertinenti, in particolare per quanto riguarda le informazioni che si presume che i dati misurino e rappresentino; alla valutazione preliminare della disponibilità, della quantità e dell’adeguatezza dei set di dati necessari; all’esame atto a valutare le possibili distorsioni; l’individuazione di eventuali lacune o carenze nei dati e il modo in cui tali lacune e carenze possono essere colmate. Nel regolamento sono previste anche le prescrizioni specifiche relative ai set di dati utilizzati per l’addestramento, come ad esempio: “I set di dati di addestramento, convalida e prova devono essere pertinenti, rappresentativi, esenti da errori e completi. Essi possiedono le proprietà statistiche appropriate, anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone sui quali il sistema di IA ad alto rischio è destinato a essere usato. Queste caratteristiche dei set di dati possono essere soddisfatte a livello di singoli set di dati o di una combinazione degli stessi.”

I set di dati di addestramento, convalida e prova tengono conto, nella misura necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico contesto geografico, comportamentale o funzionale all’interno del quale il sistema di IA ad alto rischio è destinato a essere usato.

La documentazione tecnica di un sistema di IA ad alto rischio, prevista dal regolamento, deve essere redatta prima dell’immissione sul mercato o della messa in servizio di tale sistema ed è tenuta aggiornata. La documentazione tecnica è redatta in modo da dimostrare che il sistema di IA ad alto rischio è conforme ai requisiti del regolamento e fornisce alle autorità nazionali competenti e agli organismi notificati tutte le informazioni necessarie per valutare la conformità del sistema di IA a tali requisiti. Essa contiene almeno gli elementi di cui all’allegato IV che definisce i contenuti della documentazione tecnica.

Altre prescrizioni per i sistemi ad alto rischio

Nel regolamento sono contemplate tutte le altre prescrizioni relative ai sistemi ad alto rischio come ad esempio la trasparenza e fornitura di informazioni agli utenti. Per questo aspetto i sistemi di IA ad alto rischio “sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e utilizzarlo adeguatamente. Sono garantiti un tipo e un livello di trasparenza adeguati, che consentano di conseguire il rispetto dei pertinenti obblighi dell’utente e del fornitore prescritti dal regolamento”.

Altri aspetti riguardano accuratezza, robustezza e cybersecurity, in questo ambito, ad esempio è prescritto che sistemi di IA ad alto rischio siano progettati e sviluppati in modo tale da conseguire, alla luce della loro finalità prevista, un adeguato livello di accuratezza, robustezza e cybersecurity e da operare in modo coerente con tali aspetti durante tutto il loro ciclo di vita.

Altre prescrizioni sono relative agli obblighi dei fornitori che, ad esempio:

  • devono garantire la conformità dei loro prodotti alle prescrizioni del regolamento, utilizzando un sistema di gestione della qualità;
  • sono obbligati a redigere la documentazione tecnica e garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità;
  • I fornitori di sistemi di IA ad alto rischio conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo in virtù di un accordo contrattuale con l’utente o in forza di legge;
  • Dovere di informazione;
  • Cooperazione con le autorità competenti.

I fornitori di sistemi di intelligenza artificiale (IA) classificati come ad alto rischio si assicurano che tali sistemi siano esaminati attraverso un’adeguata procedura di valutazione della conformità prima che vengano lanciati sul mercato o entrino in funzione. Questo processo di valutazione è essenziale per verificare se i sistemi rispettino le normative e i requisiti specifici previsti. Qualora i sistemi di IA superino positivamente questa valutazione dimostrando di aderire agli standard richiesti, i fornitori procedono alla redazione di una dichiarazione di conformità dell’Unione Europea e all’applicazione del marchio CE, che certifica la loro conformità.

Oltre agli obblighi per i fornitori il “Regolamento” prescrive anche obblighi per distributori, importatori, utenti e altri terzi.

Nel regolamento è prevista la istituzione da parte degli Stati membri la designazione o l’istituzione di un’autorità di notifica responsabile della predisposizione e dell’esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio.

Tra i compiti della autorità di notifica vi è che le valutazioni della conformità siano effettuate in modo proporzionato, evitando oneri inutili per i fornitori, e che gli organismi notificati svolgano le loro attività tenendo debitamente conto delle dimensioni di un’impresa, del settore in cui opera, della sua struttura e del grado di complessità del sistema di IA in questione.

Norme, valutazione della conformità, certificati, registrazione

Il Capo 5 del regolamento è relativo alla valutazione della conformità dei certificati e della registrazione.   Gli articoli del Capo 5 definiscono gli aspetti relativi alla valutazione della conformità, del rilascio dei certificati, degli obblighi di informazione degli organismi notificati, la dichiarazione di conformità UE, la marcature CE di conformità e la conservazione dei documenti nonché la registrazione del sistema nella banca dati dell’UE.

Obblighi di trasparenza

Nel titolo IV, che definisce gli obblighi di trasparenza per determinati sistemi di IA, i fornitori devono assicurarsi che i sistemi di intelligenza Artificiale destinati all’interazione con persone siano progettati in modo che sia chiaro quando si sta interagendo con un sistema di IA a meno che lo specifico contesto lo renda ovvio. Gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica informano le persone fisiche che vi sono esposte in merito al funzionamento del sistema. Gli utenti di sistemi di IA che creano o modificano contenuti visivi o audio (“deep fake”) devono indicare se il contenuto è stato alterato artificialmente, a meno che non sia per fini legali, per la libertà di espressione, o di ricerca scientifica e artistica, con le dovute protezioni per i diritti altrui. Vengono specificate, inoltre, le eccezioni (aspetti legali, ricerca etc) all’applicabilità delle prescrizioni di cui sopra.

Misure a sostegno dell’innovazione”

 Il Titolo V contempla gli “spazi di sperimentazione normativa per l’IA”, creati dalle autorità degli Stati membri o dal Garante europeo per la protezione dei dati, per offrire un contesto controllato per lo sviluppo, test e convalida di sistemi di IA innovativi, per un periodo limitato, prima del loro lancio sul mercato. Questo processo avviene sotto stretto monitoraggio delle autorità competenti per assicurare la conformità alla legislazione attuale. Inoltre, gli Stati membri coinvolgono le autorità nazionali per la protezione dei dati e altre autorità rilevanti negli spazi di sperimentazione, soprattutto quando i sistemi di IA trattano dati personali o richiedono l’accesso ai dati. Questi spazi non limitano i poteri di intervento delle autorità, e qualora si identifichino rischi significativi per la salute, la sicurezza o i diritti fondamentali, si devono adottare misure correttive o sospendere la sperimentazione. I partecipanti sono responsabili per eventuali danni causati durante la sperimentazione. Le autorità competenti coordinano le loro attività e presentano rapporti annuali al Comitato europeo per l’IA e alla Commissione, condividendo risultati, buone pratiche e raccomandazioni. Nello stesso titolo vengono definite specifiche “Misure per i fornitori di piccole dimensioni e gli utenti”.

COMITATO EUROPEO PER L’INTELLIGENZA ARTIFICIALE

Nell’ambito della Governance, Il regolamento prevede l’istituzione di un “comitato europeo per l’intelligenza artificiale” che ha i compiti di fornire consulenza e assistenza alla Commissione al fine di:

  1. a) contribuire all’efficace cooperazione delle autorità nazionali di controllo e della Commissione per quanto riguarda le materie disciplinate dal presente regolamento;
  2. b) coordinare e contribuire agli orientamenti e all’analisi della Commissione, delle autorità nazionali di controllo e di altre autorità competenti sulle questioni emergenti nel mercato interno in relazione alle materie disciplinate dal presente regolamento;
  3. c) assistere le autorità nazionali di controllo e la Commissione nel garantire l’applicazione uniforme del presente regolamento.

Nel fornire consulenza e assistenza alla Commissione il Comitato in particolare:

  1. a) raccoglie e condivide conoscenze e migliori pratiche tra gli Stati membri;
  2. b) contribuisce all’uniformità delle pratiche amministrative negli Stati membri, anche per il funzionamento degli spazi di sperimentazione normativi di cui all’articolo 53;
  3. c) formula pareri, raccomandazioni o contributi scritti su questioni relative all’attuazione del presente regolamento, in particolare
  4. i) sulle specifiche tecniche o sulle norme esistenti relative ai requisiti di cui al titolo III, capo 2,
  5. ii) sull’uso delle norme armonizzate o delle specifiche comuni di cui agli articoli 40 e 41,

iii) sulla preparazione di documenti di orientamento, compresi gli orientamenti per stabilire le sanzioni amministrative pecuniarie di cui all’articolo 71.

AUTORITÀ NAZIONALI COMPETENTI

Il CAPO 2 nell’art. 59 prevede la designazione delle autorità nazionali competenti al fine di garantire l’applicazione e l’attuazione del presente regolamento. Le autorità nazionali competenti sono organizzate e gestite in modo che sia salvaguardata l’obiettività e l’imparzialità dei loro compiti e attività.

BANCA DATI DELL’UE PER I SISTEMI DI IA INDIPENDENTI AD ALTO RISCHIO

Il TITOLO VII prevede la istituzione di una banca dati dell’UE per i sistemi di IA indipendenti ad alto rischio.

MONITORAGGIO SUCCESSIVO ALL’IMMISSIONE SUL MERCATO

I fornitori istituiscono e documentano un sistema di monitoraggio successivo all’immissione sul mercato che sia proporzionato alla natura delle tecnologie di intelligenza artificiale e ai rischi del sistema di IA ad alto rischio.

APPLICAZIONE

Nel CAPO 3 vengono definite, con specifici articoli, e norme per l’applicazione con riferimento:

  • Vigilanza del mercato e controllo dei sistemi di IA nel mercato dell’Unione
  • Accesso ai dati e documentazione
  • Procedura per i sistemi di IA che presentano un rischio a livello nazionale
  • Procedura di salvaguardia dell’Unione
  • Sistemi di IA conformi che presentano un rischio
  • Non conformità formale.

RISERVATEZZA E SANZIONI

Nel Titolo X del regolamento sono specificati i criteri di riservatezza e le relative sanzioni. Le autorità nazionali competenti e gli organismi notificati, nell’esecuzione dei loro compiti, devono garantire la confidenzialità delle informazioni e dei dati acquisiti per proteggere:

  1. a) I diritti di proprietà intellettuale, le informazioni commerciali riservate e i segreti commerciali di entità fisiche o giuridiche, inclusi i codici sorgente, salvo le eccezioni previste dall’articolo 5 della direttiva 2016/943 sulla tutela dei segreti commerciali;
  2. b) L’efficace applicazione del regolamento, in particolare durante ispezioni, indagini e audit;
  3. c) Gli interessi di sicurezza pubblica e nazionale;
  4. d) L’integrità dei procedimenti penali o amministrativi.

Per quanto riguarda le sanzioni, ad esempio, l’inosservanza del divieto delle pratiche di intelligenza artificiale (art.5) e la non conformità del sistema di IA ai requisiti di cui all’articolo 10 comporta sanzioni amministrative pecuniarie fino a 30 000 000 di EUR o, se l’autore del reato è una società, fino al 6 % del fatturato mondiale totale annuo dell’esercizio precedente, se superiore. La violazione dei requisiti ed obblighi diversi dai precedenti sono soggette a sanzioni amministrative pecuniarie fino a 20 000 000 di EUR o, se l’autore del reato è una società, fino al 4 % del fatturato mondiale totale annuo dell’esercizio precedente, se superiore.  Inoltre, la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti è soggetta a sanzioni amministrative pecuniarie fino a 10 000 000 di EUR o, se l’autore del reato è una società, fino al 2 % del fatturato mondiale totale annuo dell’esercizio precedente, se superiore.

Infine, il regolamento definisce le sanzioni amministrative pecuniarie a istituzioni, agenzie e organismi dell’Unione.

Fonti:

https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52021PC0206

Le immagini inserite nell’articolo sono state generate dall’intelligenza artificiale.

Disclaimer

Le informazioni contenute in questo articolo sono fornite a scopo puramente informativo e divulgativo e non intendono sostituire le fonti ufficiali. Benché ci impegniamo a garantire l’accuratezza dei contenuti, invitiamo i lettori a consultare direttamente le fonti ufficiali per ottenere tutte le informazioni più specifiche e complete. Non ci assumiamo responsabilità per eventuali inesattezze o omissioni né per decisioni prese dai lettori sulla base delle informazioni qui fornite.

.

Vuoi ricevere periodicamente newsletter personalizzate?

Registrati al servizio di NewsLetter SPIN-EEN

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *