Consulenza legale per ecommerce con un Team di avvocati esperti in privacy e diritto digitale, dal 2011.

Riepilogo carrello

Il tuo carrello è vuoto

Prodotti nel carrello: 0
Totale prodotti: € 0,00

Prosegui al carrello

Regolamento sulla Intelligenza Artificiale (spiegato bene). Guida per sviluppatori e aziende

14/03/2024

Regolamento sulla Intelligenza Artificiale (spiegato bene). Guida per sviluppatori e aziende


 

Il Parlamento Europeo ha dato il via libera all'AI Act, segnando un passo storico con l'adozione della prima legislazione globale sull'intelligenza artificiale. In questa guida dedicata a sviluppatori e aziende analizziamo i punti chiave del provvedimento, delineando le novità e le implicazioni per il futuro dell'IA nell'UE.

Ieri è stata infatti una giornata storica non solo per gli esperti di intelligenza artificiale ma per tutti: aziende, enti pubblici e cittadini.
Questo testo, risultato di un intenso lavoro politico, si rivela un documento essenziale per comprendere le future modifiche e il processo di adeguamento.

Attenzione: se sei interessato a leggere il provvedimento clicca qui.

Sul nostro sito abbiamo già pubblicato diverse guide sui temi legali connessi all'uso della Intelligenza Artificiale. Ad esempio abbiamo affrontato il tema realtivo alla privacy applicata a tool di AI, oppure risposto alle principali domande ricevute in questi mesi.

In questa nuova guida analizziamo più nel dettaglio il testo del Regolamento, cercando di anticipare gli sviluppi futuri per le imprese. Buona lettura!

 



SOMMARIO


Cos'è il Regolamento sull'Intelligenza Artificiale (AI Act)
A chi si applica il Regolamento sulla AI
Ai e concetto di Rischio
I principali obblighi previsti dall'AI Act
AI Act e diritti
Chatbot e Regolamento
Sanzioni e entrata in vigore
LegalBlink

 

Cos'è il Regolamento sull'Intelligenza Artificiale (AI Act)



L'AI ACT, iniziato nell'aprile 2021, è il primo insieme di norme al mondo dedicato all'intelligenza artificiale, con l'obiettivo di proteggere i diritti individuali attraverso un approccio centrato sull'umanità. Questa legislazione intende regolare in modo adeguato lo sviluppo e l'uso dei sistemi di IA, adottando una prospettiva basata sui rischi associati.

Il Regolamento sull'intelligenza artificiale si basa su una serie di principi etici elaborati nel 2019 dall'High-Level Expert Group on Artificial Intelligence nominato dalla Commissione europea.

Questi principi sono:
 

1. Intervento e sorveglianza umani (art. 14)


L'intelligenza artificiale dovrebbe essere sviluppata e utilizzata in modo da consentire l'intervento e la sorveglianza umana in qualsiasi momento. Questo significa che gli esseri umani dovrebbero sempre avere il controllo dei sistemi di intelligenza artificiale e dovrebbero essere in grado di intervenire se necessario.


2. Robustezza tecnica e sicurezza (art. 15)


I sistemi di intelligenza artificiale dovrebbero essere sviluppati e utilizzati in modo da essere robusti, sicuri e affidabili. Questo significa che dovrebbero essere progettati per minimizzare i rischi di errori e di danni, e dovrebbero essere in grado di funzionare correttamente anche in condizioni impreviste.
 

3. Vita privata e governance dei dati (art. 10)


I sistemi di intelligenza artificiale dovrebbero essere sviluppati e utilizzati in modo da rispettare la vita privata e la protezione dei dati personali. Questo significa che i dati utilizzati per alimentare i sistemi di intelligenza artificiale dovrebbero essere raccolti e utilizzati in modo legale, etico e trasparente.
 

4. Trasparenza (artt. 13 e 50)


I sistemi di intelligenza artificiale dovrebbero essere sviluppati e utilizzati in modo trasparente. Questo significa che le persone dovrebbero essere informate quando sono in interazione con un sistema di intelligenza artificiale e dovrebbero essere in grado di comprendere come funziona il sistema.
 

5. Diversità, non discriminazione ed equità (cons. 27)


I sistemi di intelligenza artificiale dovrebbero essere sviluppati e utilizzati in modo da promuovere la diversità, la non discriminazione e l'equità. Questo significa che i sistemi di intelligenza artificiale non dovrebbero discriminare le persone in base a razza, sesso, religione, età o qualsiasi altra caratteristica personale.
 

6. Benessere sociale e ambientale (cons. 27)


I sistemi di intelligenza artificiale dovrebbero essere sviluppati e utilizzati in modo da promuovere il benessere sociale e ambientale. Questo significa che i sistemi di intelligenza artificiale dovrebbero essere utilizzati per migliorare la vita delle persone e per proteggere l'ambiente.


7. Responsabilità dei fornitori di sistemi IA (art. 25)


I fornitori di sistemi di intelligenza artificiale dovrebbero essere responsabili per la sicurezza e l'affidabilità dei loro sistemi. Questo significa che i fornitori dovrebbero essere in grado di dimostrare che i loro sistemi sono conformi al Regolamento e dovrebbero essere in grado di risarcire i danni causati dai loro sistemi.

 

A chi si applica il Regolamento sulla Intelligenza Artificiale


 

L'AI Act, o Regolamento sull'Intelligenza Artificiale, si applica a una varietà di attori coinvolti nello sviluppo, nella distribuzione e nell'utilizzo di sistemi di intelligenza artificiale (IA) all'interno dell'Unione Europea.

Ecco i principali soggetti interessati:


1. Fornitori (provider)


Il Regolamento si applica ai fornitori di sistemi di IA, sia che siano stabiliti nell'UE o extraeuropei. Questo significa che qualsiasi azienda che sviluppa o immette sul mercato un sistema di IA in Europa, o che ne facilita l'utilizzo in Europa, è tenuta a conformarsi alle sue disposizioni.
 

2. Utilizzatori (deployer)


L'AI Act si applica anche agli utilizzatori di sistemi di IA, indipendentemente dalla loro natura pubblica o privata. In altre parole, qualsiasi organizzazione o individuo che utilizza un sistema di IA in Europa è soggetto alle regole del Regolamento.


3. Importatori e distributori


L'obbligo di conformità all'AI Act ricade anche su importatori e distributori di sistemi di IA che operano all'interno dell'UE.
 

4. Persone interessate


Infine, il Regolamento tutela i diritti delle persone interessate dall'utilizzo di sistemi di IA. Questo include individui i cui dati personali sono utilizzati per alimentare sistemi di IA, o che sono in qualche modo influenzati dalle loro decisioni o azioni.
 

Esclusioni


L'AI Act non si applica a:
 

  • Sistemi di IA per scopi militari, di difesa o di sicurezza nazionale: questi sistemi rimangono di competenza degli Stati membri.
  • Sistemi di IA per attività di ricerca e sviluppo: l'obiettivo è di non ostacolare l'innovazione in questo campo.
  • Sistemi di IA utilizzati da persone fisiche per motivi non professionali: l'uso privato dell'IA non è soggetto a regolamentazione.
 

 

testo regolamento intelligenza artificiale


 

AI Act e concetto di rischio

 

L'AI Act definisce il concetto di rischio come la combinazione di probabilità e gravità di un danno.

In base a questa definizione, il Regolamento individua tre classi di rischio, valutando l'impatto potenziale dei sistemi di IA sulla sicurezza e sui diritti fondamentali delle persone fisiche.


Le tre classi di rischio sono:


I. Rischio inaccettabile:

  • Pratiche vietate:
    • Manipolazione del comportamento umano con tecniche subliminali.
    • Classificazione delle persone basata su caratteristiche biometriche o comportamento sociale per finalità pubbliche o private (es. "social scoring").

II. Rischio alto:

  • Sistemi soggetti a requisiti di conformità:
    • Sistemi utilizzati per la selezione del personale.
    • Altri sistemi con potenziale impatto significativo sui diritti fondamentali.
  • Requisiti per la circolazione nel mercato europeo:
    • Conformità, robustezza e tracciabilità.
    • Addestramento e test su set di dati rappresentativi per minimizzare distorsioni inique.
    • Valutazione d'impatto sui diritti fondamentali.

III. Rischio basso o minimo:

  • Sistemi esentati da obblighi normativi:
    • Videogiochi.
    • Filtri antispam.
  • Incoraggiamento all'adesione volontaria a codici di condotta:
    • Per ridurre il rischio di manipolazione.


Trasparenza per tutti i sistemi di IA:
 

  • Obblighi specifici di trasparenza (art. 50).
  • I fornitori devono informare le persone che interagiscono con un sistema di IA.
  • L'informazione deve essere chiara e accessibile.
  •  

Esempio:


Un sistema di IA che analizza i volti per identificare le persone in una folla è considerato ad alto rischio e deve soddisfare i requisiti di conformità del Regolamento. Un chatbot utilizzato per l'assistenza clienti è considerato a basso rischio e non è soggetto a obblighi normativi, ma il fornitore è incoraggiato ad adottare un codice di condotta per garantire la trasparenza e la correttezza del sistema.

 

I principali obblighi previsit dall'AI Act



La nuova legge sulla Intelligenza Artificiale introduce una serie di obblighi per i diversi attori coinvolti nella filiera dei sistemi di IA ad alto rischio.
 

Obblighi per i fornitori (art. 16) e importatori (art. 23):
 

  • Conformità ai requisiti tecnici: I sistemi di IA ad alto rischio devono soddisfare i requisiti tecnici stabiliti dal Regolamento.
  • Identificazione: Il sistema deve includere informazioni su nome, denominazione commerciale e indirizzo del fornitore o importatore.
  • Sistema di gestione della qualità: I fornitori devono implementare un sistema di gestione della qualità per garantire la conformità all'AI Act.
  • Dichiarazione di conformità UE: I fornitori devono redigere una dichiarazione di conformità UE per i sistemi immessi sul mercato.
  • Misure correttive: In caso di non conformità, i fornitori devono adottare misure correttive, come il ritiro o la disabilitazione del sistema.
  • Accesso alle informazioni: I fornitori devono fornire alle autorità competenti tutte le informazioni e la documentazione richiesta.

Obblighi per i deployer (art. 26):

  • Utilizzo conforme: I deployer devono adottare misure per garantire un utilizzo conforme dei sistemi di IA ad alto rischio.
  • Sorveglianza umana: La sorveglianza umana deve essere affidata a persone competenti e formate.
  • Monitoraggio e segnalazione: I deployer devono monitorare il funzionamento dei sistemi e segnalare eventuali malfunzionamenti ai fornitori.
  • Cooperazione con le autorità: I deployer devono collaborare con le autorità di vigilanza e controllo.
  • Valutazione d'impatto sui diritti fondamentali: In alcuni casi, è necessaria una valutazione dell'impatto sui diritti fondamentali.

Altri obblighi:

  • Distributori: I distributori devono cooperare con le autorità e fornire informazioni sui sistemi di IA ad alto rischio che distribuiscono.
  • Utenti: Gli utenti dei sistemi di IA ad alto rischio devono essere informati dell'utilizzo di tali sistemi.

In ottemperanza a questi obblighi, i diversi attori coinvolti nella filiera dell'IA ad alto rischio concorrono a garantire la sicurezza, l'affidabilità e la conformità etica di tali sistemi.

 

AI Act e diritti



L'AI Act pone grande enfasi sulla tracciabilità dei sistemi di IA, in particolare quelli ad alto rischio.
 

Misure di tracciabilità:

  • Conservazione e pubblicazione della documentazione: I fornitori devono conservare e pubblicare la documentazione relativa ai sistemi di IA ad alto rischio, inclusi i dati utilizzati per l'addestramento degli algoritmi.
  • Valutazione d'impatto sui diritti fondamentali: Per i sistemi ad alto rischio, è richiesta una valutazione d'impatto sui diritti fondamentali.

Tutela dei diritti degli utenti:

  • Ricorso alle autorità di vigilanza: In caso di presunta violazione del Regolamento, gli utenti possono rivolgersi all'Autorità nazionale di vigilanza.
  • Diritto di spiegazione: Gli utenti che sono oggetto di una decisione basata su un sistema di IA ad alto rischio hanno il diritto di ottenere spiegazioni chiare e significative sul ruolo del sistema di IA nella decisione.

Obiettivi:

Le misure di tracciabilità e tutela dei diritti degli utenti nell'AI Act mirano a:

  • Garantire la trasparenza e l'accountability dei sistemi di IA.
  • Proteggere i diritti e le libertà degli utenti.
  • Promuovere la fiducia nell'utilizzo dell'IA.


 

regolamento AI Act pubblicato


 

Chatbot e Regolamento sull'Intelligenza Artificiale



L'AI Act introduce specifici obblighi per i fornitori di modelli di IA per finalità generali, come i modelli di IA generativa di grandi dimensioni (es. ChatGPT).

Questi obblighi includono:
 

  • Documentazione tecnica: I fornitori devono redigere e mantenere aggiornata la documentazione tecnica del modello, includendo informazioni sul processo di addestramento e prova, e sui risultati della sua valutazione.
  • Conformità al diritto d'autore: I fornitori devono attuare una politica per adempiere alla normativa dell'Unione Europea in materia di diritto d'autore.
  • Trasparenza: I fornitori devono redigere e mettere a disposizione del pubblico una sintesi dei contenuti utilizzati per l'addestramento del modello di IA. Questo permette agli interessati di esercitare il loro diritto di opposizione (opt-out).

Esenzioni:

I fornitori di modelli rilasciati con licenza libera o open source sono esentati da questi obblighi a meno che non presentino un rischio sistemico.

Obiettivi:

Gli obblighi per i fornitori di modelli di IA per finalità generali mirano a:

  • Garantire la sicurezza e l'affidabilità dei modelli.
  • Proteggere i diritti d'autore e i dati personali.
  • Promuovere la trasparenza e l'etica nell'utilizzo dei modelli di IA.


 

Sanzioni e entrata in vigore del Regolamento sulla Intelligenza Artificiale



 Act prevede una articolata disciplina in materia di sanzioni.
 

Applicazioni di IA vietate: fino a 35 milioni di euro o il 7% del fatturato mondiale totale annuo se superiore.

  • Violazione di altri obblighi: fino a 15 milioni di euro o il 3% del fatturato mondiale annuo.
  • Informazioni inesatte: fino a 7,5 milioni di euro o l'1,5% del fatturato mondiale annuo.

Applicabilità del Regolamento:

  • Entrata in vigore: 20 giorni dopo la pubblicazione nella Gazzetta ufficiale dell'Unione Europea.
  • Piena applicabilità: 24 mesi dopo l'entrata in vigore.
  • Applicazione anticipata:
    • Disposizioni generali e divieti: 6 mesi dopo l'entrata in vigore.
    • Sistemi di IA per finalità generali: 12 mesi dopo l'entrata in vigore.


 

LegalBlink e intelligenza artificiale


 

LegalBlink e l'AI Act: al passo con le nuove sfide



LegalBlink segue con grande attenzione l'evoluzione dell'AI Act, il nuovo Regolamento europeo sull'Intelligenza Artificiale. Il nostro team di esperti legali è in prima linea per comprendere le implicazioni di questa normativa per le aziende e per supportarle nel processo di adeguamento.
 

Perché LegalBlink è così attenta all'AI Act?

  • Affianchiamo già diverse imprese che stanno lanciando progetti basati sull'IA. La nostra esperienza ci permette di comprendere le esigenze specifiche di questo settore e di fornire una consulenza mirata.
  • Stiamo sviluppando tool innovativi per facilitare l'adeguamento all'AI Act.Questi strumenti aiuteranno le aziende a valutare i rischi connessi ai loro sistemi di IA, a redigere la documentazione necessaria e a rispettare tutti gli obblighi previsti dal Regolamento.


In un contesto in continua evoluzione come quello dell'IA, LegalBlink si pone come partner affidabile per le aziende che desiderano innovare in modo sicuro e responsabile.

Contattaci per saperne di più su come possiamo aiutarti ad adeguarti all'AI Act.

Team LegalBlink