Riepilogo carrello
Il tuo carrello è vuoto
Prodotti nel carrello: 0
Totale prodotti: € 0,00
14/03/2024
Il Parlamento Europeo ha dato il via libera all'AI Act, segnando un passo storico con l'adozione della prima legislazione globale sull'intelligenza artificiale. In questa guida dedicata a sviluppatori e aziende analizziamo i punti chiave del provvedimento, delineando le novità e le implicazioni per il futuro dell'IA nell'UE.
Ieri è stata infatti una giornata storica non solo per gli esperti di intelligenza artificiale ma per tutti: aziende, enti pubblici e cittadini.1. Intervento e sorveglianza umani (art. 14)
L'intelligenza artificiale dovrebbe essere sviluppata e utilizzata in modo da consentire l'intervento e la sorveglianza umana in qualsiasi momento. Questo significa che gli esseri umani dovrebbero sempre avere il controllo dei sistemi di intelligenza artificiale e dovrebbero essere in grado di intervenire se necessario.
2. Robustezza tecnica e sicurezza (art. 15)
I sistemi di intelligenza artificiale dovrebbero essere sviluppati e utilizzati in modo da essere robusti, sicuri e affidabili. Questo significa che dovrebbero essere progettati per minimizzare i rischi di errori e di danni, e dovrebbero essere in grado di funzionare correttamente anche in condizioni impreviste.
3. Vita privata e governance dei dati (art. 10)
I sistemi di intelligenza artificiale dovrebbero essere sviluppati e utilizzati in modo da rispettare la vita privata e la protezione dei dati personali. Questo significa che i dati utilizzati per alimentare i sistemi di intelligenza artificiale dovrebbero essere raccolti e utilizzati in modo legale, etico e trasparente.
4. Trasparenza (artt. 13 e 50)
I sistemi di intelligenza artificiale dovrebbero essere sviluppati e utilizzati in modo trasparente. Questo significa che le persone dovrebbero essere informate quando sono in interazione con un sistema di intelligenza artificiale e dovrebbero essere in grado di comprendere come funziona il sistema.
5. Diversità, non discriminazione ed equità (cons. 27)
I sistemi di intelligenza artificiale dovrebbero essere sviluppati e utilizzati in modo da promuovere la diversità, la non discriminazione e l'equità. Questo significa che i sistemi di intelligenza artificiale non dovrebbero discriminare le persone in base a razza, sesso, religione, età o qualsiasi altra caratteristica personale.
6. Benessere sociale e ambientale (cons. 27)
I sistemi di intelligenza artificiale dovrebbero essere sviluppati e utilizzati in modo da promuovere il benessere sociale e ambientale. Questo significa che i sistemi di intelligenza artificiale dovrebbero essere utilizzati per migliorare la vita delle persone e per proteggere l'ambiente.
7. Responsabilità dei fornitori di sistemi IA (art. 25)
I fornitori di sistemi di intelligenza artificiale dovrebbero essere responsabili per la sicurezza e l'affidabilità dei loro sistemi. Questo significa che i fornitori dovrebbero essere in grado di dimostrare che i loro sistemi sono conformi al Regolamento e dovrebbero essere in grado di risarcire i danni causati dai loro sistemi.
L'AI Act, o Regolamento sull'Intelligenza Artificiale, si applica a una varietà di attori coinvolti nello sviluppo, nella distribuzione e nell'utilizzo di sistemi di intelligenza artificiale (IA) all'interno dell'Unione Europea.
Ecco i principali soggetti interessati:
1. Fornitori (provider)
Il Regolamento si applica ai fornitori di sistemi di IA, sia che siano stabiliti nell'UE o extraeuropei. Questo significa che qualsiasi azienda che sviluppa o immette sul mercato un sistema di IA in Europa, o che ne facilita l'utilizzo in Europa, è tenuta a conformarsi alle sue disposizioni.
2. Utilizzatori (deployer)
L'AI Act si applica anche agli utilizzatori di sistemi di IA, indipendentemente dalla loro natura pubblica o privata. In altre parole, qualsiasi organizzazione o individuo che utilizza un sistema di IA in Europa è soggetto alle regole del Regolamento.
3. Importatori e distributori
L'obbligo di conformità all'AI Act ricade anche su importatori e distributori di sistemi di IA che operano all'interno dell'UE.
4. Persone interessate
Infine, il Regolamento tutela i diritti delle persone interessate dall'utilizzo di sistemi di IA. Questo include individui i cui dati personali sono utilizzati per alimentare sistemi di IA, o che sono in qualche modo influenzati dalle loro decisioni o azioni.
Esclusioni
L'AI Act non si applica a:
L'AI Act definisce il concetto di rischio come la combinazione di probabilità e gravità di un danno.
In base a questa definizione, il Regolamento individua tre classi di rischio, valutando l'impatto potenziale dei sistemi di IA sulla sicurezza e sui diritti fondamentali delle persone fisiche.
Le tre classi di rischio sono:
I. Rischio inaccettabile:
II. Rischio alto:
III. Rischio basso o minimo:
Trasparenza per tutti i sistemi di IA:
Esempio:
Un sistema di IA che analizza i volti per identificare le persone in una folla è considerato ad alto rischio e deve soddisfare i requisiti di conformità del Regolamento. Un chatbot utilizzato per l'assistenza clienti è considerato a basso rischio e non è soggetto a obblighi normativi, ma il fornitore è incoraggiato ad adottare un codice di condotta per garantire la trasparenza e la correttezza del sistema.
La nuova legge sulla Intelligenza Artificiale introduce una serie di obblighi per i diversi attori coinvolti nella filiera dei sistemi di IA ad alto rischio.
Obblighi per i fornitori (art. 16) e importatori (art. 23):
Obblighi per i deployer (art. 26):
Altri obblighi:
In ottemperanza a questi obblighi, i diversi attori coinvolti nella filiera dell'IA ad alto rischio concorrono a garantire la sicurezza, l'affidabilità e la conformità etica di tali sistemi.
L'AI Act pone grande enfasi sulla tracciabilità dei sistemi di IA, in particolare quelli ad alto rischio.
Misure di tracciabilità:
Tutela dei diritti degli utenti:
Obiettivi:
Le misure di tracciabilità e tutela dei diritti degli utenti nell'AI Act mirano a:
L'AI Act introduce specifici obblighi per i fornitori di modelli di IA per finalità generali, come i modelli di IA generativa di grandi dimensioni (es. ChatGPT).
Questi obblighi includono:
Esenzioni:
I fornitori di modelli rilasciati con licenza libera o open source sono esentati da questi obblighi a meno che non presentino un rischio sistemico.
Obiettivi:
Gli obblighi per i fornitori di modelli di IA per finalità generali mirano a:
Act prevede una articolata disciplina in materia di sanzioni.
Applicazioni di IA vietate: fino a 35 milioni di euro o il 7% del fatturato mondiale totale annuo se superiore.
Applicabilità del Regolamento:
LegalBlink segue con grande attenzione l'evoluzione dell'AI Act, il nuovo Regolamento europeo sull'Intelligenza Artificiale. Il nostro team di esperti legali è in prima linea per comprendere le implicazioni di questa normativa per le aziende e per supportarle nel processo di adeguamento.
Perché LegalBlink è così attenta all'AI Act?
In un contesto in continua evoluzione come quello dell'IA, LegalBlink si pone come partner affidabile per le aziende che desiderano innovare in modo sicuro e responsabile.
Contattaci per saperne di più su come possiamo aiutarti ad adeguarti all'AI Act.
Team LegalBlink