Consulenza legale per ecommerce con un Team di avvocati esperti in privacy e diritto digitale, dal 2011.
0

Riepilogo carrello

Il tuo carrello è vuoto

Prodotti nel carrello: 0
Totale prodotti: € 0,00

Prosegui al carrello

Garante Privacy e OpenAI: violata la privacy degli utenti?

07/02/2024

Garante Privacy e OpenAI: violata la privacy degli utenti?



Il 29 gennaio il Garante Privacy ha comunicato un provvedimento contro OpenAI, titolare del noto tool ChatGPT. In questo articolo facciamo il punto della situazione e vediamo quali possono essere gli scenari futuri in merito all'utilizzo dei sistemi di Intelligenza Artificiale.

 

SOMMARIO



Il provvedimento del Garante Privacy
La precedente decisione della Autorità
Di cosa terrà conto il Garante in questo procedimento
Implicazioni per gli ecommerce che utilizzano sistemi di Intelligenza Artificiale


 

Il Provvedimento del Garante Privacy

 

L'autorità italiana che si occupa della privacy ha inviato una notifica a OpenAI, l'azienda dietro la piattaforma di intelligenza artificiale ChatGPT, per aver infranto le regole sulla privacy. Dopo aver già imposto delle restrizioni a marzo, l'autorità, dopo aver indagato, pensa che ci siano state una o più violazioni delle leggi europee sulla protezione dei dati.

OpenAI ha ora 30 giorni per rispondere e difendersi dalle accuse.

Nel decidere come procedere, l'autorità considererà anche il lavoro di un gruppo speciale europeo che si occupa della protezione dei dati.

 

La precedente decisione privacy contro OpenAi


Questo provvedimento segue a una precedente decisione del Garante Privacy, emessa in data 31 marzo 2023.

Con questa prima decisione l'autorità italiana per la privacy aveva temporaneamente bloccato ChatGPT accusando la società che lo ha creato, OpenAI, di raccogliere illegalmente dati personali e di non avere misure per controllare l'età degli utenti. Questo provvedimento arrivava dopo che il 20 marzo 2023 si era verificata una fuga di informazioni che includeva dati delle conversazioni degli utenti e informazioni di pagamento.

L'autorità aveva criticato OpenAI per non aver informato gli utenti su come i loro dati venivano usati e per mancanza di una base legale che giustifichi la vasta raccolta e conservazione di dati personali usati per "allenare" i suoi algoritmi. Inoltre, le risposte fornite da ChatGPT non erano sempre state accurate, portando a un uso improprio dei dati personali.

Anche se OpenAI aveva affermato che il servizio fosse destinato agli utenti di età superiore ai 13 anni, l'assenza di controlli sull'età poteva esporre i minori a contenuti non adatti.

A seguito di questo provvedimento OpenAI avevamo modificato la propria privacy policy e assunto delle procedure che avevano soddisfatto il Garante Privacy.


 

Garante Privacy vs OpenAI


 

Di cosa terrà conto il Garante in questo nuovo procedimento contro OpenAI

 

Nel valutare il caso di ChatGPT e le azioni intraprese da OpenAI, il Garante per la protezione dei dati personali non si limiterà solo alle proprie indagini, ma terrà in considerazione anche le decisioni prese a livello europeo.

Infatti, il 13 aprile a Bruxelles, il Comitato Europeo per la Protezione dei Dati (EDPB) ha adottato una decisione di risoluzione delle controversie, in base all'articolo 65 del GDPR, riguardante una decisione preliminare dell'Autorità Irlandese per la Protezione dei Dati sulla legalità dei trasferimenti di dati negli Stati Uniti effettuati da Meta Platforms Ireland Limited (Meta IE) per il suo servizio Facebook.

Questa decisione vincolante risolve importanti questioni legali e gioca un ruolo cruciale nell'assicurare l'applicazione corretta e coerente del GDPR da parte delle autorità nazionali per la protezione dei dati.

Dato che non è stato raggiunto un consenso sulle obiezioni sollevate da diverse autorità di protezione dei dati, l'EDPB è intervenuto per risolvere la disputa entro due mesi.


 

Implicazioni per gli ecommerce che utilizzano sistemi di Intelligenza Artificiale



Il recente intervento del Garante per la protezione dei dati personali nei confronti di OpenAI per il servizio ChatGPT solleva un punto critico nella discussione sulla privacy e sull'utilizzo degli strumenti di intelligenza artificiale: la necessità di affidarsi a tecnologie che garantiscano la tutela dei dati personali senza la loro comunicazione a società terze.

Questa vicenda mette in luce l'importanza di selezionare strumenti di AI che siano progettati con un approccio "privacy by design", ovvero che incorporino la protezione della privacy fin dalla loro concezione.

La sfida principale nel mondo digitale odierno non è solo sviluppare tecnologie all'avanguardia, ma assicurarsi che queste tecnologie rispettino rigorosamente le normative sulla privacy.

Il caso di ChatGPT evidenzia come anche le piattaforme più innovative possano trovarsi sotto scrutinio per come gestiscono i dati degli utenti. È cruciale, quindi, per le aziende e per gli sviluppatori di intelligenza artificiale, lavorare attivamente per implementare sistemi che non solo rispettino ma anticipino le esigenze di privacy degli utenti.

In questo contesto, diventa essenziale per gli utenti e per le organizzazioni che implementano l'AI nelle loro operazioni, scegliere soluzioni che non prevedano la comunicazione di dati personali a società terze. Questo non solo per evitare potenziali sanzioni legali, ma anche per costruire un rapporto di fiducia con gli utenti, dimostrando un impegno concreto nella protezione dei loro dati.

Gli sviluppatori di questi strumenti dovrebbero quindi concentrarsi su:

 

  • Trasparenza: chiarire agli utenti come i loro dati vengono utilizzati e per quali scopi.
  • Minimizzazione dei dati: raccogliere solo i dati strettamente necessari per il funzionamento del servizio.
  • Controllo dell'utente sui propri dati: fornire opzioni facili e accessibili per la gestione dei propri dati personali.
  • Sicurezza dei dati: implementare le migliori pratiche e tecnologie per proteggere i dati degli utenti da accessi non autorizzati.



In conclusione, il caso di ChatGPT serve da monito per l'intero settore dell'intelligenza artificiale, sottolineando l'importanza di sviluppare e utilizzare strumenti che siano non solo intelligenti ma anche eticamente responsabili. Nel futuro dell'AI, la capacità di un sistema di rispettare la privacy degli utenti sarà tanto critica quanto le sue capacità tecniche, delineando un nuovo parametro di eccellenza nel campo dell'intelligenza artificiale.


Avv. Lorenzo Grassano - Team LegalBlink