Riepilogo carrello
Il tuo carrello è vuoto
Prodotti nel carrello: 0
Totale prodotti: € 0,00
07/02/2024
SOMMARIO
L'autorità italiana che si occupa della privacy ha inviato una notifica a OpenAI, l'azienda dietro la piattaforma di intelligenza artificiale ChatGPT, per aver infranto le regole sulla privacy. Dopo aver già imposto delle restrizioni a marzo, l'autorità, dopo aver indagato, pensa che ci siano state una o più violazioni delle leggi europee sulla protezione dei dati.
OpenAI ha ora 30 giorni per rispondere e difendersi dalle accuse.
Nel decidere come procedere, l'autorità considererà anche il lavoro di un gruppo speciale europeo che si occupa della protezione dei dati.
L'autorità aveva criticato OpenAI per non aver informato gli utenti su come i loro dati venivano usati e per mancanza di una base legale che giustifichi la vasta raccolta e conservazione di dati personali usati per "allenare" i suoi algoritmi. Inoltre, le risposte fornite da ChatGPT non erano sempre state accurate, portando a un uso improprio dei dati personali.
Anche se OpenAI aveva affermato che il servizio fosse destinato agli utenti di età superiore ai 13 anni, l'assenza di controlli sull'età poteva esporre i minori a contenuti non adatti.
A seguito di questo provvedimento OpenAI avevamo modificato la propria privacy policy e assunto delle procedure che avevano soddisfatto il Garante Privacy.
Nel valutare il caso di ChatGPT e le azioni intraprese da OpenAI, il Garante per la protezione dei dati personali non si limiterà solo alle proprie indagini, ma terrà in considerazione anche le decisioni prese a livello europeo.
Infatti, il 13 aprile a Bruxelles, il Comitato Europeo per la Protezione dei Dati (EDPB) ha adottato una decisione di risoluzione delle controversie, in base all'articolo 65 del GDPR, riguardante una decisione preliminare dell'Autorità Irlandese per la Protezione dei Dati sulla legalità dei trasferimenti di dati negli Stati Uniti effettuati da Meta Platforms Ireland Limited (Meta IE) per il suo servizio Facebook.
Questa decisione vincolante risolve importanti questioni legali e gioca un ruolo cruciale nell'assicurare l'applicazione corretta e coerente del GDPR da parte delle autorità nazionali per la protezione dei dati.
Dato che non è stato raggiunto un consenso sulle obiezioni sollevate da diverse autorità di protezione dei dati, l'EDPB è intervenuto per risolvere la disputa entro due mesi.
La sfida principale nel mondo digitale odierno non è solo sviluppare tecnologie all'avanguardia, ma assicurarsi che queste tecnologie rispettino rigorosamente le normative sulla privacy.
Il caso di ChatGPT evidenzia come anche le piattaforme più innovative possano trovarsi sotto scrutinio per come gestiscono i dati degli utenti. È cruciale, quindi, per le aziende e per gli sviluppatori di intelligenza artificiale, lavorare attivamente per implementare sistemi che non solo rispettino ma anticipino le esigenze di privacy degli utenti.
In questo contesto, diventa essenziale per gli utenti e per le organizzazioni che implementano l'AI nelle loro operazioni, scegliere soluzioni che non prevedano la comunicazione di dati personali a società terze. Questo non solo per evitare potenziali sanzioni legali, ma anche per costruire un rapporto di fiducia con gli utenti, dimostrando un impegno concreto nella protezione dei loro dati.
Gli sviluppatori di questi strumenti dovrebbero quindi concentrarsi su:
In conclusione, il caso di ChatGPT serve da monito per l'intero settore dell'intelligenza artificiale, sottolineando l'importanza di sviluppare e utilizzare strumenti che siano non solo intelligenti ma anche eticamente responsabili. Nel futuro dell'AI, la capacità di un sistema di rispettare la privacy degli utenti sarà tanto critica quanto le sue capacità tecniche, delineando un nuovo parametro di eccellenza nel campo dell'intelligenza artificiale.