GPT-3: intelligenza artificiale e proprietà intellettuale
L'intelligenza artificiale (AI) è da qualche mese sulla bocca di tutti, esperti del settore e non, grazie a
ChatGPT, un chatbot AI in grado di svolgere attività come condurre una conversazione, scrivere saggi e articoli con un'abilità molto simile a quella umana. Nei primi cinque giorni di vita, più di
un milione di persone si sono iscritte per provarlo. Il
New York Times ne saluta la "genialità e la stranezza" e dice che ispira sia stupore che paura.
A discapito dell'utilizzo massivo che gli utenti stanno facendo di GPT-3,
il futuro dell'intelligenza artificiale non è scrivere articoli o poesie in uno stile piuttosto che un altro, o altre cose strane per cui gli utenti stanno utilizzando questo tool.
Al contrario,
l'intelligenza artificiale sarà soprattutto uno strumento commerciale, che frutterà miliardi di dollari alle aziende che la utilizzeranno per compiti come il miglioramento delle ricerche su Internet, la scrittura di codice software, la scoperta e la correzione di inefficienze nell'attività di un'azienda e l'estrazione di informazioni utili e fruibili da enormi quantità di dati.
La creazione e l'uso di intelligenza artificiale pone però notevoli
questioni legali sotto il profilo della
proprietà intelletuale.
In questo articolo vediamo qualche spunto, parlando anche di una
causa legale che pende negli USA e il cui esito avrà notevoli
implicazioni sull'uso di GPT-3, sulla intelligenza artificiale e sui diritti di proprietà intellettuale.
Prima di leggere l'articolo, se non lo hai già fatto iscriviti alla nostra
newsletter, oppure seguici sui nostri canali social (
YouTube,
LinkedIn e
Facebook): in questo modo rimarrai
sempre aggiornato sulle novità legali della intelligenza artificiale e del mondo ecommerce.
SOMMARIO
Intelligenza artificiale a proprietà intellettuale
Una causa legale che potrebbe cambiare tutto
Puntare tutto sulla intelligenza artificiale
Copilot e software pirata
Dove andremo a finire?
Dietro il clamore determinato dal crescente uso di GPT-3 c'è da rilevare un
piccolo sporco "segreto" alla base dell'intelligenza artificiale: il (presunto) furto di proprietà intellettuale.
Per svolgere il suo lavoro,
l'intelligenza artificale ha infatti bisogno di ingerire costantemente dati, molti dati.
Parte degli esperti in diritto intellettuale (sopratutto negli USA) per tale ragione sostengono che molti attuali
sistemi di intelligenza artificiale stiano violando le leggi sulla proprietà intellettuale,
assorbendo informazioni senza ottenerne i diritti, e che da qui in poi le cose non potranno che peggiorare.
Una
causa legale intentata nel 2022 per proprietà intellettuale contro Microsoft potrebbe determinare il futuro dell'intelligenza artificiale. L'accusa è che Microsoft, il repository di codice
GitHub e
OpenAI, la società madre di ChatGPT-3, abbiano utilizzato illegalmente codice creato da altri per costruire e addestrare il servizio
Copilot che utilizza l'intelligenza artificiale per scrivere software. (Microsoft ha investito 1 miliardo di dollari in OpenAI).
Per capire la portata e le implicazioni di questa causa legale, è necessario innanzitutto
comprendere la grande scommessa di Microsoft sull'intelligenza artificiale. Satya Nadella, CEO di Microsoft, ritiene che l'intelligenza artificiale trasformerà Microsoft come ha fatto il cloud. Recentemente
ha dichiarato:
"Penso che la prossima fase - se si dice che il mobile e il cloud sono stati l'ultimo paradigma - sarà l'intelligenza artificiale".
L'
intelligenza artificiale sarà utilizzata in ogni settore dell'azienda, dal cloud alla ricerca Bing, fino a Windows stesso. Alla conferenza CES della scorsa settimana
ha spiegato:
"il modo in cui si fa tutto su Windows, letteralmente, è destinato a cambiare con l'intelligenza artificiale".
Ha fornito solo pochi dettagli, come l'interfaccia in linguaggio naturale, ma senza dubbio c'è molto lavoro in corso che non vuole ancora rivelare.
La
combinazione di intelligenza artificiale e cloud è forse l'obiettivo più importante dell'azienda. ChatGPT è alimentato dalla tecnologia cloud
Azure di Microsoft ed è stato addestrato utilizzando l'infrastruttura di supercalcolo di intelligenza artificiale di Azure. Microsoft venderà alle aziende funzionalità di intelligenza artiiciale basate su Azure, il che significa che
le aziende saranno in grado di sfruttare l'intelligenza artificiale senza dover costruire alcuna infrastruttura: potranno semplicemente utilizzare l'intelligenza artificiale basata sul cloud di Microsoft.
Il prodotto, chiamato Azure OpenAI Service, è già disponibile in anteprima.
Microsoft sta anche pianificando di
integrare l'intelligenza artificiale di ChatGPT3 con la ricerca di Bing per migliorare i risultati delle ricerche e fornire direttamente le informazioni che le persone stanno cercando, invece di indirizzarle semplicemente a pagine web.
Veniamo ora al
servizio che ha portato alla causa contro Microsoft: Copilot. Si tratta di un
assistente di codifica AI che fornisce codice per la creazione di funzioni software di base, consentendo agli sviluppatori di concentrarsi su attività di programmazione più complesse e di livello superiore. I programmatori devono solo dire a Copilot cosa vogliono creare e Copilot crea codice pronto all'uso che possono incollare nel loro lavoro.
Ma questo è solo lo stato dell'arte di oggi. Con una formazione adeguata, non sarebbe sorprendente se i non programmatori fossero in grado di costruire semplici applicazioni
senza conoscere una riga di codice, e forse anche di creare applicazioni più complicate.
Per svolgere questa specie di "magia",
Copilot ha bisogno di una formazione su enormi quantità di codice. Il repository di codice open-source GitHub, di proprietà di Microsoft, che gestisce Copilot, afferma di essere "addestrato su miliardi di righe di codice pubblico".
Ed è proprio il
modo in cui Copilot ottiene il codice open source è al centro della causa.
Il
codice open source non è di dominio pubblico.
Spesso è protetto da copyright.
In linea di principio, può essere utilizzato senza essere pagato, ma
solo se il soggetto che lo utilizza accetta i termini di licenza del software. Esistono
diverse licenze open-source con termini diversi.
Ad esempio, una licenza potrebbe richiedere che qualsiasi software costruito sulla base del codice open-source debba includere il nome del creatore del codice originale e una nota di copyright.
Cosa sostiene Microsoft
Copilot non ha accettato alcuna licenza di utilizzo di software open source. Microsoft sostiene di non averne bisogno. L'amministratore delegato di GitHub, Nat Friedman,
sostiene che Copilot può utilizzare qualsiasi codice open source per l'addestramento, indipendentemente dalle licenze, perché
rientra nel "fair use" della legge sul copyright statunitense. Molte altre aziende e ricercatori di IA sostengono la stessa cosa.
Chi è Matthew Butterick
Matthew Butterick, programmatore, scrittore e avvocato, non è d'accordo.
E' lui infatti che ha sostanzialmente dato avvio alla causa legale. Insieme allo studio legale Joseph Saveri
ha intentato una causa collettiva contro Microsoft, GitHub e OpenAI, sostenendo che queste società:
"traggono profitto dal lavoro dei programmatori open-source violando le condizioni delle loro licenze open-source".
In parole povere, per l'accusa
Microsoft & Company sarebbero pirati del software, che rubano la proprietà intellettuale di coloro che hanno creato il codice usato per addestrare Copilot.
Stando a quanto sostiene Butterick,
quando qualcuno chiede a Copilot di scrivere un software, il codice che ne risulta è una copia esatta del codice open source su cui Copilot è stato addestrato.
Per Butterick Copilot è solo la punt dell'icerberg e che è in arrivo un
furto di proprietà intellettuale molto più massiccio, non solo di codice, ma anche di immagini, scritti e dati di qualsiasi tipo.
Ha dichiarato al New York Times:
"Le ambizioni di Microsoft e OpenAI vanno ben oltre GitHub e Copilot. Vogliono fare formazione su qualsiasi dato, ovunque, gratuitamente, senza consenso, per sempre".
Su questo punto è difficilie dargli torto. I generatori di immagini AI, come
DALL-E 2, gestito da OpenAI,
si addestrano già su immagini trovate sul web (con buona pace di chi, quelle immagini, le ha create con il proprio apporto creativo).
Una delle grandi
ironie dell'uso del software open-source da parte di Microsoft e del ricorso all'argomento del "fair use" è che per anni l'azienda ha combattuto l'open source come se fosse il diavolo in persona.
Nel 2000, l'allora amministratore delegato di Microsoft, Steve Ballmer, disse che il software open source Linux aveva "
le caratteristiche del comunismo". Un anno dopo ha rincarato la dose, definendolo un "
cancro".
Questa causa
determinerà in larga misura il futuro dell'intelligenza artificiale. Se
Microsoft vincerà, l'intelligenza artificiale potrà andare avanti a tutta velocità, e sarà autorizzata ad assorbire e ad allenarsi su codice, immagini, articoli e dati creati da altri,
sostanzialmente senza curarsi dei diritti di proprietà intellettuale. L'avvertimento di Butterick sull'utilizzo gratuito di qualsiasi dato da parte dell'IA, sempre e ovunque, si avvererà quasi certamente.
Se
Microsoft perde, coloro che
creano intelligenza artificiale dovranno muoversi con molta più attenzione, forse rallentando la creazione di intelligenza artificiale, ma rispettando la proprietà intellettuale di artisti, scrittori, programmatori e altri.
Selene Galeazzi - Team LegalBlink