Il copyright

Indice dei contenuti delle ricerca

 

Approfondimenti 

  • All
  • agende legali
  • area diritto (banche dati)
  • area fiscale (banche dati)
  • area lavoro (banche dati)
  • banche dati
  • corner
  • ebook
  • esame avvocato
  • formazione
  • kit
  • libri
  • riviste
  • software
    •   Back
    • cancelleria
    • buste e cartoline per notifica
    • borse, zaini e articoli per il business
    • toghe, cordoniere e pettorine
    •   Back
    • diritto amministrativo
    • diritto penale
    • diritto del lavoro
    • diritto civile
    • diritto industriale e diritto d'autore
    • diritto comunitario e internazionale
    • diritto societario e commerciale
    • diritto fallimentare e crisi d'impresa
    • concorsi ed esami
    • saggistica e varia
    • energia e ambiente
    • edilizia e urbanistica
    • fisco e tributi
    • contabilità e bilancio
    • storia del diritto
    • diritto romano ed ecclesiastico
    • dizionari
    • privacy
    • diritto costituzionale
    • consulenza del lavoro
    • circolazione stradale e infortunistica
    • diritto delle nuove tecnologie, informatica e digitale
    • informatica e digitale
    • teoria e filosofia del diritto
    • diritto pubblico
    • urbanistica ed edilizia
    • cosulenza del lavoro
    • concorso magistratura
    •   Back
    • corsi
    • eventi e convegni

APPROFONDIMENTI della nostra redazione

La capacità dei modelli di IA generativa di “digerire” migliaia di documenti come testi o immagini (che possono o meno essere protette dal copyright) per poi “produrre” contenuti che possono apparire dotati di una certa creatività, ha portato molti a interrogarsi sulla possibilità di tutelare l’output di questi modelli ricorrendo al diritto d’autore.

Oggi non esiste una norma che definisca direttamente e univocamente chi sia l’autore di un’opera generata da una IA. Allo stato attuale, l’opera generata da un modello di IA non potrebbe trovare protezione nel diritto d’autore per la mancanza dell’apporto umano nell’atto creativo. Sia l’Ue che la maggior parte degli ordinamenti nazionali nel mondo, hanno assunto la posizione secondo cui i modelli di IA non possono essere qualificati come autori di un’opera, e quindi il contenuto prodotto da un modello di IA generativa non può essere considerato un’opera protetta da copyright, a meno che non sia individuabile un apprezzabile apporto creativo dell’essere umano. Quindi, in assenza di apporto creativo di un essere umano, c’è la possibilità che le opere generate dall’IA diventino di pubblico dominio.

L’autore dovrà così dimostrare come il modello di intelligenza artificiale abbia rappresentato un momento o uno strumento all’interno di un processo creativo più complesso. Di recente l’Ufficio statunitense per il diritto d’autore ha concesso la registrazione di un fumetto generato con l’aiuto dell’intelligenza artificiale ma solo perché è stato opportunamente valorizzato l’apporto umano nel momento creativo.

La decisione è ancora al vaglio dell’Ufficio che si è riservato di approfondire ulteriormente. Rispetto alla possibilità di usare contenuti prodotti da terzi e protetti da copyright per “addestrare” modelli di intelligenza artificiale, sorgono non pochi dubbi. La maggior parte dei sistemi IA viene addestrata utilizzando enormi quantità di contenuti raccolti dal web, ma sulla legittimità del ricorso a questa tecnica non è possibile dare una risposta univoca. Con l’introduzione dell’eccezione “Test and Data mining” contenuta nella Direttiva europea sul diritto d’autore e sui diritti connessi nel mercato unico digitale, l’attività di estrazione massiva di dati digitali e la loro riproduzione è consentita liberamente a condizione che l’uso delle opere e degli altri materiali estratti non sia stato espressamente “riservato” dai titolari dei diritti in modo appropriato. In altre parole, sono i titolari dei diritti che si devono attivare, con mezzi opportuni, per proteggere le proprie opere e fare in modo che non siano oggetto di attività di estrazione massiva di dati. Quanto alle modalità con cui tale riserva debba essere espressa e portata a conoscenza dei terzi,il legislatore italiano non dà indicazioni specifiche.

Più precisi invece sono stati per esempio il legislatore tedesco o quello olandese. Se in futuro sarà possibile addestrare un modello di intelligenza artificiale utilizzando contenuti tutelati dal diritto d’autore altrui, ciò escluderebbe che l’output del modello di IA possa comunque integrare una violazione del diritto d’autore. Pensiamo a un modello di intelligenza artificiale “da testo a immagine”. Se il modello viene addestrato su molti milioni di immagini e utilizzato per generarne di nuove, è estremamente improbabile che ciò costituisca una violazione del copyright in quanto il risultato finale sarà molto diverso dalle opere originali. Ma se come modello si utilizzassero immagini di uno specifico artista, con l’obiettivo di generare lavori che ne riproducano stile e tecnica, e quindi confondibili con l’opera originale, allora l’artista in questione potrebbe opporsi a circolazione e sfruttamento della nuova opera generata dal modello di IA, anche laddove non abbia espresso a monte alcuna riserva rispetto allo scraping dei suoi contenuti. Potrebbe infatti lamentare la sussistenza di un plagio evolutivo, che ricorre quando l’opera originaria (plagiata) è comunque riconoscibile nella nuova opera.

E a questo punto la domanda diventa: chi è il responsabile della possibile attività illecita? Chi è il responsabile del plagio? Il modello di intelligenza artificiale generativa, il suo programmatore, l’azienda che possiede la relativa piattaforma, o l’utente che ha interrogato il modello di intelligenza artificiale per ottenere l’opera plagiaria? Anche in questo caso, la risposta non è univoca e sarà necessario indagare gli step del processo creativo che ha portato alla produzione di un certo contenuto.

Il primo regolamento al mondo sull’intelligenza artificiale (“AI Act“) ha ricevuto il parere favorevole da parte delle Commissioni del Parlamento Europeo in data 11 maggio. Il testo dovrà ora essere approvato in sessione plenaria dal Parlamento Europeo, il cui voto è previsto per il 12-15 giugno; dopodiché si avvieranno i negoziati con il Consiglio sulla forma definitiva della legge.

Con tale normativa, vengono introdotti anche nuovi obblighi con riferimento ai modelli di intelligenza artificiale generativa quali, l’obbligo di documentare l’indicazione di contenuti protetti da copyright utilizzati per alimentare il modello e l’obbligo di indicare che il contenuto è stato generato da un’intelligenza artificiale (“AI”).

L’AI generativa rappresenta oggi uno dei temi più scottanti della legge sul diritto d’autore, sia per quanto riguarda la disciplina degli input utilizzati nel processo creativo, sia in merito alla tutelabilità e relativa eventuale paternità degli output generati. Con riferimento alla tutela degli input, ovvero i dati che vengono utilizzati nell’addestramento di modelli di AI generativa, abbiamo già assistito ai primi contenziosi oltreoceano. Il nuovo AI Act va quindi esaminato come l’ulteriore tassello di un puzzle sempre più complesso, all’interno del quale principio di personalità, tutela autoriale, libertà di espressione ed innovazione sono tutti parte di un unico disegno.

La tutela degli input: ai sensi dell’AI Act (liability)

Con riferimento alla questione degli input utilizzati per alimentare i sistemi di intelligenza artificiale, l’AI Act offre spunti interessanti in materia di obblighi del fornitore. Allo stesso modo ulteriori spunti di riflessione provengono dall’analisi empirica ed in particolare da alcuni claim sollevati recentemente negli Stati Uniti.

Sul primo profilo, ai sensi dell’articolo 28b (4c.) dell’AI Act, i fornitori di modelli generativi di AI devono “documentare e rendere disponibile al pubblico una sintesi dell’uso dei dati di addestramento protetti dalla legge sul diritto d’autore“. Si prevede, quindi, quello che sembra un obbligo di clearance preventivo in capo ai fornitori dei servizi in questione, i quali, ai sensi della normativa, sarebbero tenuti ad elencare preventivamente qualsiasi contenuto coperto da diritto d’autore compreso tra i dati utilizzati per il training. Tuttavia, in assenza di maggiori precisazioni sul punto da parte del legislatore europeo, non è chiaro quale debba essere il perimetro di tale attività preventiva. In particolare, quest’ultima rischierebbe di tradursi in un obbligo particolarmente gravoso per i fornitori dei modelli generativi di AI, anche in considerazione del principio di territorialità e delle questioni di ownership (inevitabilmente connesse al diritto d’autore).

Probabilmente, quindi, come avanzato da una parte della dottrina (João Pedro Quintais), se da un lato il tipo di trasparenza utile è quello che consente ai titolari dei diritti d’autore di accedere ai set di dati utilizzati dalla tecnologia AI al fine di esercitare il proprio opt-out, dall’altro non è chiaro come l’AI Act, nella sua attuale formulazione, possa permettere questo. Pertanto, potrebbe essere utile inquadrare l’obbligo appena proposto come un obbligo di buona fede o di massimo impegno volto a documentare e fornire informazioni su come il fornitore tratta i dati di addestramento protetti da copyright.

Sul secondo profilo (i.e. l’analisi empirica), sempre più frequentemente assistiamo ad ipotesi di violazioni, incluse violazioni del diritto d’autore, a mezzo degli output generati dai servizi AI.

Ad esempio, nel campo dell’arte, a inizio 2023, la società G.I ha annunciato di aver avviato un procedimento legale contro la società S., produttore di un sistema AI in grado di generare immagini foto-realistiche, accusandolo di aver “copiato” milioni di sue immagini. In particolare, come afferma la società di S. avrebbe scelto deliberatamente di ignorare le opzioni di licenza praticabili e le protezioni legali di lungo periodo al solo scopo di perseguire i propri interessi commerciali. Allo stesso modo, una seconda denuncia contro il medesimo operatore è stata presentata da tre artisti per conto della comunità delle arti visive, ritenendo che simili sistemi violino i diritti della comunità di artisti, utilizzando il loro lavoro senza accreditarli o ricompensarli.

A tal proposito, torna quindi in rilievo quell’obbligo di clearance preventiva previsto dall’AI Act che, ove adeguatamente chiarito nella propria portata applicativa, potrebbe quantomeno limitare fenomeni di questo tipo.

La tutela degli output creativi: il silenzio dell’AI Act

Con riferimento alla tutelabilità in forza del diritto d’autore delle opere create da sistemi AI, l’AI Act nulla dice, lasciando la relativa regolamentazione alle normative nazionali nonché all’opera della giurisprudenza. Al riguardo, soprattutto nel contesto italiano ed europeo, vengono alla luce profili potenzialmente problematici con riferimento al concetto antropocentrico e formalistico di autorialità. In particolare, la Risoluzione n. 2020/2015 del Parlamento Europeo sui diritti di proprietà intellettuale e le tecnologie generate da AI precisa che il concetto di creazione intellettuale non può prescindere dalla personalità dell’autore umano e che dotare le tecnologie AI di personalità giuridica avrebbe ripercussioni negative sui creatori umani in termini di incentivi.

Tale ricostruzione, che sembrerebbe tipica di un contesto europeo, è stata recentemente confermata anche in una pronuncia del Copyright Office negli Stati Uniti d’America (USCO), il quale ha annullato la registrazione del copyright inizialmente concessa ad un’artista newyorkese per il suo romanzo grafico realizzato tramite l’aiuto dell’applicazione di machine learning Midjourney. Si segnala, comunque, che successivamente a tale pronuncia, il Copyright Office statunitense ha mostrato un’apertura al riconoscimento della tutela autoriale alle opere create tramite AI, specificando che, sebbene le opere tutelate dal diritto d’autore siano solo quelle prodotte della creatività umana, è necessario compiere una valutazione caso per caso per valutare se e in che modo gli strumenti tecnologici abbiano contribuito al processo creativo.

_____
*A cura dell’Avv. Paola Furiosi e dell’Associate Federica Pezza, PwC TLS