[Immagine di copertina: Theatre d’Opera Spatial – Jason Allen, che posso pubblicare senza chiedergli il permesso perché non è idonea a ricevere protezione di copyright essendo fatta con Midjourney ]
Provo a riordinare qualche spunto emerso dopo un panel su AI e arte fra dataset, copyright, artisti che perdono lavoro, AlphaGo e acquerelli impossibili. Alla fine rimango, come dopo aver smontato un orologio rotto, con alcuni pezzi in mano e domande a cui non so rispondere
“Ancora il copyright nel 2025?!”
Trailer Film Festival, Roma (trailersfilmfest.com). Panel su arte e intelligenza artificiale. Sul palco, fra gli altri, Lorenzo Ceccotti – in arte LRNZ – fumettista, illustratore (Golem , Geist Maschine), co-fondatore di EGAIR: l’associazione europea che rappresenta oltre 100.000 artisti nella battaglia contro l’uso non consensuale delle loro opere nei dataset delle AI generative.
A panel quasi finito mi alzo e intervengo provando ad elencare disordinatamente a un po’ di cose che mi frullavano in testa. Più o meno queste: ma ancora col copyright nel 2025? La musica più bella degli anni ’90 fra hiphop e techno soprattutto ma anche pop (fatevi un giro su whosample, pensavo) era un remix continuo, campionamenti su campionamenti, oggi impossibili da rifare legalmente… e i risultati si sentono! E poi, sulla banalità delle opere fatte con AI, ma quella dipende dalla pigrizia dell’operatore umano, non certo dai limiti della macchina – sceneggiature brutte c’erano ben prima di ChatGPT. Dico anche qualcos’altro ma non ricordo esattamente cosa. L’uditorio si anima un po’, qualcuno annuisce, qualcuno scuote la testa. Il panel si chiude lì, tempo finito.
Poco dopo, all’uscita, incrocio Ceccotti e lo fermo. È estremamente disponibile e simpatico, zero atteggiamento risentito nonostante la mia uscita un po’ scomposta e provocatoria. Parliamo una ventina di minuti. Gli chiedo del caso AlphaGo e della mossa 37, del fatto che gli umani imparano guardando opere altrui quindi perché le AI no, del fatto che forse il problema non è l’AI ma il copyright come sistema. Risponde a tutto con pacatezza. Su alcune cose siamo d’accordo, su altre decisamente no. Ci salutiamo cordialmente.
Tornato a casa vado a rileggermi il suo manifesto – “Appunti per una proposta normativa a integrazione dell’AI Act europeo” (novembre 2022) – che avevo letto a suo tempo ma di cui ricordavo solo le linee generali. E comincio a prendere appunti. Che diventano questi appunti.
Il problema secondo Ceccotti (riassunto, posso ricordare male)
La tesi del manifesto è questa: il valore delle AI text-to-image deriva primariamente dai dataset, non dall’algoritmo. Stable Diffusion senza LAION-5B – il dataset di 5 miliardi di immagini scrapate dalla rete – non sarebbe nulla. Quindi: se le aziende monetizzano questi modelli, devono chiedere consenso esplicito a chi ha creato le opere nel dataset, e compensarli.
Ceccotti propone l’introduzione di un “training right” : un nuovo tipo di diritto d’autore specifico per l’uso delle opere nell’addestramento di AI. Più una serie di altre misure: certificazione obbligatoria per contenuti AI-generated, divieto per le AI di imitare artisti viventi anche se richiesto dall’utente, responsabilità oggettiva delle aziende per output plagianti.
I dati gli danno ragione sul problema di fondo. Nel 2024, il 26% degli illustratori britannici riporta di aver perso lavoro a causa dell’AI. In Cina, il settore dei videogiochi ha visto un calo del 70% dei posti per illustratori, con produttività individuale aumentata di 40x. Il mercato dell’illustrazione pubblicitaria risulta “completamente prosciugato” dal 2023, con clienti che offrono un decimo del compenso abituale per “rifinire” output di Midjourney.
Avrei voluto chiedergli: ma non è già troppo tardi? I modelli sono già addestrati e il dentifricio è uscito dal tubetto. Visto che non l’ho fatto posso solo immaginare la risposta: nuovi modelli si addestrano continuamente, video/3D/audio stanno replicando ora lo stesso processo. Regolamentare serve per impedire che i prossimi cicli ripetano l’abuso, per creare deterrenti economici, per stabilire precedenti.
Ok, il problema esiste, è documentato, ha impatto reale su persone reali.
L’argomento dell’acquerello (e perché AlphaGo c’entra e non c’entra)
Durante il panel Ceccotti aveva usato un esempio che mi era rimasto in mente e che riassumo (sicuramente male) così: “Se un modello non ha mai visto un acquerello, non può generarne uno simile. È matematicamente impossibile. L’AI non crea dal nulla, ricombina pattern statistici da ciò che ha ingerito.”
È tecnicamente corretto per i modelli attuali. I diffusion model funzionano per interpolazione dello spazio latente. Elimina completamente un cluster stilistico dal dataset e il modello non può generarlo. Ma l’argomento mi sembra avere una falla concettuale : confonde tecnica fisica specifica (acquerello: carta, pigmenti, trasparenza dell’acqua) con proprietà visuali astratte (trasparenza, sfumature, certi tipi di bordi). Un modello addestrato solo su oli e arte digitale potrebbe in teoria generare immagini con caratteristiche simili agli acquerelli, perché quelle proprietà potrebbero emergere come pattern statistici trasversali. Non è che l’abbia verificato scientificamente. È un’ipotesi. Ma mi sembra importante distinguere tra le due cose.
Una scena tratta da “AlphaGo – The Movie“
Durante la conversazione con Ceccotti gli avevo posto un controesempio : AlphaGo, mossa 37 contro il campione Lee Sedol, eravamo nel 2016. Una mossa con probabilità stimata 1/10.000 nelle partite umane. AlphaGo non l’aveva mai “vista” giocata in quel contesto specifico, eppure l’ha giocata. E ha vinto la partita. Lorenzo aveva insistito sostenendo che AlphaGo usava “forza bruta” su uno spazio finito di mosse, quindi non era vera creatività. Ci siamo fermati lì su posizioni diverse, con memorie parziali inconciliabili. Tornato a casa ho verificato: no, non funziona così. Lo spazio delle mosse di Go è circa 10^170 (contro i 10^50 degli scacchi), fisicamente incalcolabile per enumerazione esaustiva. AlphaGo usava Monte Carlo Tree Search combinato con reti neurali: approssimazione euristica, non brute force. E AlphaGo Zero – la versione successiva – non aveva nemmeno visto partite umane, solo autoplay tabula rasa.
La mossa 37 dimostra che l’AI può scoprire pattern non presenti nel training. Quindi l’argomento “senza acquerelli nel dataset, niente acquerelli possibili” è almeno parzialmente sbagliato.
Ma – e qui Ceccotti ha comunque ragione sulla conclusione pratica – c’è una differenza cruciale. Il gioco del Go ha regole fisse e un obiettivo definito: vincere. C’è una funzione obiettivo chiara. L’estetica visuale non ha un equivalente. AlphaGo ha scoperto strategie ottimali in un dominio con feedback binario (vinci/perdi). Un modello generativo addestrato solo su pixel casuali non convergerebbe mai verso “acquerello” perché non esiste un gradiente di ottimizzazione verso “acquerellosità” senza esempi di riferimento.
Quindi: l’AI può inventare soluzioni in domini con obiettivi definibili. L’arte visuale non è (ancora?) quel tipo di dominio. Ceccotti forse sbaglia sui dettagli tecnici ma coglie qualcosa di vero: per ora, questi modelli non creano veramente dal nulla. Ricombinano.
Per ora.
Il paradosso della memoria totale (ma qui Ceccotti se n’era già andato)
Ma c’è un livello più profondo, che emerge solo pensandoci dopo. Perché LAION-5B non è solo un problema legale o economico. È un problema epistemologico: 5 miliardi di immagini, ogni click, scroll, selfie, meme, opera d’arte, foto medica, documento privato scrapato dalla rete e compresso in spazio latente. È la memoria totale. E la memoria totale ha un paradosso: l’impossibilità di dimenticare coincide con l’incapacità di ricordare significativamente.
**E mi viene in mente Memento **(2000) il cui protagonista con amnesia anterograda, non può formare nuovi ricordi. Quindi deve scegliere, selezionare e si tatua sul corpo solo l’essenziale. La sua amnesia lo costringe a un’economia della memoria radicale. Ogni bit di informazione deve essere guadagnato, selezionato e soprattutto gerarchizzato (poi per lui andrà a finire male, ma quella è un’altra storia, speriamo).
Una scena di Memento, Christopher Nolan (2000)
Le AI text-to-image sono l’opposto. Hanno visto miliardi di immagini – più di quante un essere umano possa vederne in mille vite – eppure non “capiscono” cosa disegnano. Accumulano invece di sintetizzare. Correlano invece di comprendere. È una distinzione nota, quasi ovvia ormai: cognizione umana vs artificiale, few-shot learning vs data hunger. Ma vale la pena ribadirla perché cambia tutto quando parliamo di memoria e copyright.
Cognizione umana: impariamo sorprendentemente bene da pochi esempi. Vedi un profilo in lontananza, di notte, sotto la pioggia, e ti basta, lo riconosci immediatamente, sai chi è. Un bambino vede tre o quattro gatti e sviluppa il concetto di “gatto” abbastanza da riconoscerne uno in contesti completamente nuovi. La mente lavora per sottrazione e sintesi: da elementi minimi ricostruisce totalità significative.
Cognizione artificiale : nel machine learning tradizionale la regola è che quantità e qualità dei dati battono l’algoritmo più sofisticato. Le AI estraggono significato da enormi moli di dati. È un processo inverso rispetto a quello umano.
Non è differenza di grado ma di natura. L’archiviazione totale serve alle macchine (che hanno bisogno di enorme mole di dati per funzionare) ma danneggia gli umani (che ragionano per scarsità ed economia mnemonica). Studi recenti mostrano una correlazione negativa tra uso frequente di strumenti AI e capacità di pensiero critico. Non perché l’AI sia cattiva, ma perché addestrare la nostra mente a funzionare come una macchina degrada le nostre capacità naturali. Si, ok, lo so, le solite vecchie discussioni che tornano uguali ad ogni nuova innovazione tecnologica tipo Socrate contro la scrittura 1 Nel Fedro sosteneva che la scrittura è “una cosa simile alla pittura” che non può difendersi da sola, non sa a chi parlare e non può insegnare la verità in modo adeguato. La scrittura, infatti, è considerata un “ricordo” esterno e non la vera conoscenza che risiede nell’anima.
Copyright come sistema già rotto (anche prima dell’AI)
Ma torniamo al punto. Se accettiamo che ci sia un problema – e c’è, visto l’impatto occupazionale documentato – dove sta la soluzione? Ceccotti propone di rafforzare il copyright con il “training right”. Ma il copyright è già problematico e lo era ben prima che arrivasse l’AI. Piccolo excursus storico:
- 1710, Inghilterra (Statute of Anne): durata 14 anni
- 1790, USA: 28 anni massimo
- Oggi: vita dell’autore più 70 anni (UE), vita più 95 anni (USA per opere corporate)
Come siamo arrivati qui? Disney. Il Sonny Bono Copyright Term Extension Act del 1998 estende i termini specificamente per impedire che Topolino (1928) entrasse nel pubblico dominio. Non è teoria del complotto, è legislative history documentata. Il copyright è diventato strumento di rent-seeking corporativo, non di protezione degli artisti.
E prima del copyright – che è invenzione recentissima – la cultura funzionava diversamente. La faccio facile, lo so… Bach che componeva variazioni su Vivaldi (BWV 1065, ca. 1735), che a sua volta variava Torelli (RV 522, 1711), che variava Corelli (op. 6 n. 8, 1698)… e Corelli chissà da chi. Nessuno pagava nessuno, anzi: più vieni variato più sei famoso. O il canto gregoriano : 800 anni di sampling collettivo. Monaci che prendevano melodie ebraiche, gallicane, ambrosiane, bizantine, le allungavano, tagliavano, ri-testavano. IlGraduale Triplex di oggi è risultato di remix continuo senza un singolo “autore”. I rapsodi remixavano i poemi omerici (che erano già sistematizzazione di tradizioni orali – vedi Milman Parry e la teoria dell’oralità). Gli scriptoria medievali copiavano e interpolavano manoscritti. Le botteghe rinascimentali: allievi che completavano opere del maestro, che poi le firmava.
Per non parlare del sampling nell’hip-hop? Il caso Grand Upright Music v. Warner Bros (1991) l’ha sostanzialmente ucciso. La cultura musicale era un gigantesco playground di sampling senza permessi e oggi Public Enemy e De La Soul (per fare solo due esempi) sono ormai irripubblicabili per costi di clearance. Il paradosso? Beethoven che campionava melodie folk non pagava nessuno; un producer che oggi campiona 2 secondi di un disco del 1972 rischia causa da milioni.
Che poi basterebbe andare a riprendersi RiP: A Remix Manifesto che già 20 anni fa aveva detto tutto: la storia della musica (dell’arte?) è fondamentalmente storia del “remix legale”. Poi è arrivato il copyright moderno e ha detto: «Adesso si paga».
Ma tornando all’AI, un punto che abbiamo solo sfiorato con Ceccotti è: quando sottoscriviamo i Terms of Service di piattaforme come Meta, Tiktok, ma anche Behance, Dribbble (e non parliamo di Adobe) cosa abbiamo effettivamente firmato? Molti artisti pubblicano da anni i loro portfolio anni su piattaforme proprietarie i cui ToS sono stati modificati retroattivamente per includere il training AI (Behance, per esempio: ToS aggiornati nel 2023). O peggio ancora: LAION scrapa tutto senza chiedere permesso nemmeno alle piattaforme. Pubblico non significa pubblico dominio, ma quanti artisti hanno davvero letto quelle clausole lunghe pagine? E anche chi le ha lette, poteva davvero prevedere cosa sarebbe successo?
Insomma più ci penso più mi sembra che il problema non sia “AI sì o AI no”, ma “a chi appartiene la cultura una volta che esiste?”.
Il doppio vincolo
Quindi Ceccotti ha torto? No. Ha ragione sul problema, ma le soluzioni che propone mi sembrano quanto meno discutibili. L’opt-in universale su 5 miliardi di immagini è retroattivamente impossibile. Il machine unlearning è un problema tecnicamente irrisolto. Il ban dai sistemi operativi significherebbe controllo pervasivo del software degli utenti.
Ma anche abolire il copyright è problematico. Perché il copyright – per quanto distorto – risponde a una necessità reale dentro il capitalismo: senza proprietà intellettuale, gli artisti sotto mercato hanno zero leva contrattuale. Abolire il copyright senza abolire il capitalismo significa semplicemente che Disney può sfruttare liberamente gli artisti senza compensarli.
Siamo in un double bind :
- Non possiamo tornare indietro : la memoria selettiva pre-digitale è tecnicamente impossibile
- Non sappiamo come andare avanti : la memoria totale è cognitivamente e socialmente insostenibile
Aldo: uno di noi
Soluzioni tecnicamente applicabili esistono – licensing via blockchai n, differential privacy sui dataset, responsabilità oggettiva dei fornitori, collecting societies per AI – ma non ho la competenza per dire se funzionerebbero davvero nella pratica.
E comunque c’è un’altra questione che mi interessa. Cosa comporta avere la possibilità di ricordare tutto? Roma – dove vivo, dove si è svolto il festival – ha sempre costruito sul costruito, scegliendo consapevolmente cosa preservare, cosa riutilizzare, reinterpretare, cosa demolire. Il Pantheon diventa chiesa, le terme diventano fondamenta, i marmi del Colosseo vengono remixati nella Basilica di San Pietro, o si trasformano in nuovi palazzi. È una memoria viva che metabolizza il passato per costruire il presente.
Oggi abbiamo smesso di stratificare creativamente. Preserviamo tutto in musei climatizzati, imprigionando i segni del passato (negli anni ’60 il Colosseo era praticamente un parco pubblico senza orari anche di notte). E col digitale? Accumulo infinito senza alcun criterio di selezione e gerarchia.
Dataset come LAION-5B sono l’incarnazione perfetta di questa patologia: memoria onnicomprensiva, orizzontale, che non distingue Guernica da un meme di gatti. Produce AI che “sanno” tutto e non capiscono niente.
Ceccotti difende il diritto degli artisti a non essere ingeriti senza consenso. Sacrosanto. Ma forse dovremmo difendere anche un altro diritto: quello di essere dimenticati. Non per censura, ma per ecologia mnemonica. Per poter davvero metabolizzare, e non solo accumulare.
Quindi?
Insomma alla fine di questa sbrodolata non so se mi son proprio chiarito le idee. Mi sforzo di tirare le somme. Ho una risposta : per la prima volta nella storia umana abbiamo la capacità tecnica di gestire l’intera memoria culturale della nostra specie – o almeno quella parte che siamo riusciti a portarci dietro. Prima dovevi studiare decenni solo per orientarti in una frazione microscopica del sapere accumulato, e eri consapevole che comunque te ne sfuggiva la gran parte. Ora LAION-5B contiene 5 miliardi di immagini. Un dataset interrogabile istantaneamente. Sembra una liberazione. Non lo è affatto.
Perché interrogare e usare efficacemente quella memoria richiede più cultura, più competenza, più tempo – non meno. Prima andavamo a piedi: lento, faticoso, ma alla portata di tutti. Ora abbiamo una Formula Uno: se non sai guidarla, se non hai la preparazione per capire cosa chiedere e come interpretare le risposte, quella potenza non ti serve a niente. Anzi, neanche riesci a farla partire e se ci riesci probabilmente ci vai a sbattere dopo due metri.
Quindi tocca sbattersi comunque, anzi più di prima. E questo fa emergere un primo problema: tutti a dire, che siano temi in classe, articoli di giornale, sentenze in tribunale o sceneggiature “vabè lo faccio fare all’ai così risparmio tempo”. Senza capire che se ci metti immondizia riceverai immondizia (il sempre valido principio del GIGO). L’ai non è uno schiavo sapiente ma un Golem onnisciente e inconsapevole e va governato, istruito, affinato. E questo riapre il problema del copyright che pensavamo di aver lasciato alle spalle: se l’accesso alla memoria culturale totale richiede competenze specialistiche per essere davvero produttivo, chi controlla gli strumenti controlla di fatto anche chi può beneficiarne. Il dataset è aperto, ma l’alfabetizzazione per usarlo non è distribuita democraticamente.
Quindi la domanda di fondo resta una sola, ed è politica: chi possiede, finanzia e controlla questi sistemi? E soprattutto: con quali fini?
Non ho risposte. Ceccotti nemmeno. Ma è la domanda che conta, perché in gioco non c’è solo il lavoro degli artisti – c’è chi decide cosa significhi “ricordare” per i prossimi secoli.
Link:
Roma, novembre 2024
