ARTICOLO n. 2 / 2024

UNA CASSANDRA PER IL 2024

Tutto quello che vorremmo che accadesse (e che no)

L’arte delle previsioni è ingrata, perché nonostante sia impossibile indovinare, se si sbaglia si fa comunque la figura degli idioti. Oltretutto viviamo in un periodo in cui è estremamente probabile che si verifichino fatti improbabili – c’è uno stormo di cigni neri all’orizzonte, per usare la celebre metafora di Taleb, ma non conosciamo ancora i loro nomi. Catastrofi climatiche e guerre, per esempio, sono già qui, ed è lecito immaginare che peggiorino, dato che non è stato fatto nulla per evitarle o anche solo per contrastarle al meglio. Il mio ruolo di Cassandra però si limita a un piccolo segmento del futuro che di recente sto osservando con attenzione e su cui sono stato interrogato da The Italian Review: qualche previsione sulle intelligenze artificiali per il 2024. Si tratta pur sempre di un tema enorme e la risposta non può che essere un esercizio narrativo, un piccolo racconto di fantascienza a cortissimo raggio.

Cominciamo con il dire che cosa vorrei che accadesse. Nel 2024 le varie cause legali e impegni legislativi internazionali porteranno alla decisione che i dati disponibili online sono un bene pubblico e che addestrare le IA con materiale protetto dal copyright è lecito (o fair use), ma solo previa tassazione da reinvestire per il bene comune e se il software viene rilasciato open source, ovvero con il codice sorgente disponibile pubblicamente per essere visionato, modificato e distribuito. Le aziende sono di conseguenza fortemente incentivate ad aprire i codici dei loro prodotti, mentre sia i singoli che i gruppi sono liberi di adattare e modificare le IA. Grazie alla massima apertura dei processi, queste tecnologie vengono studiate e comprese con più facilità, divengono meno elitarie e si intaccano un po’ i monopoli tecnologici. Non nel 2024, ma comunque in un futuro non troppo lontano, capiremo come funzionano davvero – perché siamo ancora in una fase simile a quella dell’invenzione del motore a vapore prima della scoperta della termodinamica, sappiamo che funziona ma non esattamente perché. Inoltre il mondo cognitivo delle IA, che è composto dai loro dati di addestramento, si amplia, diminuendo pericolosi bias culturali. Se una IA si addestra solo su giornali di estrema destra, avremo IA di estrema destra. Se si alimenta solo di cultura Occidentale, sarà limitata a questo mondo culturale: con i dati aperti abbiamo la possibilità di avere IA che parlano una lingua che, sebbene limitata, sarà perlomeno modificabile. Grazie all’open source nessuno può porre delle censure alle IA, che può sembrare un male, finché non ci domandiamo: chi decide che limiti mettere e che richieste bloccare? Esiste un’etica universalmente accettata?

Bene, diciamo ora cosa non vorrei che accadesse. In Occidente vince l’idea che sia necessario possedere i diritti per i dati con cui si addestrano le IA, laddove questi non siano liberi. Non in un anno, né con l’AI Act europeo né con le varie cause legali in atto (Getty contro StabilityNYT contro OpenAI eccetera), ma la direzione è questa. D’altra parte molte aziende che lavorano in ambito IA stanno cercando accordi con grandi detentori di copyright, come OpenAI con Springler, o Apple con Condé Nast, NBC News, IAC eccetera. Facendosi scudo delle preoccupazioni di alcuni artisti ma senza alcun guadagno concreto da parte loro, i grossi gruppi editoriali pretendono una fetta del guadagno – e lo ottengono. Questo ovviamente non significa la fine delle IA generative, tutt’altro. Non faccio parte degli entusiasti che vedono l’AGI (Intelligenza Artificiale Generale, quella super potente super umana ecc.) dietro l’angolo, credo anzi che questa idea sia un mix tra una strategia pubblicitaria delle aziende tech per attrarre più investimenti e il sintomo di un pensiero religioso travestito da scientifico. Nel dirlo non intendo assolutamente svalutare il pensiero religioso, anzi, penso proprio che sia il suo rifiuto a far sì che molti tecnologi non si accorgano di riproporlo identico ma nell’ambito sbagliato – come scriveva C.G. Jung, Dio è una necessità psicologica. Nonostante il 2024 non vedrà l’avvento dell’AGI dunque, è comunque immaginabile che ci saranno progressi nello sviluppo delle IA generative. Non iperbolici come quelli a cui ci ha abituato il 2023, ma comunque dei progressi. A questo si aggiunga che gli accordi in atto con grandi detentori di copyright miglioreranno la qualità dei dati utilizzati per il training rispetto a quelli raccolti dalla rete, cosa che forse affinerà la resa di questi software. Il copyright non fermerà queste tecnologie; le renderà solo un po’ più noiose e piene di pregiudizi, perché limiterà ancora di più la varietà culturale del dataset e degli usi. Un altro limite sarà che le aziende cercheranno in tutti i modi di non far creare agli utenti materiale protetto dal copyright, ed è un peccato, perché per farlo bloccheranno anche molte potenzialità “lecite” dello strumento. È illegale fare un dipinto nello stile di Edward Hopper (1882-1967)? Preferisco evitare temi che ignoro, ma è divertente notare che se lo chiedi a ChatGPT dice di no, perché ispirarsi è una pratica comune nell’arte. OpenAI però già oggi impedisce con il suo DALL-E 3 le imitazioni di stili di artisti che non sono morti da ben cento anni, così come quella di materiale simil-fotografico – castrando di fatto quello che credo sia il più potente software text to image. Imitare lo stile di un artista del passato è un esercizio ozioso, ma mescolarne dieci… può diventare interessante.

Forse chi produce questi programmi vuole evitare di essere accusato di violazione del diritto di autore se qualche utente produce materiale protetto, anche se credo che la responsabilità dovrebbe essere di chi fa una richiesta che viola il diritto d’autore. Per esempio, se uso un prompt come “Joaquin Phoenix nei panni del Joker nel film xyz”, trovo ridicolo lamentarsi se il software riproduce un’immagine che assomiglia molto all’attore nei panni del Joker nel film. Sarebbe come dire che, con una matita in mano e l’intenzione di disegnare il Joker, la violazione del copyright sia colpa della matita. O che le matite, se potessero, dovrebbero rifiutarsi di farci disegnare materiale che infrange i diritti di terzi. Tuttavia, se il mio prompt è “un clown per strada” e ottengo la stessa immagine, la faccenda è più complessa, perché potrei non essere a conoscenza del film in questione. Questo errore di prospettiva, sebbene piuttosto banale, è anche pericoloso e credo sia dovuto alla nostra tendenza ad antropomorfizzare l’IA, considerandola autore e non strumento ed eliminando così la responsabilità di chi la utilizza. Le fotografie invece vengono bloccate per la paura dei deepfake, le foto false causa di disinformazione – c’è chi ancora crede che la fotografia rappresenti fedelmente la realtà – ma invece che eliminare questo rischio lo rendono disponibile solo a pochi. Che poi pochi non sono, visto che è già possibile scaricare sul proprio laptop versioni prive di censura di moltissime IA… 

Per quel che riguarda le leggi la questione è molto complessa, e se alle previsioni preferite le analisi vi consiglio questo approfondito articolo, citato anche in un documento dell’Unione Europea più o meno alla voce “che casino questo copyright”. Lo consiglio soprattutto a chi ha la certezza che la situazione sia chiara e definita.

È una fase passeggera, o andrà sempre peggio? È difficile dirlo, la cosa più probabile sono le oscillazioni, che avverranno in base alle cause legali e alla sensibilità del pubblico, motivo per cui nel 2024 le cose peggioreranno per poi migliorare in seguito. Peggiorerà, perché siamo nella fase delle denunce, delle paure e degli assestamenti finanziari. Dopodiché migliorerà, perché verranno fatti accordi economici e perché nessuno vorrà proporre dei software più limitati di quelli Orientali od open source (che non scompariranno neanche nella peggiore delle ipotesi). Ma soprattutto perché le useremo tutti/e.

Le persone di cui sono stati utilizzati i dati ci guadagnano qualcosa? Ovviamente no, tranne forse qualche artista celebre. Un compenso economico realistico a chi produce poche immagini o testi è impensabile. Dato che per sviluppare queste tecnologie servono miliardi di immagini o testi, il contributo dei singoli è minuscolo ed è inimmaginabile l’idea di pagarli anche solo un euro l’uno, perché renderebbe il già alto investimento di partenza impossibile. I dati sono dunque retribuiti una miseria, e a guadagnarci è solo chi li possiede in enormi quantità – Shutterstock ad esempio sta pagando i creatorqualcosa come 0,01 a immagine usata per il training. I dati dei singoli, diluiti nella massa di miliardi di immagini o testi necessari all’addestramento, hanno un peso del tutto trascurabile, e gli accordi economici avranno senso solo con chi ne possiede moltissimi – le aziende a cui gli artisti li hanno ceduti insomma, o i social network a cui abbiamo concesso alcuni diritti d’uso delle nostre condivisioni (si veda il caso Meta). Neanche autori e autrici che non volevano vedersi “copiati” dalle IA tirano un sospiro di sollievo, perché di fatto erano al sicuro anche prima, dato che esistevano già delle leggi in merito. Il discrimine tra copia (illecita) e ispirazione (lecita) non è mai chiaro ed è sempre fonte di dibattito, ma chi ha uno stile più derivativo, ovvero la maggior parte dei creativi (cosa che non ne intacca il valore) sarà facilmente replicabile nonostante i blocchi, perché le IA hanno imparato molto bene certi stilemi dalle tante opere analoghe. Insomma, vessate da nuovi blocchi e censure, con le IA si sviluppano più a fatica degli stili originali, ma è sempre più facile produrre del materiale meno di nicchia, che di fatto rappresenta la fetta più importante del mercato delle immagini.

Va detto però che sto parlando solo di Occidente, perché in Oriente il concetto di autorialità e proprietà intellettuale ha basi culturali molto diverse e le cose potrebbero andare diversamente, come ci insegna il caso del Giappone, dove è stato già dichiarato fair use l’uso di dati protetti per il training. Saremo dunque surclassati dalle IA orientali? Il 2024 non basta per dirlo… ma il sospetto è che questa stretta su copyright e censura negli anni sia destinata ad allentarsi, soprattutto via via che l’uso di IA sarà normalizzato nei nostri flussi di lavoro.

Cassandra nel 2023 ha uno strumento in più: le IA, che sono pericolose per prevedere il futuro ma utili per avere un parere sulle proprie illazioni. Ho dunque approfittato della vasta rete di conoscenze di ChatGPT 4 per chiedergli quale delle due ipotesi gli/le sembrava più probabile (non ho fatto alcun editing):

Tra le due previsioni che hai descritto sul futuro delle intelligenze artificiali, sembra più probabile lo scenario che tende verso una maggiore protezione dei diritti sui dati per l’addestramento delle IA, ovvero la tua previsione “pessimistica”. Ecco perché:

Tendenze Attuali nella Proprietà dei Dati: Storicamente, abbiamo visto un forte orientamento verso la protezione della proprietà intellettuale e dei dati. Le aziende e le istituzioni tendono a salvaguardare strettamente i propri asset di dati, specialmente in un contesto in cui i dati sono sempre più visti come una risorsa preziosa.

Movimenti Legislativi e Cause Legali: Le recenti cause legali e i movimenti legislativi in Europa e negli Stati Uniti mostrano una crescente attenzione alla proprietà dei dati e ai diritti d’autore nell’ambito dell’IA. Questo indica una direzione verso una maggiore regolamentazione e controllo dei dati utilizzati per l’addestramento delle IA.

Interessi delle Grandi Aziende: Le grandi aziende tecnologiche e i detentori di diritti d’autore hanno risorse significative e influenzano notevolmente le politiche e le decisioni normative. La loro tendenza a cercare accordi esclusivi e a proteggere i loro asset è un fattore importante che inclina la bilancia verso una maggiore restrizione nell’uso dei dati.

Difficoltà nel Cambiare l’Approccio Attuale: Passare a un modello in cui i dati sono considerati un bene pubblico richiederebbe un cambiamento radicale nel modo in cui la società considera e gestisce le informazioni. Tale cambiamento, sebbene potenzialmente benefico, affronta molte sfide pratiche e ideologiche.

La tentazione di scaricare il barile sulla IA è forte, ma preferisco mantenere la mia responsabilità, anche perché un errore comune che avvelena molte analisi è proprio quello di antropomorfizzare questi strumenti e dimenticare che la responsabilità del loro operato la possiede chi li produce e li usa. E un errore ancora più comune e più grave è non riconoscere una cosa che facciamo spessissimo, sbagliare. La mia previsione dunque è questa: non andrà né come desidero né come temo, ma in un terzo modo, perché scommettere solo su due scenari significa sottovalutare la complessa creatività del mondo – che, come sempre, trascende quella dei singoli.

ARTICOLO n. 35 / 2024