L’articolo “AI machines aren’t ‘hallucinating’. But their makers are” (link – permalink) di Naomi Klein pubblicato su The Guardian ha sollevato molta attenzione ed è stato occasione di approfondimenti. Di seguito pubblichiamo quello dell’Avvocato Bruno Saetta (Sito – Twitter – LinkedIn) originariamente come post su Facebook e che riproponiamo su concessione dell’autore.
Ho letto questo articolo di Noemi Klein. Devo dire che su molte cose ha ragione, ma su altre cose non sono d’accordo. Credo ci sia una certa superficialità nel trattare l’argomento, cosa che non aiuta mai il dibattito.
Ha ragione quando critica l’uso del termine “allucinazioni” per gli “errori” o “dati inesatti” della AI. E’ il solito problema, l’antropomorfizzazione dei sistemi di AI, il darne una idea “umana” che è alla base di molti preconcetti. Se li chiamassi correttamente “strumenti” e basta sarebbe molto meglio. Ma questo non è un errore delle aziende, è un problema di comunicazione. Quando un’azienda produce una macchina che non fa altro che andare un po’ più veloce di un’altra non la lancia come “macchina un po’ più veloce” ma come un’evoluzione della tecnologia, qualcosa di meraviglioso. È il suo lavoro (finché non viola le legge commerciali). Poi sta ai giornali riportare correttamente con i piedi per terra la comunicazione iperbolica. Anche l’accento sulle capacità distruttive della AI non è altro che becera pubblicità: “la mia AI è capace di fare di tutto, anche distruggere il mondo”.
Poi Klein si sofferma sulla problematica dei contenuti soggetti a copyright utilizzati per l’addestramento delle AI. A parte che negli Usa ci sono pronunce che dicono che sono utilizzi trasformativi, per il momento, poi vedremo. Ma non è un problema che mi appassiona, sinceramente. Il copyright è la grande truffa di questo secolo, dell’era tecnologica, è il grimaldello per sottrarre la conoscenza alla gente e per poter indurre la scarsità, il sistema migliore conosciuto dal liberismo per poter sfruttare il popolo. Se tutto è copyrightabile, allora tutto può essere soggetto a una sorta di proprietà e quindi sottratto alle masse. È una questione tra grandi aziende, come abbiamo visto con la direttiva copyright. Per anni si sono scontrate le aziende del copyright, i produttori di contenuti, e le aziende tecnologiche, quelle che volevano mettere le mani sui contenuti dell’industria del copyright per i loro fini. A noi gente è toccato qualcosa? Ci hanno chiesto il parere, cosa ne pensavamo? No, lo abbiamo anche fornito e poi hanno realizzato una normativa che se ne discosta quasi totalmente. Adesso nell’AI Act si stanno muovendo velocemente per inserire delle norme a tutela del copyright, ma sono discussioni che vertono sugli interessi economici degli editori, della grande industria, mai dei piccoli, gli artisti per capirci. Lo so che questo discorso infastidirà molti, i piccoli artisti, ma pensateci bene e vedrete che tutta la regolamentazione sul copyright non è altro che un accordo per e tra le grandi aziende, senza considerare minimamente gli interessi dei piccoli.
Il punto non è e non può essere questo, il punto è un altro.
Poi Klein passa a enumerare le “allucinazioni” dei creatori delle AI. Qui ha ragione, ma è nel contempo un errore di prospettiva, non è un problema delle AI, è un problema dell’intero sistema capitalistico. Così come è messo sembra che basti chiudere le AI e abbiamo risolto il problema, ma questo non è vero, il problema è alla base, nella società, non nella AI, le AI sono solo l’ultimo strumento dell’ideologia capitalista per sottrarre risorse al popolo. Se un tempo era la risorsa lavoro, oggi ci sottraggono le risorse informative perché hanno capito che sono più importanti.
Certo, lo so, Klein lo ha detto egregiamente in altri scritti e libri, non lo metto in dubbio, ma forse andava chiarito meglio qui.
Ad esempio, ad un certo punto dice che la Coca-Cola utilizzerà le AI per fare pubblicità più efficaci. A parte sta cosa dell’efficacia della pubblicità personalizzata che è sempre ampiamente sopravvalutata. I margini di rendimento sono bassissimi, ecco perché costa pochissimo online (offline costa molto di più non perché sia più efficace, la pubblicità ha sempre un’efficacia bassissima, tranne per i pubblicitari ovviamente, ma offline i canali pubblicitari sono pochissimi e agiscono in regime di monopolio). Il punto è che quello è il business di Coca-Cola, la pubblicità (si lo so che molti pensano che la Coca-Cola produca bevande, ma quello è il business accessorio, il valore viene dalle creazione del “mito” fondante del prodotto, senza quello la coca-cola sarebbe un normale caffè ristretto).
Sull’allucinazione 2, cioè che l’intelligenza artificiale fornirà una governance saggia, cita un documento, ma è un documento di un gruppo di cosiddetto thinkthank, è una sorta di pubblicità che verrà usata per pubblicizzare, appunto, le AI. È tutto un sistema che è strutturato intorno alla creazione di un mito, di un racconto che ci avvolge e nel quale ci si aspetta che le persone agiscano secondo il copione imposto dall’alto. Non è un problema della AI, è un problema del sistema capitalistico che è strutturato in questo modo.
Dice Klein che l’anno scorso le principali aziende tecnologiche hanno speso 70 milioni di dollari di lobbying . Ecco il problema, le grandi aziende tecnologiche fanno lobbying, influenzano i regolatori, e questo porta a delle leggi che sono inefficaci. Qui in Europa stiamo cercando di risolvere il “problema della AI” con lo stuzzicadenti della valutazione di impatto, stiamo cercando di imporre la age verification per tutelare i minori, usiamo lo strumento della data protection, che è palesemente inefficace. Perché? Perché le leggi in materia antitrust sono state progressivamente smantellate negli anni. Ecco il problema.
Allora quando, e siamo all’allucinazione 4, ci vengono a dire che le AI ci libereranno dalla fatica, questo è falso perché alla fine la AI è sempre uno strumento che sarà saldamente nelle mani dell’azienda, se io svolgo un lavoro normalmente in 8 ore e poi con la AI che mi fornisce l’azienda lo riesco a svolgere in 4, per quale motivo l’azienda dovrebbe darmi lo stesso stipendio? È ovvio che me lo ridurrà della metà, perché la AI è uno strumento aziendale. E perché? Perché solo le grandi aziende si possono permettere di produrre una AI. Come solo le gradi aziende si possono permettere di realizzare un social media. Se oggi vuoi fare un social media, non lo puoi fare dal garage di casa, perché ti occorre prima di tutto avere una serie di sistemi di controllo e oneri regolatori che costituiscono una formidabile barriere all’ingresso del mercato. Barriere che i legislatori hanno posto, forse anche in buona fede, ad esempio per tutelare i minori tanto per dirne una, ma che alla fine fungono da barriere di ingresso al mercato. E non essendoci strumenti effettivi a livello antitrust, quelle aziende mantengono il controllo su tutto. È un problema per loro se addestrano le AI su materiale sotto copyright? No, destineranno un limitato obolo agli autori (in genere si tratta di materiale i cui diritti sono stati ceduti ad editori, quindi ben poco per gli autori) e procederanno con l’accaparramento della conoscenza, legittimamente stavolta.
Non sto dicendo che le AI sono uno strumento meraviglioso e che non bisogna regolamentarle. Ma le AI sono utili nei settori destinati alle AI, ad esempio in campo medico, generalmente come supporto per le decisioni umane, per i lavori routinari. Ma se vengono pubblicizzate per compiti per i quali non sono adeguate, è evidente che si tratta di pubblicità ed il sistema informativo dovrebbe occuparsi di smascherarle. Ma sappiamo come è il nostro sistema informativo.
Dov’era Hinton quando Gebru e gli altri furono licenziati? Come mai si lamenta della AI solo adesso? Che senso ha rifiutarci di usare le AI? A che serve organizzarci per chiedere ai datori di lavoro di non usare le AI?
Dovremmo organizzarci, invece, per un uso etico delle AI. Ad esempio usare le AI per i lavori pericolosi, per quelli routinari, chiedere migliori regole contro le discriminazioni e la gestione del lavoro nelle aziende. Il problema non sono le AI che si nutrono della nostra conoscenza (e smettiamola con l’originalità, quanta della produzione umana è davvero originale????), ma sono le aziende produttrici di AI (e non solo) che si appropriano della nostra conoscenza e poi la sottraggono assoggettandola a copyright, così che noi non possiamo riusarla a nostro vantaggio.
E soprattutto basta co sta storia di seguire tutte le fesserie che dicono i grandi creatori di AI. Saranno geniali nel loro campo, ma è ovvio che tutto quello che dicono non è altro che una pubblicità ai loro prodotti. Se avessimo un sistema informativo che funziona lo sapremmo.
Illustrazione di LiliGraphie/Alamy via The Guardian