Intelligenza artificiale: iagismo e neoliberismo secondo Evgeny Morozov

IL sociologo bielorusso al Festival di Internazionale: " il vero pericolo che l’AI acceleri in maniera violenta e irreversibile tutta una serie di processi neoliberisti e capitalisti di aumento della povertà, atomizzazione della società e aumento delle disuguaglianze.

23 / 10 / 2023

Il tema dell’intelligenza artificiale è uno dei temi pregnanti e dirimenti della società oggi, così come in generale il tema delle nuove tecnologie, del capitalismo digitale. E durante il Festival di Internazionale a Ferrara, tenutosi tra il 28 settembre e il 1° ottobre, questo tema è stato uno dei temi scottanti, basti vedere la quantità di incontri, workshop e dibattiti che gli sono stati dedicati.

Il 29 settembre uno dei protagonisti di questi momenti è stato Evgeny Morozov, sociologo e giornalista bielorusso (autore di Silicon Valley: i signori del silicio), che a giugno ha pubblicato un’analisi approfondita sul tema dell’IA sul New York Times (ripresa da Internazionale nel n. 1525).

Nell’incontro “Intelligenza Artificiale”, il giornalista ha delineato una panoramica attuale e precisa sul futuro dell’intelligenza artificiale o, meglio, sul futuro impatto a livello sociale che l’iagismo, come definisce lui la fascinazione per l’AI, avrà in un futuro molto prossimo.

Partiamo da una serie di lettere, comunicazioni governative, appelli che nei mesi scorsi hanno fatto il giro del globo. A maggio, più di 350 dirigenti d’azienda, ricercatori e docenti universitari del settore tecnologico hanno firmato una dichiarazione in cui definiscono l’AI come una minaccia per l’umanità al pari di pandemie e guerra nucleare, e che per questo è necessario agire subito per sventare una possibile estinzione dell’umanità. In concomitanza anche Elon Musk con altri imprenditori ha firmato una lettera a marzo chiedendo di fermare l’addestramento delle intelligenze artificiali, per non andare incontro nel breve periodo a sconvolgimenti economici e politici di vaste proporzioni. Una lettera in cui si chiede una moratoria di sei mesi allo sviluppo di AI generative come ChatGpt. In particolare, la lettera chiede lo stop all’addestramento di Gpt-4, il modello di OpenAI lanciato a metà marzo, evocando “grandi rischi per l'umanità”. Precisiamo che poi Musk, a luglio, non ha esitato a fondare una nuova azienda che sviluppa intelligenza artificiale. Si chiama xAI e ha l’obiettivo di “comprendere la natura dell’universo”. Così si legge sul sito ufficiale dell’azienda, dove si apprende anche che xAI “lavorerà attivamente con X (vale a dire Twitter), Tesla e altre compagnie per raggiungere la sua missione”

Ultimo, ma non per importanza, anche il governo USA ha pubblicato una serie di direttive sull’uso responsabile di questi strumenti.

Doveroso è poi spiegare cos’è nel concreto l’AI, un’entità che sembra aleggiare sulle nostre teste come uno spirito salvifico o distruttore a seconda dei casi. L’intelligenza artificiale (AI) è la tecnologia di base che consente di simulare i processi dell’intelligenza umana attraverso la creazione e l'applicazione di algoritmi integrati in un ambiente di calcolo dinamico. In altre parole, l’obiettivo dell’AI è quello di creare computer in grado di pensare e agire come gli esseri umani. Per realizzare questo obiettivo sono necessari tre componenti chiave: sistemi di calcolo, dati e sistemi per la gestione dei dati, algoritmi AI avanzati (codice).

Le intelligenze artificiali non sono tutte uguali. Ci sono infatti le AI deboli o limitate, che sono programmate per eseguire un solo compito in maniera meccanica, e le general AI, che sono quelle che fanno più scalpore, ovvero, riprendendo le parole del filoso John Searle, «Secondo l'intelligenza artificiale forte, il computer non sarebbe soltanto, nello studio della mente, uno strumento; piuttosto, un computer programmato opportunamente è davvero una mente».

Ma il pericolo che viene dall’AI, è davvero un pericolo per la sopravvivenza dell’umanità? Dobbiamo davvero aspettarci che il robottino aspirapolvere, dotato in un giorno futuro di general AI, ad un certo punto decida che anziché continuare a pulire lo sporco degli umani, preferisca farli fuori direttamente per avere una casa perennemente pulita, come ci racconta scherzosamente in sala il giornalista bielorusso?

Secondo Evgenij Morozov no, il vero pericolo non è questo. Ma c’è un pericolo molto più sottile, strisciante, che è un problema politico e sociale, di cui forse non stiamo tenendo abbastanza conto; ed è il pericolo che l’AI acceleri in maniera violenta e irreversibile tutta una serie di processi neoliberisti e capitalisti di aumento della povertà, dell’atomizzazione della società e di aumento della forbice della disuguaglianza sociale.

Perché, mentre alcuni colossi del digital ritengono che la general AI (che, il giornalista ci tiene a sottolineare, non esiste ancora e forse mai esisterà, perché sarebbero una serie di sistemi più intelligenti dell’umanità), sarà una manna per l’umanità, la soluzione alla fame del mondo e a tutte le miserie dell’umanità, in realtà ad oggi, e la situazione non sembra cambiare, l’AI è uno strumento del capitale che perpetra dinamiche di accaparramento e di profitto. È solo un alleato del neoliberismo, che promette abbondanza ma che mai potrà davvero rispettare queste promesse.

Questa nuova ideologia, lo iagismo, rafforza il neoliberismo giocando su tre pregiudizi, su tre bias:

- Bias del privato: ovvero il privato è meglio del pubblico. Il privato di fa carico di servizi che a quanto pare il pubblico non riesce a garantire, promettendo convenienza economica ed efficacia, quando in realtà drena risorse sia del pubblico che dei cittadini, socializzando le perdite e internalizzando i profitti. Storia vecchia e conosciuta, che però continua ad essere pietra miliare di questo sistema economico delle disuguaglianze. Morozov qui fa l’esempio di Uber, piattaforma che (non molto in Italia) sembrava promettere un trasporto condiviso ed economico che potesse supplire ai deficit delle infrastrutture pubbliche. Azienda che mai in 10 anni di esistenza ha raggiunto un bilancio attivo, scaricando tutto sugli utenti che si sono infine ritrovati a pagare prezzi altissimi per servizi inesistenti. Il pubblico sempre più dipendente da servizi che il privato fornisce, un esempio semplice e immediato sono i sistemi informatici del pubblico, dagli ospedali alle scuole

- Bias dell’adattamento: ovvero adattarsi a delle situazioni non ottimali con mezzi “di fortuna” è meglio che trasformare radicalmente queste situazioni. Altro esempio: una tecnologia che permetteva di consegnare un compenso ai lavoratori che viaggiavano fuori dalle ore di punta della metro. Dunque, anziché adattare infrastrutture e servizi a dei bisogni della popolazione, si preferisce fare in modo che la popolazione cambi i propri bisogni.

- Bias dell’efficienza: ovvero tutto deve essere volto al profitto, e perfino la giustizia e la politica diventano ostacoli da scavalcare in nome dell’efficienza. Ed è su questo bias che si basa il carbon leak, ad esempio, ovvero la compravendita di quote di emissioni per fare in modo che i grandi colossi multinazionali e con loro gli Stati occidentali si puliscano la loro coscienza di inquinanti.

È su questi presupposti, forse in particolare sull’ultimo, che si basa la pericolosità dell’IA, che promuove un rifiuto della complessità, dato proprio dal sistema neoliberista in cui è creata e di cui quindi si ciberà per il proprio apprendimento. La general artificial intelligence vorrebbe, nella testa dei filantropi dell’high tech, aumentare l’intelligenza umana, ma probabilmente finirebbe per restringerla, incapace di vedere al di là di questi principi volti solo a profitto. Incapace di vedere ad esempio che per promuovere sapere negli umani, servono biblioteche e borse di studio, cose a cui tendenzialmente un sistema capitalista dà poco valore, e che quindi sono a rischio eliminazione nell’epoca dell’iagismo. Così come tutte le istituzioni e, aggiungo io, le istituzioni del comune non verranno mai capite nel loro scopo sociale e civico.

Per questo, conclude Morozov, è necessaria una politica industriale digitale. Innanzitutto, perché è necessario ribaltare l’idea che il pubblico non sia in grado di innovarsi e che debba rimanere per sempre succube delle varie Silicon Valley. E poi perché è necessario che venga fatto fronte a tutta una serie di problematiche anche e soprattutto di tipo etico e politico nell’utilizzo dell’intelligenza artificiale. Solo due esempi sono: qual è la sostenibilità ambientale di questa tecnologia? Dove finisce la proprietà intellettuale di tutti quei materiali (testi e lavori di intellettuali, ricercatori, scrittori, etc) che l’AI utilizza per il suo apprendimento sterile e compulsivo?

Insomma, una bella partita aperta, e se i vari studiosi che hanno firmato la lettera di cui parlavamo all’inizio forse hanno sbagliato definendo l’AI come una minaccia di estinzione pari a guerra e pandemia, forse però possiamo anche ammettere che il capitalismo digitale e tutto ciò che ci gira intorno è uno dei temi, al pari di guerra e pandemia, con cui dobbiamo necessariamente fare i conti in questo presente.