Intelligenza Artificiale, di cosa ci dobbiamo preoccupare?

12 / 2 / 2024

L’intelligenza artificiale è stato uno dei trending topics del 2023. Non che l’argomento sia nuovo, è stato trattato a livello scientifico almeno dal 1950, ma fino a tempi abbastanza recenti l’interesse era caduto più su immaginazioni distopiche che su reali applicazioni. La ricerca scientifica nel frattempo ha fatto il suo corso, portando a risultati sempre più concreti e sorprendenti.

L’elemento scatenante dell’interesse attuale, al netto di svariate novità informatiche e industriali di pari se non maggiore dignità, sta nell’ascesa di Chat GPT, un AI conversazionale, ovvero basata su un modello di linguaggio che sfrutta tecniche di apprendimento automatico e dunque “impara” attraverso la conversazione con gli utenti. Chat GPT altro non è che l’applicazione del modello di linguaggio GPT 3.5, dove GPT sta per Generative Pre-Trained Transformer. Modello e applicazione sono di proprietà di Open AI, una società no-profit fondata nel 2015 da Elon Musk e Sam Altman.

Oggi come oggi chiunque abbia una minima dimestichezza con la tecnologia sa cos’è Chat GPT e ha sperimentato, tramite il telefonino o il computer, un contatto con l’AI conversazionale: anche in Italia, nonostante qualche noia col garante della privacy abbia fatto sospendere il servizio durante tutto il mese di aprile 2023. Il servizio è decisamente interessante, ma ancor più lo è il soggetto che lo propone: a differenza di altre superpotenze della tecnologia, Open AI non genera profitti e nasce, stando alle parole dei fondatori, con l’intenzione di guidare il futuro dell’intelligenza artificiale in modo sicuro per l’umanità[1]. Parole “pesanti” e meno rassicuranti di quello che vorrebbero sembrare, specie se dette da Elon Musk che tra gli imprenditori di successo dell’attualità è uno dei più controversi e imprevedibili. Le strade di Musk e Altman col tempo si sono separate, formalmente per conflitto di interessi, anche se Musk è rimasto tra i finanziatori di Open AI.

Quindi: abbiamo una società no-profit, che però ha bisogno di un enorme capitale per portare avanti i suoi progetti. Immaginate solo la capacità computazionale di cui necessitano i loro server, nonché le risorse che serviranno per accaparrarsi i migliori ricercatori al mondo a livello di AI, pur facendo leva sulla “mission” per distrarli da una concorrenza più remunerativa e strutturata. Apriamo una parentesi: nell’ascesa di Open AI e la sua caccia alle risorse con Google, Facebook & co, chi ne esce con le ossa rotte è la ricerca pubblica occidentale, che con la comparsa di un ulteriore concorrente si vede ancor più privata delle risorse che potrebbero dare lustro e valore al suo lavoro. In questa fase persino le grandi università americane si vedono messe ai margini[2] e le conseguenze sul lungo periodo di una conoscenza scientifica direttamente posseduta da soggetti privati, è intuibile, non sono beneauguranti.

Tornando su Open AI: una società spinta da soggetti eterogenei, per interessi non così chiari. Aggiungiamo che questa società, rendendo open source Chat GPT, ha messo a disposizione una fonte universale di conoscenza on-demand, cosa che ha irreversibilmente trasformato alcune mansioni.

Un esempio semplice è quello dei copywriter. Chat GPT è in grado di generare testi coerenti e convincenti, cosa che ha portato alcune aziende a fare a meno della figura del copywriter per rivolgersi direttamente all’AI [3]. Un condizionamento lo si registra anche in altri mestieri, per lo più in ambito tecnologico-informatico, dove un lavoratore può trarre beneficio dall’interrogazione di Chat GPT acquisendo direttamente le informazioni delle quali ha bisogno senza passare da una ricerca o dal supporto di colleghi; Chat GPT viene visto come un mezzo per bypassare una parte della fase formativa.

Ma le capacità di Chat GPT possono spingerlo a un punto tale da risultare appetibile anche su un piano creativo, e non di semplice copywriting?

Ho chiesto a Chat GPT di comporre una poesia sull’autunno:

Nell'autunno, le foglie danzano al suono del vento,

Colori caldi, sfumature d'oro, un incanto.

La natura si prepara per il suo riposo,

Mentre il mondo si tinge di un dolce tramonto.

I alberi si spogliano con grazia e poesia,

Come ballerini sul palco, una sinfonia.

Le foglie cadono lentamente a terra,

Coprendo il suolo con una coperta di guerra.

L'aria si fa più fresca, il cielo più sereno,

E nel crepuscolo, tutto sembra più ameno.

Le castagne si abbracciano nel loro guscio,

E il profumo dei funghi invade l'orizzonte.

Nell'autunno, il mondo cambia il suo vestito,

E io mi perdo in questa magica danza.

Tra le foglie cadenti e il sole dorato,

Trovo la pace, l'amore e l'abbondanza.

Nell'autunno, la natura inizia a sognare,

Mentre il mondo si prepara a riposare.

E in questo tempo di transizione e poesia,

Scopro la bellezza di questa stagione magica.

Insomma, il suo compitino lo fa, ma non al punto tale da suscitare invidie nel Carducci, se leggesse questo scritto.

Ho provato allora a testarlo sull’esercizio dell’imitazione stilistica, chiedendogli di simulare lo stile di scrittura di due entità musicali ben distinte, Bachi da Pietra e Motta.

Chat Gpt

Chat Gpt

Chat Gpt

Chat Gpt

Chat Gpt

Chat Gpt

Chat Gpt

Con un po’ di delusione, ho dovuto constatare che i pattern stilistici adottati schiacciano in toto l’identità dell’artista che avrebbero dovuto imitare: Chat GPT non riesce, neanche davanti a delle richieste dirette e reiterate, a rinunciare a usare quei fastidiosi tre blocchi che cominciano rispettivamente con uno stato in luogo (“Nella misteriosa selva / nella giungla…), un soggetto metafisico ( la realtà/la vita), ed un’invocazione ( “Ricordiamo” / “E Ricordate”...che fa tanto Savonarola in Non ci Resta che Piangere ).

Giovanni Succi e Francesco Motta possono dunque dormire sonni tranquilli, nessuna intelligenza artificiale per ora è in grado di scrivere testi con la stessa dignità di Black Metal il mio folk o Del tempo che passa la felicità.  Va detto che questo era un compito abbastanza difficile, perciò risulterà ancor più deludente constatare come possa andare nel pallone su argomenti che non si prestano ad ambiguità, effettuando errori e per giunta reiterandoli.
Nel caso che segue, Chat GPT compie un errore inequivocabile ( assegna a Oscar Freire il titolo di campione del mondo a cronometro di ciclismo nel 2001), dopo la richiesta di una verifica ripropone l’errore, per poi finalmente correggersi dopo una richiesta più veemente.

Chat Gpt

Chat Gpt

Chat Gpt

Come si spiega il comportamento di ChatGPT dopo queste interrogazioni? Per non partire con false aspettative, bisogna avere ben chiaro, almeno a grandi linee, qual è il funzionamento di questo strumento.

Per quanto dietro GPT ci siano tecniche avanzatissime di apprendimento non supervisionato, bisogna sempre ricordare che ChatGPT è un simulatore di linguaggio naturale, prima che un’intelligenza artificiale. Ciò implica che il modo di rispondere segue uno schema, un pattern con le sue regole, semplici o complesse che siano. E questo spiega perché, quando gli abbiamo chiesto di comporre una canzone, proprio non riusciva a cambiare il modo di introdurre le strofe di volta in volta: il pattern è un limite invalicabile, necessario per poter portare a compimento il task.

Chat GPT ha comunque la capacità di migliorare le sue risposte almeno in due modi: attraverso le informazioni date dai suoi istruttori e quelle recepite dall’interazione con gli utenti. Non può però scoprire per conto suo che una risposta che sta dando è sbagliata: ciò ne farebbe un essere senziente. Se gli vengono chieste informazioni sulle conquiste di Gengis Khan negli Stati Uniti saprà dire che Gengis Khan non ha mai messo piede sul nuovo continente, perché qualcuno lo ha addestrato sulla storia di Gengis Khan, ma se gli si chiede cose un po’ più di nicchia (simulare una canzone dei Bachi da Pietra) o sulle quali ha ricevuto istruzioni errate o confuse (come probabilmente è avvenuto per i mondiali di ciclismo) finirà per perdersi come uno studente impreparato all’interrogazione.

Noam Chonsky, uno dei linguisti più autorevoli del nostro tempo, aveva già spiegato con l’eloquenza che lo contraddistingue i limiti dell’intelligenza artificiale quasi un anno fa, attraverso un corsivo sul New York Times intitolato “The False Promise of ChatGPT”. «La mente umana, a differenza di ChatGPT, non è un goffo macchinario statistico che ingurgita milioni di dati per dare la risposta più probabile. Al contrario, la mente umana è un sistema sorprendentemente efficiente e anche elegante che opera con un numero limitato di informazioni; non cerca di inferire correlazioni brute tra punti, ma cerca di dare spiegazioni»[4].Nel suo editoriale Chomsky ha marcato molto nettamente la differenza tra mente umana e intelligenza artificiale, ponendo l’accento sull’incapacità della macchina di avere un punto di vista morale (anch’egli tramite il test di una conversazione tra un suo collega e la macchina), qualcosa che dai suoi sviluppatori viene venduto come un vantaggio ma che espone inevitabilmente ai rischi di un uso improprio o malevolo, proprio per l’incapacità della macchina di rendersene conto.

Ci spiega Donata Columbro[5]) con degli esempi come sia facile produrre risultati errati o distorti per un procedimento di calcolo costruito attraverso dati di training: svariati in letteratura sono i casi di “algoritmo razzista”, ossia procedure di riconoscimento facciale più fallaci nel riconoscere e distinguere un colore della pelle diverso dal bianco. Chiaramente non è l’algoritmo di per sé a essere “razzista”, o il metodo di calcolo a essere stato costruito in modo sbagliato: alla base c’è solitamente un’ingenuità da parte di chi ha preparato il training set senza pensare all’applicazione in forma complessiva.

Non si tratta di un tema nuovo a livello scientifico: da sempre in statistica il Bias (o distorsione in italiano) è una piaga che aleggia su qualsiasi studio, riscontrandosi specialmente in fase di selezione del campione quando i soggetti non sono abbastanza eterogenei per i fini dello studio. Con gli algoritmi avviene esattamente la stessa cosa: se i dati forniti non sono sufficienti su una determinata area, i risultati sono errati o imprecisi.

Chat GPT, per quanto avanzato e abile anche nel correggere in corsa questo tipo di problematica, non vi è immune.
La Columbro suggerisce che mentalità e motivazioni dello sviluppatore/trice possono facilitare bias derivanti da disuguaglianze economiche e/o etniche, nel momento in cui l’algoritmo non viene progettato con uno scopo puramente scientifico, ma deve rispondere a interessi economici o scelte politiche.

La ricerca di Open AI non si ferma: GPT-4 è stato rilasciato nel marzo 2023 ed è attualmente disponibile solo per abbonati. Per quel che ci è dato sapere, il nuovo modello si avvicinerebbe ulteriormente al comportamento umano in termini di capacità linguistiche e visive (cioè interpretazione delle immagini), mantenendo però i limiti della versione precedente in termini di possibilità di errore. In sintesi, la macchina appare ancora molto lontana dall’essere in grado di raggiungere la conoscenza in completa autonomia: per quanto possa essere migliorata e auto-migliorarsi ( in poco tempo sarà in grado di simulare molto meglio lo stile di un artista, con tutta probabilità ), i suoi limiti strutturali per ora le impediscono di diventare un valido sostituito alla creatività umana, almeno nel breve termine.

In Italia, il governo Meloni ha ritenuto importante mettere in piedi una commissione governativa che studiasse le applicazioni relative all’intelligenza artificiale nel campo dell’informazione e dell’editoria, orribilmente semplificata con la dicitura Commissione Algoritmi: a capo della commissione, istituita nell’ottobre 2023, è stato posto Giuliano Amato, costituzionalista e due volte presidente del consiglio. Una nomina che non può non suscitare perplessità e ironia, data l’età avanzata di Amato e soprattutto la distanza a livello di competenze dagli argomenti tecnologici. Nomina che tra l’altro non è piaciuta alla stessa presidente del consiglio Giorgia Meloni, della quale sono note le ruggini (ricambiate) verso il costituzionalista: Amato si è quindi dimesso da presidente della commissione in poco più di due mesi, il 5 gennaio 2024. La nomina è passata a una figura stavolta competente, per quanto ancor meno convenzionale: Padre Paolo Benanti, docente universitario di bioetica e sacerdote francescano che supporta il governo italiano in progetti legati all’intelligenza artificiale dal 2017[6].

A cosa hanno portato i due mesi d’indagini del dottor Sottile su opportunità e rischi dell’argomento tecnologico più in voga del momento? Amato ha tenuto un’unica conferenza stampa, nel quale si è divertito a trollare i giornalisti con una frase sibillina: «A me piacciono molto le patate, grazie all’intelligenza artificiale, un giornalista in pochi istanti potrà sapere tutti i modi in cui posso cucinarle, così da arricchire il suo pezzo».

È un’uscita apparentemente ridicola, che però racchiude il senso della nomina di un uomo della politica a capo di una commissione tecnologica: vederla come una topica dalle venature cringe implica partire dal presupposto che al governo italiano possa interessare una lettura del fenomeno puramente scientifica. Sarebbe legittimo e corretto, ma è una lettura che manca di cinismo. Nell’ottica del governo italiano, “capire” l’intelligenza artificiale non è di primaria importanza. Non è necessario comprendere come funzionano gli algoritmi, l’elaborazione di linguaggio naturale, modelli di apprendimento.

Ciò che conta davvero, per il governo italiano, è comprendere l’uso che se ne può fare (e in che modo legiferare di conseguenza per venire incontro ai lobbisti di riferimento): l’editoria non correrebbe rischi che vadano oltre parziali (e forse inevitabili) trasformazioni, d’altronde il progresso tecnologico è un fenomeno inarrestabile: nel momento in cui una nuova tecnologia c’è, non si può più fare a meno di sfruttarla, e il luddismo non è una risposta. Ciò che può e deve far preoccupare é semmai in che modo questa nuova tecnologia verrà intercettata dai governi e dai capitalisti, che cercano in ogni novità una fonte di controllo ( i primi ) e di guadagno ( i secondi). Torniamo sull’ammonizione di Chomsky: uno strumento di elaborazione di estrema potenza senza alcun freno morale è un’arma potente e pericolosa.

Ed è per questo che l’intelligenza artificiale si sta rivelando un pericolo concreto nel campo degli armamenti. Le AWS (Autonomus Weapons Systems ) sono da pochi anni una realtà nei conflitti internazionali. Sul fronte ucraino i droni a guida autonoma sono in grado di riconoscere carri armati mimetizzati e attaccarli. Israele usa un sistema di intelligenza artificiale chiamato Gospel per la scelta dei bersagli militari a Gaza, basato su un enorme database di dati biometrici raccolti nel corso degli anni ai checkpoint. In altre parole, Gospel incrocia i dati satellitari e la “lista dei cattivi”, suggerendo dove conviene bombardare per far fuori più nemici possibili e assegnando anche un punteggio che quantifichi le vittime collaterali ( un dato che a giudicare dal genocidio in atto non pare venga preso in considerazione)[7].

I timori per un’escalation di autonomia militare dell’intelligenza artificiale sono concreti, tant’è che diversi stati, tra i quali Germania, Messico, Svizzera, Nuova Zelanda hanno chiesto alle Nazioni Unite una risoluzione internazionale per limitare l’uso di armi autonome[8], ma nessuno dei principali stati coinvolti nei conflitti internazionali (Stati Uniti, Russia, Israele su tutti) sembra intenzionato ad arretrare di un centimetro, specialmente con l’attuale situazione internazionale.

Il futuro delle guerre potrebbe essere stravolto: riduzione o azzeramento della fanteria e delle battaglie campali, obiettivi per lo più fissi e facilmente popolati da civili. Andremo incontro a conflitti di risoluzione sempre più difficile, dove il concetto di “guerra di logoramento” andrà riscritto, dal momento in cui basterà un software, un microchip e qualche pezzo di metallo per continuare una guerra, provocando sempre più facilmente vittime civili: le Loitering Munition ( meglio note come droni kamikaze ) risulteranno il modo più efficace per colpire un bersaglio. Il caso di Gospel suggerisce invece come l’oppressione militare di un paese o di un’etnia verso un’altra, con degli squilibri in atto, potrà raggiungere livelli di crudezza impensabili: chiedere il supporto di una macchina per individuare i soggetti ostili su un territorio e farli fuori in un breve tempo disumanizza ulteriormente qualcosa che di umano aveva già ben poco, lasciando meno spazio a valutazioni umanitarie.

Come spesso succede, la strada per l'inferno è lastricata di buone intenzioni. Per quanto migliaia di scienziati al mondo s’impegnino a cercare applicazioni dell’intelligenza artificiale che portino un beneficio all’essere umano, ci sarà sempre qualcuno che cercherà di trasformare quell’impegno in un’arma, magari passando dalla consulenza di malleabili privati che, come abbiamo visto, sono sempre più all’avanguardia nell’ambito della ricerca rispetto al pubblico. La nostra sfida come società, in mezzo alle tante potenziali catastrofi che rendono così fosco questo nostro secolo, sarà non dare ossigeno all’ennesima barbarie.

[1] Cade Metz, Elon Musk’s billion-dollar AI plan is about far more than saving the world.  Wired, 2015.
[2] A.I. Pubblico vs Privato, Presadiretta, 2023.

[3] Ian Rose, The Workers Already Replaced by Artificial Intelligence, BBC News, 2023.

[4] Noam Chomsky, The False Promise of ChatGPT, New York Times, 8 marzo 2023.

[5] Donata Columbo, Dentro l’Algoritmo: le formule che regolano il nostro tempo, Effequ, 2022.

[6] paolobenanti.com

[7] Kevin Carboni, Come funziona l’intelligenza artificiale che Israele usa per bombardare Gaza, Wired Italia, 2023.

[8] https://retepacedisarmo.org/stop-killer-robots/2023/10/risoluzione-nellassemblea-generale-onu-contro-i-sistemi-darma-autonomi-storica-opportunita-per-gli-stati-di-fermare-i-killer-robots/