Intelligenza artificiale e simulazione del comportamento umano: qui prodest?

3 / 8 / 2016

Intelligenza artificiale e simulazione del comportamento umano: qui prodest?

articolo di Patrizia Cordone. 

Negli ultimi anni non rare sono le notizie di sperimentazione pertinente la robotica, pur tuttavia appaiono frammentarie, addirittura prive dei contesti teorici da cui scaturiscono oltre che degli obiettivi mirati, tanto da privare di una conoscenza adeguata e composita, possibilità meglio offerta dai pochi testi di studio pubblicati dagli specialistii, tra cui B.G. Bara  (biografia a piè dell’articolo) con il suo libro: “La simulazione del comportamento. L’intelligenza artificiale: analisi e riproduzione di attività mentali umane”, collana dedicata alla psicologia diretta da M. Cesa-Bianchi, Franco Angeli Editore, Milano – 1977.

   Il libro si rivolge alla divulgazione seria degli argomenti trattati, che costituiscono l’ambito professionale del gruppo di simulazione cognitiva dell’Istituto di psicologia della Facoltà medica dell’Università di Milano, composto da Gabriella Airenti, Barbara Carniti, Diego Chianese, Danilo Curci, Cristina Guglielmini, Lucia Pomello, Simone Vassallo ed infine    dal professore Marco Somalvico, direttore del suddetto progetto di intelligenza artificiale del Politecnico di Milano, a cui l’autore riserva encomi di ringraziamento. 

Bara fregia il Gruppo di simulazione cognitiva di intelligenza artificiale del Politecnico di Milano come capostipite mondiale di tali sperimentazioni di bisimulazione nel 1976; tuttavia non si esime dal menzionare gli Usa, dove la produzione suscita tanto enorme interesse da parte delle multinazionali quanto “un gigantesco affare economico”, con il supporto finanziario statale relativo agli studi pertinenti l’intelligenza artificiale e destinati ai centri di ricerca universitari  “o comunque pubblici”. Né può essere omesso l’interesse dei ministeri per la difesa, sia interna che esterna, dal momento che le applicazioni operative sarebbero state sfruttate dal settore militare e  da quello paramilitare con finalità belliche, anche in Vietnam, e persino per gli studi sulla percezione uditiva, questi ultimi finalizzati allo spionaggio interno

   Attraverso la lettura si acquisisce la conoscenza elementare delle premesse storiche multidisciplinarie confluite successivamente nella psicologia sperimentale, definizione adottata dall’autore, costituite dalla meccanica, dall’economia, dalla filosofia, dalla psicologia, dalla linguistica, dalla scienza del computer e dall’ingegneria, alcune delle quali sin dall’epoca avanti Cristo hanno delineato il solco convergente alla formulazione dell’ipotesi di un essere umano meccanizzato. Ugualmente importante è la dissertazione anche circa l’apporto di altre discipline come la gestalt, il cognitivismo ed il  comportamentismo, in modo sistematico nonché esaustivo, nei capitoli riguardanti la  memoria percettiva, la linguistica, il pensiero ed il comportamento, non trascurando l’utilità applicativa all’intelligenza artificiale in ambito psichiatrico. Inoltre l’autore espone le problematiche intrinseche della sperimentazione, concernenti la traduzione-conversione  del linguaggio umano verso quello del computer ed il rimando di quest’ultimo all’essere umano, il tutto scevro da riserve annesse alla necessità di informazione preventiva dei soggetti-cavia.

    Forse alcuni argomenti sono noti, ci si riferisce alla trattazione delle attività cerebrali tracciate con il rms, rimarcate in questo articolo con l’acronimo n.d.A.  (nota dell’Autrice), menzionando le molteplici modalità di influenza mentale operate dai controllori supportati dai fraudolenti impianti di biochip, subìti dalle vittime, unitamente al coadiuvo malefico  delle armi ad alta tecnologia in sinergia interagente sulla corteccia cerebrale.

    Affinché la lettura prosegua verso ulteriori approfondimenti, al termine dell’articolo è riportato un indice bibliografico, tratto dal testo di B.Giovanni. Bara, ma selettivo soltanto delle pubblicazioni italiane risalenti all’epoca e tutt’oggi validissime. Di recenti aggiornamenti si è sprovvisti, data la lacuna presumibilmente attribuibile all’editoria nostrana oppure anche agli stessi specialisti italiani, che sovente opterebbero pubblicare all’estero in virtù di cooperazioni internazionali presso altre sedi accademiche se non addirittura industriali. 

------------------------------------------------

  La premessa è  la definizione del comportamento inteso come “una variabile direttamente dipendente dai processi cognitivi … per questa ragione l’accento nella s.b. (simulation of behaviour, simulazione del comportamento) è sempre posto più sulle operazioni mentali che sul comportamento osservabile (pagg. 15-16)”; ne consegue, che l’oggetto dell’indagine scientifica sono gli algoritmi (n.d.A: vedasi Wikipedia). Bara considera la s.b. di competenza della psicologia sperimentale a discapito della psicologia tradizionale priva di rigore metodologico, che asserisce essere invece necessitante per l’implementazione dell’attività umana sul computer, tale da confrontare, a parità di input (immissione di comandi) l’esito comportamentale umano con quello del calcolatore e l’equivalenza degli algoritmi usati da entrambi (pag. 18). Inoltre lamenta i limiti imposti dall’etica sociale riguardo l’uso vietato di cavie umane e da lui ritenuti controproducenti alla ricerca scientifica.

 

    Riguardo lo studio ed il collaudo di calcolatori coadiuvati da software idonei all’interpretazione del linguaggio cita l’esempio degli Usa, dove la produzione suscita tanto enorme interesse da parte delle multinazionali quanto “un gigantesco affare economico”, addirittura con il supporto di finanziamenti statali pertinenti l’intelligenza artificiale destinati ai centri di ricerca universitari  “o comunque pubblici”. Tutt’altro che esigui parrebbero gli stanziamenti erogati dai ministeri per la difesa, sia interna che esterna, dal momento che le applicazioni operative sarebbero state sfruttate dal settore militare e  da quello paramilitare con finalità belliche, anche in Vietnam, e persino per gli studi sulla percezione uditiva, questi finalizzati allo spionaggio interno. Affatto diversamente lo stesso interesse sarebbe stato perseguito dall’Urss, dove, stante l’assoluta segretezza degli studi e delle invenzioni pertinenti l’intelligenza artificiale, poche sono le notizie trapelate; già nel 1927 con l’avvio dei piani quinquennali tuttavia il regime sovietico si sarebbe imposto come grande potenza pari agli Usa ed alla Germania (pag. 25-28).

 

Premesse alla sperimentazione

    Bara pone la necessità di reinventare la scienza del computer tramite il coinvolgimento di tutti i soggetti “interessati alla costruzione di un diverso sociale”, con il ricorso ad “un qualunque analizzando … in grado sia di scomporlo che di ricostruirlo” (pag. 29); auspica la diffusione del metodo sperimentato del s.b., fabbricando “praticamente una mente finta, artificiale, manipolabile a volontà, su cui è possibile testare qualunque ipotesi”,

secondo la procedura di analisi-ricostruzione in maniera indeterminata ed illimitata.  Ciò avverrebbe similmente  alla stregua di un diktat dell’uso riduttivo dell’essere umano come un elaboratore di informazioni sottoposte alla scomposizione ed alla ricomposizione arbitraria; persino l’anima e l’inconscio sarebbero tanto trattabili che manipolabili per l’appiattimento delle differenze tra l’intelligenza umana e quella artificiale. Però la premessa indispensabile al raggiungimento di tali mete sarebbe lo studio completo della memoria, ancorché del suo funzionamento, di tutta l’emotività, dei processi mentali, della formazione del linguaggio e soprattutto dell’induzione. La fase successiva sarebbe costituita dall’assemblaggio coerente di tutte queste funzioni mirate alla ricostruzione artificiale ed unitaria (pagg. 30-31). Intrinseca e propria a questo passaggio è la traduzione del modello naturale (essere umano-cavia) al linguaggio adottato dal programma di implementazione proprio del computer (pag. 35), coadiuvato dalla tecnologia ingegneristica (pag. 74) verosimilmente e di fatto antesignana proprio della neuro-ingegneria (n.d.A). Espletate tutte le procedure sopramenzionate conseguentemente avviene la simulazione del comportamento del soggetto-cavia, detto altrimenti, il programma implementato dovrebbe riprodurre in modo pressocchè identico ogni singolo funzionamento mentale e comportamentale del (s)oggetto in questione, ma perché ciò avvenga, occorrerebbero ulteriori studi inerenti ai processi cognitivi (pag. 41) (n.d.A.: all’epoca ancora inesplorati), e studi avanzati degli algoritmi (pag. 47). Si badi però,  che il vero obiettivo attiene  alla “simulazione del soggetto ipotetico e non del soggetto sperimentale umano” (pag. 51) attraverso la ripetizione di test (pag. 54) risultanti il rilevamento di discrepanze da livellare e  “trasformare la simulazione in un comportamento” (pag. 57).

   Bara fregia il Gruppo di simulazione cognitiva di intelligenza artificiale del Politecnico di Milano come capostipite mondiale di tali sperimentazioni di bisimulazione nel 1976 (pag. 60).

     n.d.A.: Il principio è quello della robotica e dell’interfaccia uomo-computer; inoltre può accadere, che il soggetto umano-cavia privo di consapevolezza adotti paradossalmente proprio le modalità comportamentali dell’intelligenza artificiale e si privi della sua autonomia individuale nonché del suo libero arbitrio decisionale.

  

Excursus storico

   Bara riferisce di pregressi intenti alla costruzione di un essere artificiale replicante, come il golem, seppure pertinenti la fantasia letteraria (pag. 65) ed i macchinari antesignani della rivoluzione industriale (pagg. 65-66), tanto da ritenere paritetico l’avvento dell’intelligenza artificiale. A suffragio della propria tesi richiama anche le teorie filosofiche, economiche e politiche con evidenti riferimenti a Marx (pagg. 25, 512, 66-67), a Smith (pag. 71), a Pascal, a Leibniz (pag. 72; addirittura risalendo alla storia antica fino a giungere ad Alberto Magno, XIII sec., a Descartes con il suo Traité de l’homme, a Condillac (b.1), a Lamettrie nel 1748 (b.2), a Babbage nel 1834 (b.3). Mentre lo studio moderno dell’intelligenza artificiale sarebbe databile attorno alla seconda guerra mondiale ed attribuibile sia a Newell che a Simon, seppure Bara consideri meglio von Bertalanffy (b.4), pioniere della teoria del sistema “di organizzazione complessa di diverse parti interagenti fra loro” (pag. 77), segnalando anche altri studi attigui, tra cui quelli compiuti da Albert Wiener  nel 1948 (b.5). Nell’anno successivo Donald O. Hebb (b.6) rende nota la sua teoria, proprio antecedente

tanto al cognitivismo sia anche al comportamentismo (pag. 79), allineando la neurologia con la psicologia, le cui basi ufficiali della Logic Theovist sarebbero state presentate nel 1956 al Dartmouth Summer Seminar (pag. 80), sede di interventi significativi sarebbero stati svolti da  matematici del calibro di Whitehead, a Russell, Newell, Shaw e Simon (b.7) (pagg.72-82). Altri centri di studi nonché di ricerca sono: il Carnege Group della Stanford University, lo Stanford Research Insitut, il Mit,.(pagg.83-85).

    n.d.A.: Non si può affatto eludere dalla matematica, i cui teoremi fondamentali approdano all’individuazione degli algoritmi, che sarebbero gli unici elementi vicarianti le funzioni di  traduttori e/o convertitori dall’intelligenza umana a quella artificiale e viceversa. Ed ancora il rimando alle pagine 81-85 si rivela importante per la conoscenza del procedimento alla base dell’intelligenza artificiale, del remote neuronal reading e dell’uso combinato delle armi ad alta tecnologia.

 

Studi di psicologia

   Utilizzati dalla s.b. sono le ricerche e le teorie elaborate da importanti psicologi come Bartllett (b.8 e 9) (pagg.87-88); Claparéde in Svizzera (b.10); il fondatore della gestalt, Wertheimer (b11); Koffka, Duncker (b.12), ebrei europei trasmigrati negli Usa a seguito delle leggi razziali, ma in particolare modo  quelle evinte da Bruner nel 1956 (b.13 e 14, pagg. 87-89).

    La nascita vera e propria della s.b. si ufficializza con un libro di Miller, Galanter e Pribran (b.15), rispettivamente psicolinguista, psicologo, matematico e neuropsicologo della Stanford University nel biennio 1958-1959. A partire dall’assunto, “che il comportamento è un processo organizzato a più livelli … che la sua analisi può essere eseguita solo tenendoli presenti simultaneamente tutti … il piano è dunque il corrispondente del programma nel calcolatore, nella pratica quello che dà le direttive per il computer”, a questi studiosi si deve la definizione del modello necessario per la traducibilità in linguaggio  di programma e per la validazione di computer, dimostrando così la possibilità di applicazione delle tecniche dell’intelligenza artificiale allo studio del comportamento umano (pagg. 89-90).

 

Modello dell’homo oeconomicus, in senso lato

   Tutt’altro che disgiunte sono le teorie economiche del decision making proposte da Newell e Simon nel 1972 (b.16), secondo i quali l’essere umano sarebbe sempre motivato dall’utilità massimizzata  (pagg. 94-96).

    n.d.A: Attenzione, il concetto, affatto ovvio, prelude alla dissonanza cognitiva, attraverso il falso nonché indotto conflitto tra la coatta artificialmente convenienza materialista ed il principio morale, manipolato forzatamente dai controllori contro l’etica della vittima resistente e consapevole delle tecniche adottate, anche subdolamente, per il condizionamento sia mentale che comportamentale.

 

Memoria percettiva

   Bara lamenta la mancanza di una teoria onnicomprensiva relativa agli studi della percezione e del suo controllo centrale, cioè dei “processi percettivi dipendenti da funzioni cognitive precedenti e di ordine gerarchico superiore”, lo stesso valga per la visione e l’udito (pagg. 100-105).

    n.d.A.: Anche in questo caso occorre un’attenta lettura, dato che la percezione, la visione e l’udito sono argomenti di interesse intrinseco al condizionamento mentale con i biochip in uso combinatorio con le armi tecnologiche da postazioni remote contro il soggetto-cavia. Inoltre non può non rilevarsi la polemica suscitata dal libro di Weizenbaum “Computer power and human resources”, pubblicato nel 1951, dove avanza la tesi, secondo cui la ricerca sulla percezione del discorso sarebbe stata avviata dal Dipartimento della Difesa statunitense e mirata al miglioramento dei servizi di spionaggio interno, inequivocabilmente rimarcando in tal modo l’attiguità degli di studi di intelligenza artificiale al potere economico-militare (pag. 106).

 

Metodi psicologici

   Conseguente agli argomenti soprariportati una certa attenzione assume la tecnica di indagine psicologica rivolta all’enucleazione dei concetti sottostanti al linguaggio umano, correlabile alle modalità mentali di un metodo matematico astratto; eppure i maggiori importanti ricercatori della simulazione del comportamento stanno orientandosi verso la direzione psicologica a scapito di quella linguistica, di cui R. Schank (1971-1975) va annoverato come il più eminente scienziato fautore di tale ricerca, dedicandosi allo studio dell’aspetto semantico piuttosto che quello sintattico: “il principio-guida è che il significato di una frase ne determina la struttura” (pag.112).  Le sue analisi e quella di Winograd

(1972) hanno esitato l’approntamento di programmi di riadattamento del linguaggio a quello del computer, sempre attraverso l’adozione di stringhe e di algoritmi.

    Seppure allora non strettamente utilizzabili,  altri studi pertinenti e considerati sono quelli svolti da G.A. Miller (b.17) e P.N. Johnson Laird, pubblicati in “Language and Perception”, dalla Cambridge University, nel 1976.

“Miller e Johnson Laird sostengono, che il significato di una parola è definito dall’insieme di operazioni mentali, che rendono possibile usarla correttamente e comprendere l’uso corretto fatto da altri della stessa parola; proseguendo su questa linea, correlano quindi il significato con i paradigmi percettivi riferibili agli oggetti, eventi e priorità connessi con la parola in questione, in modo da determinare in modo univoco una sorta di costruzione sociale della stessa.

Questo comporta lo studio sia delle operazioni mentali costitutive di una singola parola, sia delle relazioni fra parole, allo scopo di determinarne quella, che potremmo chiamare la posizione spaziale all’interno di un sistema integrato di concetti; ciò a sua volta permette di situare la parola in un’efficiente memoria a lungo termine e soprattutto di esplicitare e di rendere manipolabile il sistema relazionale fra le diverse parole ed i diversi concetti” (pagg.114-115).

 

Pensiero

   Seppure in ambiti diversi, tutti gli studi si pongono lo stesso obiettivo di ricerca, cioè il pensiero, la sua origine e la sua formazione, i cui sottoinsiemi sono: “reasoning-ragionamento, inference-inferenza, knowledge representation- rappresentazione della conoscenza, question answering-rispondere a domande, computer comprehension-comprensione, memory-memoria, decision making-prendere decisioni, problem solving-risoluzione dei problemi, learning-apprendimento, plan integration-interazione di piani, theorem proving-dimostrazione dei teoremi, game playing-giochi (b.18, pag.119).

 

Linguistica

    Nei paragrafi precedenti è stato anticipato il problema della traduzione del linguaggio umano convertibile verso quello del computer, la cui soluzione è attribuibile a Noam Chomsky, già a partire dagli anni cinquanta. “L’idea fondamentale è, che un linguaggio può essere inteso come un sistema di regole in grado di generare un insieme di stringhe ben formate (n.d.A.:frasi). Questo sistema di regole può essere tradotto in un programma in grado di generare a sua volta stringhe ben formate appartenenti al linguaggio dato, si noti, che  lo stesso programma potrebbe teoricamente essere messo in grado di riconoscere ed accettare le stringhe formate (non appartenenti al linguaggio).

L’identità formale del programma, che accetta le frasi con il programma, che le genera, permette di affermare, che in un linguaggio ideale, in cui ci sia cioè un modo di generare una singola frase, accettare una frase significa avere individuato in maniera univoca il procedimento di generazione.  Si noti, che il sistema di regole è espresso in forma rigorosamente matematica”. Il concetto di grammatica elaborata da Chomsky è stato evoluto dalle “transformational grammars, grammatiche trasformazionali introdotte soprattutto per gestire i linguaggi di grande complessità, come quelli naturali. Nelle grammatiche trasformazionali si deve distinguere la struttura profonda, una sorta di linguaggio intimo, mai troppo ben chiarito dagli autori e simile al pensiero, dalla struttura di superficie e viceversa, di analisi dalla struttura di superficie a quella profonda” (pagg. 109-110).

    n.d.A.: Il brano soprariportato interamente focalizza le coordinate del condizionamento mentale mirate ed usate per lo stravolgimento della sintassi delle vittime, si tratterebbe di una vera e propria pnl, cioè programmazione neurolinguistica, con l’ausilio di biochip ed armi ad alta tecnologia da postazioni remote.

Dal momento che la sintassi esprime il carattere, la memoria, l’esperienza e l’identità di una persona, colpirla e frantumarla equivale al tentativo di erosione della personalità del soggetto-vittima fino alla sua cancellazione sostituita con quella programmata dai controllori; per quanto subdole le modalità sono perfettamente percepibili dai soggetti accorti circa l’uso delle proprie espressioni verbali ed avvezze alla scrittura secondo propri criteri anche per la scelta del vocabolario, il cui restringimento ed impoverimento costituiscono i principali obiettivi della manipolazione mentale. Infatti, se per la cavia l’espressione verbale riveste grande importanza, essa sarà attaccata attraverso l’induzione a strani usi della sintassi  e della punteggiatura.

 

Comportamento

    La sua simulazione e la sua riproduzione completano l’ambito dell’intelligenza artificiale, assumendo la definizione di robotica. Enfaticamente Bara sostiene, che “quanto la robotica sarà più avanti, sarà un esperimento entusiasmante quello di collegare un robot ad un computer con un programma di simulazione generale della mente e realizzare così il primo uomo artificiale intelligente della storia” (pag.149).

All’epoca studi all’avanguardia erano svolti presso il M.I.T., la Stanford University, lo Stanford Research Institut negli

Usa; l’Edinburgh University in Gran Bretagna; il Politecnico di Milano diretto dal professore Somalvico; mentre nell’est europeo in Cecoslovacchia ed in Urss (pag.150).

    n.d.A.: Si ribadisce, che si è attinto dal comportamento umano per la costruzione e la realizzazione dei robot, come ulteriormente attestano i titoli delle principali pubblicazioni desunti dal libro di G.B. Bara (b.19-22).

 

Modelli psichiatrici

   Ovviamente non potevano mancare, seppure esaltate, le finalità terapeutiche agenti sul cambiamento percettivo, mentale e comportamentale, le cui sperimentazioni sono avvenute negli ospedali psichiatrici statunitensi negli anni cinquanta. Uno degli estimatori convinti è K.M. Colby fino ad asserire, “che tutto ciò che serviva a curare, prevenire o spiegare la malattia mentale doveva essere usato e che la psichiatria aveva anzi assoluto bisogno di nuove e migliori tecniche di indagine e di terapia, data la grave confusione teorica, responsabile anche se certo non unica, delle gravi sofferenze subìte dai malati: se il computer poteva essere utile, ribadivano altri scienziati, si doveva usarlo”.

   Da contraltare non mancarono i critici di tale metodo, tra i quali J. Weizenbaum, secondo cui “non era lecito usare il computer in psichiatria e che si tratta solo, in fondo, di uno sviluppo tecnologico dell’elettroshock” (b.23-26, pagg.159-164).


 

biografia di B.G. Bara

http://www.centronit.unito.it/unitoWAR/ShowBinary/FSRepo/X031/Allegati/CVBara2009.pdf

 

Indice bibliografico:

1.   L’uomo macchina ed altri scritti, J. De Lamettrie, Editori Riuniti, 1961-1966;

2.   Trattato delle sensazioni 1754, E.B. de Condillac, Laterza,  Bari, 1923;

3    La macchina analitica, L. Babbage, Etas Kompass, Milano, 1973

4.   Il sistema uomo, L. von Bertalanffy, Ili, Milano, 1971;

5.   La cibernetica, A.C. Wiener, Il Saggiatore, Milano, 1953:

6.   L’organizzazione del comportamento, D.O. Hebb, Franco Angeli, Milano, 1975;

7.   Le scienze dell’artificiale, H.A. Simon, Isedi, Milano, 1973;

8.     La memoria, F. Bartlett, Franco Angeli, Milano, 1975;

9.     Il pensiero, ibidem sopra;

10.   La genesi dell’ipotesi, E. Claparède, Giunti-Barbera, Firenze, 1972;

11.   Il pensiero produttivo, M. Wertheimer, Giunti-Barbera, Firenze, 1965;

12.   La psicologia del pensiero produttivo, K.Duncker, Giunti-Barbera, Firenze, 1969;

13.   Il pensiero, J.S. Bruner, Franco Angeli, Milano, 1975;

14.   Lo sviluppo cognitivo, J.S. Bruner, Armando, Roma, 1969;

15.   Piani e strutture del comportamento, G.A. Miller, E. Galanter, K.H. Pribram, Franco Angeli, Milano, 1979;

16.   Le scienze dell’artificiale, H.A. Simon, Isedi, Milano, 1973;

17.   Psicologia della comunicazione, G.A. Miller, Milano, 1971;

18.   Metodi per la risoluzione dei problemi nell’intelligenza artificiale, N. Nilsson, Franco Angeli, Milano, 1976;

19.   La costruzione di azione per il robot, P. Rivera, MP-A.I. Project, Politecnico di Milano, 1976;

20.   Cinquantanni di comportamentismo, B.F. Skinner, Isedi, Milano, 1972;

21.   Pensiero e linguaggio in operazioni, in Neocomportamentismo e scienza del comportamento, P.Kurtz, 1,4,1970;

22.   M6: un modello generale di simulazione cognitiva in Ricerche psicologiche, B.G. Bara, G. Airenti, 2, 1977;

23.   Pragmatica della comunicazione umana, P. Watzlawick, J. Helwick Beavin, D.D. Jacjson, Astrolabio, Roma, 1971;

24.   Change, P. Watlawick, J.H. Neackland, R. Fisch, Astrolabio, Roma 1974;

25.   La realtà della realtà, P. Watzlawick, Astrolabio, Roma, 1976;

26.   Eziologia della schizofrenia, J.H. Weakland, Feltrinelli, 1976.