Intelligenza artificiale: la natura della mente
di Mauro Murzi

Con il nome di intelligenza artificiale si designano almeno tre diverse realtà, che si possono così riassumere:

In questa serie di articoli l'intelligenza artificiale è affrontata dal punto di vista della filosofia. L'espressione intelligenza artificiale va quindi intesa nel primo dei tre sensi sopra illustrati, come un particolare approccio filosofico allo studio della mente. Talvolta verranno anche illustrate alcune tecniche utilizzate nella realizzazione di macchine che duplicano il comportamento intelligente; avremo così modo di entrare nel secondo dei tre settori della intelligenza artificiale, ma solo fino al punto necessario per rendere concreto il discorso.

Menti e macchine
E' possibile duplicare il comportamento intelligente mediante una macchina opportunamente programmata?

Prima ancora di rispondere alla domanda, un'altra questione sorge immediatamente: cosa significa duplicare il comportamento intelligente? Significa forse che la macchina si deve comportare come se fosse intelligente, mentre in realtà è solo stupida ferraglia? Basta cioè che la macchina faccia finta di essere intelligente, o invece si esige che sia realmente intelligente?

Si devono distinguere diversi livelli di duplicazione dell'intelligenza da parte di una macchina. Al livello più basso si richiede soltanto che la macchina, posta di fronte ad un problema, fornisca una risposta uguale a quella che darebbe un essere umano. Questo tipo di comportamento è chiamato simulazione cognitiva. Per non rimanere nel vago, si può pensare ad una macchina che gioca a scacchi. Per raggiungere il livello di simulazione cognitiva si richiede alla macchina la capacità di eseguire le stesse mosse di un giocatore di scacchi esperto. Posta di fronte ad un problema, del tipo il bianco muove e dà scacco matto in tre mosse, la macchina deve trovare la soluzione corretta. Posta di fronte ad un giocatore esperto, la macchina deve giocare bene, possibilmente vincendo. Una macchina capace di ciò simula il comportamento di un giocatore umano; non si pretende che la macchina comprenda quello che sta facendo, ma solo che la risposta sia corretta. Un ramo dell'intelligenza artificiale, chiamato intelligenza artificiale debole, propugna proprio questo livello di capacità meccanica: la macchina può simulare il comportamento umano, ma in realtà non lo comprende.

Nell’ambito della simulazione cognitiva non ha alcuna importanza il modo nel quale la macchina giunge alla risposta, purché la risposta sia corretta. Cosa accade all’interno della macchina, quali stati attraversa la macchina nel corso del processo di calcolo, tutto ciò non interessa: l’unico vincolo è che la macchina e l’uomo diano la medesima risposta allo stesso problema. Nel linguaggio dell’intelligenza artificiale si dice che la macchina è una scatola nera (traduzione dell’espressione inglese black box). Per scatola nera si intende un qualsiasi apparato, che riceve dei segnali in ingresso (i problemi posti alla macchina) e fornisce dei segnali in uscita (le risposte ai problemi), all’interno del quale non possiamo guardare: la scatola è chiusa e inaccessibile, possiamo solo rilevare le relazioni tra ingressi e uscite dei segnali, ma non sappiamo niente della struttura interna della macchina.

L’intelligenza artificiale forte si pone invece un obiettivo più ambizioso: una macchina può avere stati mentali, può cioè raggiungere il livello nel quale la macchina realmente pensa, è cosciente, ha consapevolezza di quello che fa, prova quello che anche un essere umano può provare (dolore, aspirazioni, creatività, paura). Una macchina di questo tipo non solo giocherebbe a scacchi, ma sarebbe consapevole di giocare a scacchi, proverebbe l'emozione del gioco, il piacere nella vittoria ottenuta tramite una mossa brillante, l'amarezza della sconfitta.

Una macchina capace di ottenere queste prestazioni svolge un compito di replicazione cognitiva. Una scatola nera non è sufficiente, poiché non basta che la relazione tra i segnali in ingresso e quelli in uscita riproduca esattamente il comportamento umano. Vogliamo che all’interno la macchina si comporti come noi, attraversando la stessa serie di stati e con le medesime relazioni causali che sussistono in noi. Si tratta di un obiettivo veramente ambizioso che pone immediatamente altre domande:

L’ultima domanda è fondamentale per gli scopi dell’intelligenza artificiale. Infatti "solo in quanto le manifestazioni della mente, o la mente stessa, sono prodotte da una causa materiale, come il cervello, si può concepire di ripeterle in modo materiale" (Gabriele Lolli, in Mente e macchina). Se la mente fosse una sostanza immateriale, puramente spirituale, i cui stati non dipendono da una attività fisica, allora nessuna macchina potrebbe mai riprodurre il comportamento umano. Il primo ostacolo da superare è quindi quello di mostrare che la mente, l'intelligenza, il comportamento dipendono in maniera sostanziale da attività neurofisiologiche.

Fortunatamente per gli studiosi di intelligenza artificiale lo sviluppo scientifico del ventesimo secolo ha chiaramente mostrato che la mente non è una sostanza immateriale, ma è qualcosa che trova nell’attività cerebrale la propria origine. La tesi della mente come sostanza non fisica separata dal mondo materiale (tesi che prende il nome di dualismo, proprio perché riconosce due sostanze irriducibilmente diverse, la materia e la mente) è ormai screditata dagli sviluppi odierni della psicologia e della neurofisiologia. E’ stata anzi proposta una teoria completamente opposta: la teoria dell’identità, seconda la quale gli stati mentali sono identici a eventi neurofisiologici che avvengono nel cervello. Le sensazioni, i sentimenti, il comportamento sono solo manifestazioni dello stato fisico nel quale si trova il cervello. Questa teoria stabilisce il più forte legame immaginabile tra mente e materia: la mente è una manifestazione del cervello e della attività cerebrale. In linea di principio ogni riferimento a stati mentali o a eventi psicologici può essere evitato; sarà sostituito da una descrizione accurata della attività del cervello.

La teoria dell'identità è perniciosa per gli obiettivi dell’intelligenza artificiale. Infatti identifica la mente umana con il cervello umano, i sentimenti con gli stati cerebrali, l’intelligenza con determinati legami tra i neuroni. Ma se i processi mentali sono identici ai processi cerebrali, nessuna macchina potrà riprodurre il comportamento intelligente, a meno che non sia fatta del nostro stesso materiale. Una macchina non ha neuroni, è composta di metalli, non di tessuto cerebrale. Se per avere coscienza delle proprie attività è necessario che i neuroni del cervello si trovino in uno stato determinato allora nessuna macchina avrà mai coscienza, perché non ha un cervello umano.

La teoria dell’identità ha anche un altro problema: né Dio né i marziani pensano. Dio infatti è una sostanza immateriale; ma per pensare bisogna avere un cervello: quindi Dio non pensa. Lo stesso per i marziani. Ora è ben vero che non conosciamo marziani, ma è ragionevole supporre che se esistono esseri intelligenti diversi da noi, costoro probabilmente avranno avuto una diversa evoluzione e avranno un cervello molto diverso dal nostro. Quindi, o concludiamo che qualsiasi essere privo di un cervello simile al nostro non ha i nostri sentimenti e non è intelligente (argomento molto antropocentrico) oppure riconosciamo che si può esprimere una attività cosciente e intelligente anche in presenza di una diversa struttura cerebrale. La teoria dell’identità non è dunque sostenibile (e questo torna utile ai fautori dell’intelligenza meccanica).

Nel corso del ventesimo secolo sono state avanzate altre spiegazioni dei rapporti tra mente e cervello. Esiste uno specifico settore della filosofia che si occupa del problema mente-cervello o mente-corpo (con queste espressioni si designa l'analisi puntuale delle relazioni che esistono tra la mente e il substrato fisico). Particolare successo ha avuto il comportamentismo. Tale teoria ha origine nell'ambito della psicologia ad opera di John Watson e B. F. Skinner nel corso degli anni venti e trenta

Il principio guida del comportamentismo è che ogni discorso sulla mente e sui rapporti mente-corpo può essere abbandonato in favore di una descrizione del comportamento osservabile del soggetto e delle relazioni tra gli stimoli e le risposte. Non esistono stati mentali, né esiste una relazione causale tra la mente e il corpo; esistono solo connessioni tra stimoli e risposte.

Una variante filosofica del comportamentismo, nota come comportamentismo logico, è stata propugnata dal neopositivismo logico.

Filosofi tedeschi
Con il nome di neopositivismo logico (o anche empirismo logico, positivismo logico o semplicemente neopositivismo) si indica una corrente filosofica che si è sviluppata in Germania e Austria durante gli anni venti, interessata all'analisi logica della conoscenza scientifica. I principali rappresentati di questa scuola di pensiero furono costretti ad emigrare durante gli anni trenta verso gli Stati Uniti, dove influenzarono profondamente la filosofia americana. Fino agli anni cinquanta le teorie del positivismo logico hanno dominato la filosofia della scienza; questo movimento rappresenta sicuramente la scuola filosofica più influente del nostro secolo.

Il comportamentismo logico è un'applicazione alla psicologia di alcune tecniche di analisi logica sviluppate dal neopositivismo nell'ambito della filosofia della scienza. Si consideri a titolo di esempio la domanda "come si accerta la presenza di una corrente elettrica in un circuito?". Esistono molte riposte possibili:

Questi enunciati hanno in comune la forma logica. Sono tutti del tipo

(se A e D) allora B

A indica l'attività di "collegare un amperometro" o "collegare una lampadina" o "avvicinare una bussola". B indica l'esito che si ottiene: "l'indicatore si sposta" o "la lampadina si accende" o "l'ago si sposta". Infine D è sempre "nel circuito c'è corrente elettrica".

Questi enunciati sono chiamati enunciati disposizionali. Essi indicano il comportamento che un sistema deve avere in determinate condizioni affinché sia possibile attribuirgli certe proprietà. Si può dire che in un circuito c'è corrente elettrica qualora il circuito e gli apparati sperimentali si comportino in una maniera determinata a fronte di specifiche condizioni.

Sono chiamate proprietà disposizionali le proprietà che sono accertabili mediante metodi descritti da enunciati disposizionali. Una proprietà disposizionale non è esplicitamente definibile; nel caso illustrato non si può individuare una serie S di condizioni tali che sia possibile asserire "nel circuito c'è corrente elettrica se e solo se S". Ma esistono molti (al limite infiniti) enunciati disposizionali che descrivono metodi per accertare la presenza di corrente elettrica. Esiste cioè una lunga serie di enunciati

(se A1 e D) allora B1

(se A2 e D) allora B2

(se A3 e D) allora B3

...

(se An e D) allora Bn

...

che determinano la proprietà disposizionale D.

Secondo il comportamento logico tutti i termini che descrivono stati mentali sono disposizionali. Il comportamentismo logico è in primo luogo una teoria sul significato dei termini usati nella descrizione degli stati mentali, è cioè una teoria sul linguaggio della scienza, non una teoria sulla natura della mente.

Quale sarà il significato di "ho sete"? Semplicemente "ho sete" esprime una disposizione ad un certo comportamento:

(se c'è dell'acqua e ho sete) allora bevo l'acqua

(se c'è del succo di frutta e ho sete) allora bevo il succo di frutta

...

Analogamente il significato di "sento dolore" è determinato dalla lista probabilmente infinita di enunciati del tipo:

(se c'è dell'aspirina e sento dolore) allora prendo l'aspirina

(se c'è un antidolorifico e sento dolore) allora prendo l'antidolorifico

(se posso parlare e sento dolore) allora dico "Sento dolore"

(se posso parlare e sento dolore) allora mi lamento

...

Nel caso del dolore, il "sentire dolore" significa semplicemente "l'essere disposti a comportarsi in una certa maniera: prendere dei farmaci, lamentarsi, descrivere il dolore e simili". Per esempio, se una persona dice di sentire dolore ma, di fronte ad un farmaco, non lo vuole prendere perché è amaro, probabilmente si ha il diritto di dire "ma allora non senti dolore!". Il bambino che non vuole andare a scuola perché sta male, ma va a giocare a pallone, non sta realmente male. Il suo comportamento non si conforma allo schema disposizionale previsto.

Un grande merito di questa teoria è che qualsiasi ente può manifestare degli stati mentali, quali il dolore o l'intelligenza, indipendentemente dalla sua struttura fisica, purché manifesti le corrette relazioni disposizionali. Quindi, a rigor di logica, anche una macchina potrebbe pensare, se il comportamentismo logico è nel giusto. Ma...

Il signor Spock (non ci sono filosofi tedeschi a bordo dell'Enterprise)
In un episodio della serie originale di Star Trek l'astronave Enterprise riceve una richiesta di soccorso proveniente dal pianeta sottostante. Una squadra guidata dal signor Spock scende sulla superficie, ma è aggredita da strani animali che iniettano nel corpo delle loro vittime una porzione di se stessi (vi ricordate Alien?). L'animale aggressore può controllare il comportamento dell'ospite imprimendogli del dolore per obbligarlo ad agire come vuole. Anche il signor Spock è stato aggredito ma, dopo un iniziale smarrimento, dovuto alla sua metà umana, riesce a controllare il dolore e ad agire normalmente.

Ovviamente il signor Spock percepisce dolore, ma non manifesta alcuna reazione tipica; in altre parole, nessuna descrizione in termini di enunciati disposizionali è adeguata al comportamento del signor Spock. Egli sente realmente dolore? Ovviamente sì, sente dolore. Ma per il comportamentismo logico l'unico significato che si può attribuire a "sente dolore" è "ha la disposizione a comportarsi in tale e tale modo", e in signor Spock non si comporta "in tale e tale modo".

"Sentire dolore" significa "dire di avere dolore, prendere dei farmaci se disponibili, e così via". Ma un essere come Spock potrebbe non manifestare alcun sintomo, per via della sua natura vulcaniana. E nulla vieta di pensare ad una razza che, per ragioni morali, etiche, di abitudine, non manifesti in alcun modo visibile e oggettivo il "sentire dolore".

L'attribuzione di uno stato mentale è possibile, secondo il comportamentismo logico, quando il soggetto manifesta la disposizione a comportarsi in un determinato modo. Quindi il se soggetto non manifesta tale disposizione allora non è in quello stato mentale. Il problema in fondo è questo: un circuito con la corrente elettrica non può nascondere di essere attraversato dalla corrente elettrica, perciò è possibile indicare il comportamento che gli strumenti di misura devono avere vicino a questo circuito. Il comportamento è rigido, inevitabile. Un essere vivente può avere un comportamento che contraddice la norma, può non manifestare alcun sintomo esterno, alcun comportamento osservabile e riproducibile. Ma se il solo significato di uno stato è il comportamento che esso induce, si deve concludere che ove non vi sia un comportamento adeguato non vi è neanche uno stato mentale. Addirittura il termine che descrive lo stato mentale non significa nulla. Questa è una critica seria al comportamentismo logico. Perciò si deve cercare un'altra teoria della mente.

Non sia mai detto che i filosofi rimangano a corto di teorie brillanti; il comportamentismo logico non va bene? Lo cambiamo con qualcosa d'altro che però ne conservi gli elementi più attraenti. Nel corso degli anni sessanta si è delineata una nuova teoria chiamata funzionalismo.

Il comportamentismo riduce il significato dei termini che descrivono stati mentali alle connessioni tra stimoli e risposte. Il funzionalismo sostiene invece che la natura degli stati mentali va spiegata tenendo conto non solo degli stimoli e delle risposte, ma anche delle relazioni interne con altri stati mentali. Uno stato mentale è implicitamente definito da tre elementi:

E' stato spesso proposto un paragone tra i principi di funzionamento di una macchina di Turing e il funzionalismo. Una macchina di Turing è un dispositivo teorico dotato di un insieme definito di stati interni e di opportune istruzione che specificano come passare da uno stato all'altro in funzione del segnale di ingresso, producendo contemporaneamente un segnale in uscita. A fronte di un segnale in ingresso una macchina di Turing produce un segnale in uscita e modifica il proprio stato interno. Quindi uno stato interno in una macchina di Turing è definito quando si conosce

  1. quale segnale in uscita è generato
  2. quale stato interno della macchina diviene lo stato corrente

Si noti che il segnale generato in uscita dipende sia dal segnale in ingresso sia dallo stato interno della macchina. Anche il passaggio ad un nuovo stato interno dipende dal segnale in ingresso e dallo stato interno attuale.

Nel comportamentismo il segnale in uscita (il comportamento osservabile) dipende solo dal segnale in ingresso (lo stimolo esterno). Al contrario il funzionalismo ritiene che il comportamento osservabile trovi la sua origine nello stimolo esterno e nello stato mentale attuale del soggetto. Il funzionalismo si distingue dal comportamentismo proprio per questo accento posto sulla configurazione interna come corresponsabile, insieme allo stimolo, del comportamento osservabile. Un'altra differenza sostanziale è che il funzionalismo è una teoria sulla natura della mente, mentre il comportamentismo logico è una teoria sul significato delle parole impiegate per descrivere gli stati mentali.

Una tabella riassuntiva
Può essere utile descrivere brevemente in una tabella le diverse teorie proposte per risolvere il problema mente-corpo.

Teoria Principio guida Potrebbe una macchina pensare?
Dualismo La mente è una sostanza spirituale No, perché una macchina è solo un oggetto materiale
Identità La mente è identica al cervello No, perché una macchina non ha il cervello
Comportamentismo Gli stati mentali sono definiti dall'insieme delle relazioni stimolo-risposta Si, se l'insieme delle relazioni stimolo-risposta di un macchina corrisponde a quello dell'uomo
Comportamentismo logico Il significato dei termini che descrivono gli stati mentali è definito dall'insieme degli enunciati disposizionali che descrivono le possibili relazioni stimolo-risposta Si, perché nel significato dei termini che descrivono gli stati mentali non c'è nulla di specifico e limitato al genere umano
Funzionalismo Gli stati mentali sono definiti dalle relazione tra lo stimolo, la risposta e gli stati mentali stessi, come in una macchina di Turing Si, perché la natura degli stati mentali è teoricamente la stessa di una macchina di Turing, e la macchina di Turing è il prototipo dei calcolatori

Bibliografia.
Un breve elenco di voci reperibili in Internet e dedicate a vari aspetti dell'intelligenza artificiale.

Dal sito della Internet Encyclopedia of Philosophy

Dal sito della Stanford Encyclopedia of Philosophy

Il quaderno numero 66 di Le Scienze dal titolo Mente e macchina contiene la ristampa di alcuni articoli pregevoli su diversi aspetti dell'intelligenza artificiale.