Home > Doc > Sviluppi dell'Intelligenza Artificiale > I presupposti del confronto: coscienza ed intenzionalità tra Searle e Dennett

Sviluppi dell'Intelligenza Artificiale

I presupposti del confronto: coscienza ed intenzionalità tra Searle e Dennett

Come si accennato alla fine del precedente paragrafo, Dennett ritiene che per Searle il vero nodo della questione non risieda nel problema dell'inderivabilità della semantica dalla sintassi, ma in quello che significa in prima persona essere coscienti di quello che si è. In altre parole, "Searle ha evidentemente confuso una tesi concernente l'inderivabilità della semantica dalla sintassi con una tesi concernente l'inderivabilità della coscienza della semantica dalla sintassi. Per Searle, l'idea del genuino intelletto, della genuina 'semanticità' come spesso la chiama, non è scindibile dall'idea di coscienza" [15]. Searle aveva definito la coscienza come un fenomeno biologico di ordine superiore causato dal cervello umano che, tra le sue varie caratteristiche strutturali, ne possedeva una, particolarmente importante, che fa sì che essa sia quello che è: la soggettività ontologica [16].

Dennett dissente radicalmente dalla concezione di coscienza così come la intende Searle; egli non pensa assolutamente che la coscienza contenga qualche elemento irriducibilmente soggettivo, perché questo la renderebbe inesplorabile da un punto di vista scientifico. Ne "Il mistero della coscienza", e poi anche nella "New York Review of Books" [17], si ritrova un acceso dibattito tra i due in merito al problema. Il cuore della discussione è proprio l'elemento di soggettività che Searle individua come elemento fondante del fenomeno della coscienza.

A riprova e conferma del suo discorso, egli conduce i lettori a tentare alcuni semplici esperimenti su loro stessi, in modo che possano facilmente verificare cosa significhi 'essere coscienti'. Egli, ad esempio, suggerisce di provare a pizzicarsi la pelle; questo gesto provoca una sensazione di dolore, per quanto poco accentuata, che genera alcune conseguenze. Chiunque può verificare che tale sensazione di spiacevolezza possiede una particolare qualità soggettiva, che ciascuno percepisce in modo differente da ogni altro agente. Tuttavia, sottolinea Searle, la percezione di un dolore, come in questo caso, ha sia conseguenze epistemiche -ossia ognuno riconosce il proprio dolore come nessun altro può fare- ma la modalità con cui il dolore esiste è soggettivamente ontologica: esso esiste, cioè, solo in quanto esperito da un soggetto. Questo significa, in generale, che la base neurofisiologica del cervello che causa gli stati coscienti è spiegabile da un punto di vista oggettivo o in terza persona; ma essi sono tali anche in ragione di un 'qualcosa in più' che si aggiunge loro, e questo qualcosa in più è proprio la qualità dell'esperienza soggettiva. Insomma, per riprendere l'esempio precedente, secondo Searle, non si possono separare i processi neurofisiologici cerebrali che originano il dolore dalla qualità del dolore stesso, perché essi formano un tutt'uno che confluisce nella definizione di "dolore": "(.) i segnali che arrivano causano il dolore, e il dolore a sua volta provoca una disposizione comportamentale. Ma la cosa essenziale riguardo al dolore è che si tratta di una specifica sensazione interiore, qualitativa" [18]. Ciò che Dennett osteggia di questa posizione è la sua non scientificità. Egli ritiene che la coscienza, intesa nel senso di Searle, non esista.

Non esiste per Dennett alcun problema dei 'qualia'[19] e della soggettività perché l'intera coscienza si risolve nel materialismo: in "Coscienza. Che cos'è" [20], egli assimila la coscienza ad una macchina virtuale. L'immagine, che fa parte di una delle metafore tecnologiche di cui Dennett si serve, e che egli usa chiamare "pompe d'intuizione", vuole rimarcare proprio il fatto che non esiste un problema di irriducibilità della mente a qualcos'altro ('hard problem'), ma esistono solo delle difficoltà legate agli aspetti meccanici e tecnologici del funzionamento del cervello, ancora irrisolti ('soft problems') [21].

L'obiettivo di Dennett è quello di comprendere e descrivere i fenomeni soggettivi di 'prima persona' dal punto di vista scientifico della 'terza persona'. Nella sua prospettiva, postulare delle qualità interne inaccessibili se non soggettivamente, significa ripristinare una sorta di dualismo cartesiano, proprio perchè tali stati interiori non sono indagabili oggettivamente e sperimentalmente. Ed è precisamente questa l'accusa più forte che Dennett muove a Searle: quella, cioè, di avere alimentato e supportato proprio quella forma di dualismo [22] che egli asseriva di voler combattere. Inoltre, Dennett non approva il metodo searliano: egli non si affida a veri metodi di ricerca, ma ad un'evidenza del singolo, ad una tradizione della psicologia del senso comune, che è tanto incontestabile quanto poco scientifica, in quanto non si basa su fenomeni osservabili e verificabili, passibili di essere generalizzati. Questo dissenso è originato dal fatto che, nella visione dennettiana, l'oggettività scientifica richiede il punto di vista in terza persona [23].

Su quest'ultimo punto abbiamo già visto come si difende Searle, il quale suggerisce che la scientificità possa consistere anche di altri punti di vista; ossia, è per lui evidente che non esistono veramente solo i fenomeni verificabili scientificamente. I fenomeni mentali, come abbiamo sottolineato prima, pur non essendo verificabili dalla prospettiva oggettiva, hanno comunque una modalità di esistenza inequivocabile, esistono cioè in relazione ad un soggetto che li esperisce. Ma esistono, ed è abbastanza semplice constatarlo: il problema della coscienza, perciò, per Searle, non si riduce solo alla comprensione degli aspetti meccanici del cervello, ma deve impegnarsi anche a spiegare le sensazioni soggettive, i 'qualia'. Dennett, invece, secondo Searle, negando le sensazioni soggettive, nega i dati che una teoria della coscienza deve essere in grado di giustificare; egli offre una spiegazione alternativa di coscienza, secondo la quale l'essenza dell'esperienza cosciente risiede nelle relazioni causa-effetto tra alcuni input, o stimoli (ad esempio, nel caso del pizzicotto, la pressione sulla pelle), ed alcuni output, ossia disposizioni comportamentali con cui rispondiamo agli stimoli (ad esempio, il ritirare il braccio, o il massaggiarlo). Tra questi ultimi vi sono degli stati discriminativi che determinano a rispondere in modi diversi allo stesso stimolo, ma " il tipo di stato che abbiamo per discriminare la pressione è esattamente come lo stato di una macchina per determinare la pressione. Essa non prova alcuna particolare sensazione; in realtà non possiede alcuna sensazione interiore, perché le 'sensazioni interiori' non esistono" [24].

Per Dennett, l'uomo stesso è una macchina; Searle pensa che la mente sia un calcolatore, ma solo a livello delle relazioni input-output, perché poi essa si distingue grazie alla capacità del cervello di causare stati mentali. Ma per Dennett non c'è altro oltre ai poteri causali prodotti dal cervello che controllano e regolano l'attività intelligente esibita dal soggetto, e che si basano sulla giusta velocità di elaborazione delle informazioni e di gestione degli input e degli output. Dice Dennett: "Credo che alla gente non piaccia molto sentire dire che noi siamo soltanto delle macchine, ma questo è causato dal fatto che essi si riferiscono ad un'idea di macchina troppo semplicistica. (.) Sto dicendo che essi sono macchine estremamente complesse e sofisticate costituite di parti meccaniche e materiali, i nostri cervelli e i nostri corpi" [25].

In "Brainstorms. Saggi filosofici sulla mente e la psicologia", Dennett mostra per quale ragione, nella sua prospettiva, un calcolatore non possa provare sensazioni, in particolare si rifà a a sua volta al classico esempio del dolore [26]. Poiché per Dennett la sofferenza non è il nome di una sensazione, ma significa vedere vanificare i propri piani e le proprie speranze, la questione di come un robot potrebbe sentire dolore non deve incentrarsi sul riferimento a qualcosa di 'soggettivo' e 'misterioso'. Il fatto che sino ad oggi non si siano conseguiti dei successi in questi direzione, dipende solamente dal non possedere ancora una teoria coerente del dolore. L'obiettivo di Dennett è quello di mostrare come la sofferenza, anche se non è direttamente osservabile, possa essere spiegata senza ricorrere alla postulazione di qualità interne o di proprietà intrinseche, come la 'terribilezza', la disperazione o la tragicità [27].

Dunque, per riassumere, secondo Searle gli aspetti computazionali di una macchina cosciente artificiale sarebbero qualcosa che si aggiunge alla coscienza, mentre per Dennett non esiste coscienza oltre alle caratteristiche computazionali, perché queste coincidono con la coscienza stessa. Dennett taccia Searle di essere dualista, Searle accusa Dennett di antimentalismo. Quello che è interessante notare, è che una posizione come quella di Dennett non poteva che originare una versione dell'IA forte. Concepire la coscienza come corrispondente agli aspetti computazionali di una macchina cosciente artificiale non può che avvalorare la tesi per cui la mente sta al programma come il cervello sta all'hardware del calcolatore. Ma le differenze radicali non sono finite qui. Al problema della coscienza si connette quello dell'intenzionalità, ed è quindi opportuno mostrare anche in questo caso quale sia il gap teorico che divide i due filosofi e che necessariamente li conduce distanti in merito alle posizioni dell'IA.

Abbiamo già accennato alla posizione di Dennett sull'intenzionalità, ma la riprendiamo ora alla luce della distinzione searliana tra intenzionalità intrinseca, derivata e come se. Secondo Dennett, un computer digitale elettronico dovrebbe attivare il programma giusto abbastanza velocemente da riprodurre in tempo reale il funzionamento del cervello e ciò che questo, tramite i suoi poteri causali, può produrre, ossia il controllo dell'attività intenzionale rapida e intelligente, esibita dagli esseri umani. Abbiamo già sottolineato in che modo Dennett descriva i "poteri causali"; rimane ora da capire cosa egli intenda per "attività intenzionale rapida e intelligente". Searle aveva distinto tre tipi di intenzionalità: intrinseca, derivata e 'come se'. Quest'ultimo tipo non è una vera e propria forma di intenzionalità; si tratta di un'attribuzione di intenzionalità che viene attuata verso un agente che si comporta, appunto, come se possedesse intenzionalità, senza di fatto averla. Ciò che è rilevante in questa sede è la nozione di intenzionalità derivata. Searle aveva sostenuto che alcuni nostri manufatti, così come le proposizioni del linguaggio, possono avere un'intenzionalità derivata [28] da noi, che, a nostra volta, possediamo un'intenzionalità intrinseca (o originaria), assolutamente non derivata. Ne "L'atteggiamento intenzionale" [29], così come ne "La mente e le menti" [30], Dennett avanza la tesi per cui l'unico tipo di intenzionalità esistente è l'intenzionalità derivata. Per avvalorare questa posizione, Dennett porta l'esempio di una macchina, piuttosto semplice: si tratta di un distributore automatico di bibite dotato di un particolare congegno (definito 'two-bitser') avente il compito di accettare e respingere quarti di dollaro americani. Esso deve essere costruito in modo tale da essere in grado di riconoscere un quarto di dollaro americano da qualsiasi altro pezzo tondo di metallo, indipendentemente dal suo valore.

Questo, naturalmente, finchè restiamo in America; ma, nel caso in cui si cambiasse Paese, lo stesso congegno dovrebbe essere strutturato in modo da accettare la moneta corretta rispetto al posto in cui ci si trova, e scartare le altre possibilità. Ciò che Dennett vuole rimarcare è che la macchina non è dotata di una funzione intrinseca sua propria che non muta a seconda delle circostanze; al contrario, essa cambia in relazione alle intenzioni di chi la progetta e la realizza. Si tratta dunque, evidentemente, di un caso di intenzionalità derivata: la macchina significa qualcosa, solo perchè siamo noi a dirle cosa deve significare.

Fino a questo punto, la posizione di Dennett non diverge da quella di Searle, e neanche da quella di altri funzionalisti, come Fodor e Dretske [31]; il vero momento di distacco si ha quando egli afferma di "applicare le stesse morali, le stesse regole pratiche di interpretazione al caso dell'uomo" [32]. In sostanza, per Dennett, noi siamo dei 'two-bitser', solo che molto più sofisticati ed elaborati. La teoria cui Dennett fa riferimento per supportare tale tesi è la teoria dell'evoluzione delle specie.[33]

Anche in questo caso, egli parte da un esempio, una sorta di 'esperimento mentale' [34]: l'idea è quella di immaginare di voler sperimentare la vita nel XXV secolo e che, per raggiungere tale fine, sia necessario collocare il nostro corpo in un meccanismo di ibernazione. A questo punto, diventa indispensabile progettare un supersistema atto a proteggere la capsula in cui si trova il nostro corpo e a fornirle l'energia necessaria per 400 anni. Si suppone, perciò di costruire un robot su cui collocare la capsula e di istruirlo in modo da garantirne la sopravvivenza, per esempio, programmando nuovi corsi di azioni, scoprendo strategie di ricerca delle risorse che gli permettano di usufruirne per primo, imparando dai precedenti errori, studiando meccanismi di difesa, magari per mezzo di 'alleanze' con altri robot simili, ecc. Naturalmente, questo tipo di macchina è molto più complesso del two-bitser dell'esempio precedente; tuttavia, anche se funzionasse in modo molto credibile in qualsiasi test di Turing [35] venisse sottoposto, esso avrebbe soltanto un'intenzionalità derivata, esattamente come qualsiasi manufatto.

Secondo Dennett, è possibile asserire, a questo punto, che "la nostra stessa intenzionalità è esattamente come quella del robot, dato che il racconto di fantascienza che ho narrato non è nuovo; è solo una variazione della visione che Dawkins [36] dà di noi (e di altre specie biologiche) come 'macchine di sopravvivenza' progettate per prolungare il futuro dei nostri geni egoisti"; "(.), la nostra intenzionalità è pertanto derivata dall'intenzionalità dei nostri geni 'egoisti'!" [37].

Il problema, ora, per Dennett è capire come sia possibile che la nostra intenzionalità derivi da entità, i geni, che possiedono evidentemente un'intenzionalità 'come se' [38]. Inoltre, noi non siamo, al pari del robot, il frutto di un progetto di ingegneria consapevole e previdente, ma il risultato di un processo di progettazione di cui beneficiano i nostri geni e che è completamente privo di un progettista deliberato e intelligente.

Per risolvere il problema ed eliminare la necessità di un artefice intelligente, Dennett mette in gioco la teoria della selezione naturale. Sarebbe piuttosto sciocco, secondo Dennett, supporre che i geni siano abili ingegneri; essi sono privi di qualsiasi intelligenza, non possono rappresentare o calcolare niente, usufruiscono solamente del processo di progettazione. Dunque, "chi e che cosa fa il progettista? Madre Natura, naturalmente, o più letteralmente, il lungo, lento processo di evoluzione per selezione naturale" [39]. In un certo senso, si potrebbe dire che è Madre Natura a possedere un'intenzionalità intrinseca o originaria, da cui deriva la nostra intenzionalità derivata, in quanto siamo manufatti da lei progettati; tuttavia, Madre Natura non è un artefice intelligente, che ha pianificato ogni cosa per arrivare dove siamo, ma coincide con un lento processo di evoluzione in cui ha parte attiva la selezione: questa può 'scegliere' un progetto per una ragione o per un'altra, senza 'rappresentare' la scelta o le ragioni. Inoltre, "è solo relativamente a tali 'scelte' del progetto o scopi 'firmati' dall'evoluzione - raisons d'être- che possiamo identificare comportamenti, azioni, percezioni, credenze, o qualsiasi altra categoria della psicologia del senso comune" [40]. Quindi, il tipo di intenzionalità che contraddistingue il robot è esattamente come il nostro tipo di intenzionalità, cioè derivata, e non esiste nessuna intenzionalità intrinseca agli stati mentali.

E così come noi facciamo delle attribuzioni funzionali verso ogni nostro manufatto, che possono variare a seconda del contesto d'utilizzo della macchina, analogamente anche Madre Natura non ha attribuito delle funzioni univoche ed immutabili alle sue creazioni, ma esse si determinano di volta in volta nell'interazione con l'ambiente, al solo fine di garantire una miglior sopravvivenza della specie [41].

Perciò, quando Dennett sostiene che l'IA debba tentare di riprodurre i poteri causali del cervello che originano il controllo della rapida ed intelligente attività intenzionale, parla di qualcosa di molto diverso da ciò che intende Searle. Alla luce di ciò che si è detto finora, infatti, è chiaro che anche per Dennett probabilmente la sintassi non sarebbe sufficiente per la semantica; ma il punto sollevato da Dennett è che in realtà non esiste nessuna semantica nel senso in cui la concepisce Searle: "(.) la sintassi concretata, attivata -il 'programma giusto' in una macchina opportunamente veloce- è sufficiente per l'intenzionalità derivata, e questo è l'unico tipo di semantica esistente"

[42]. E' evidente, in conclusione, che per Searle, che crede nell'esistenza di un livello coscienziale ed intenzionale soggettivo ed intrinseco agli stati mentali dell'individuo, le possibilità dell'IA di riprodurre una mente umana basandosi esclusivamente sull'analogia di questa con un programma di computer risultano molto basse; d'altra parte, la posizione di Dennett si sposa invece molto bene con una versione dell'IA forte, in quanto, eliminando il piano della coscienza e dei 'qualia', e considerando gli uomini alla stregua di macchine solo molto più sofisticate, non esclude che un giorno si riesca a creare davvero una macchina che pensa in modo umano.


[15] D. C. Dennett, L'atteggiamento intenzionale, cit., p. 447.

[16] Ricordiamo che la "soggettività ontologica" è la caratteristica peculiare della coscienza, ciò che la rende più misteriosa: gli stati coscienti esistono solo in quanto esperiti da un agente, ossia possiedono quella che viene definita un'"ontologia in prima persona". Searle aveva inoltre distinto due sensi in cui si può spiegare la distinzione oggettivo/soggettivo: il senso epistemico e quello ontologico. Il problema della coscienza è essenzialmente legato a quest'ultimo, che si riferisce al modo di esistere delle entità nel mondo.

[17] Una parte del dibattito è riportata in J. R. Searle, Il mistero della coscienza, tr. it. Raffaello Cortina, Milano 1998, pp. 93-107.

[18] Ivi, p. 78.

[19] Per la precisione, Dennett sostiene che l'equivoco si basi sull'uso di un termine fuorviante, 'qualia'. I 'qualia' non esistono, ma i fenomeni indicati dalla parola probabilmente sono reali, soltanto non vengono né compresi, né descritti con essa. Quindi, è opportuno ridefinire i 'qualia' in modo consistente e coerente. Dennett propone di paragonare i 'qualia' agli atomi e mostrare che anch'essi non sono semplici, ma complessi, e che sono composti di particelle non accessibili all'introspezione (cfr. E. Carli, op. cit., p. 76).

[20] Cfr. D. C. Dennett, Coscienza. Che cos'è, cit., in E. Carli, op. cit., p. 67.

[21] Con questa affermazione, Dennett ha come obiettivo polemico non solo Searle, ma anche quei funzionalisti che sostengono che vi sia qualcosa di irriducibile nella coscienza umana ( vedi, ad esempio, D. J. Chalmers, La mente cosciente, tr. it. McGraw-Hill, Milano 1999).

[22] Il problema del dualismo tra mente e corpo ha origini molto antiche, ma viene consacrato dalla filosofia cartesiana. Cartesio, infatti, aveva separato la sostanza pensante ("res cogitans") dalla sostanza estesa ("res extensa").

[23] Questa posizione fa di Dennett, agli occhi di Searle, un verificazionista (cfr. J. R. Searle, Il mistero della coscienza, cit., p. 77).

[24] Ivi, p. 79.

[25] Intervista a D. C. Dennett, in E. Carli, op. cit., p. 71.

[26] D. C. Dennett, Brainstorms. Saggi filosofici sulla mente e la psicologia, trad. it. Adelphi, Milano 1991, pp. 299-350.

[27] Dennett ha spesso portato l'esempio degli zombies a sostegno di questa tesi. Nella sua prospettiva, la sofferenza degli zombies non sarebbe differente dalla nostra sofferenza cosciente, essa non sarebbe meno importante della nostra. Secondo Searle, invece, ciò che Dennett esclude dalle sue indagini e che fa sì che l'uomo soffra e lo zombie no,è il fatto che l'uomo possiede un elemento di sensibilità che, per definizione, lo zombie non possiede (cfr. J. R Searle, Il mistero della coscienza, cit., p. 86).

[28] Secondo Searle, l'intenzionalità intrinseca è indipendente dagli osservatori, sussiste di per sé in quanto elemento fondante dei fenomeni psichici: se si possiede uno stato mentale lo si ha indipendentemente da quello che gli altri pensano al riguardo. L'intenzionalità derivata, invece, è dipendente dagli osservatori: deriva da quella intrinseca, ed è frutto di una "imposizione" degli uomini ai loro manufatti e alle proposizioni del linguaggio. I manufatti e le frasi hanno intenzionalità derivata nel senso che significano qualcosa solo in relazione all'uomo che li ha creati.

[29] Cfr. D. C. Dennett, L'atteggiamento intenzionale, cit., cap. VIII.

[30] Id, La mente e le menti. Verso una comprensione della coscienza, tr. it. R. C. S. Libri & Grandi Opere, Milano 1997, pp. 62-68.

[31] Questi, pur abbracciando la dottrina funzionalista, non riescono a negare l'esistenza di un'intenzionalità intrinseca. Cfr. F. Dretske, "Machines and the mental", in Proceedings and Addresses of the APA, 1985, vol. 59, pp. 23-33. Cfr. J. Fodor, Psicosemantica, tr. it. Il Mulino, Bologna 1990.

[32] D. C. Dennett, L'atteggiamento intenzionale, cit., p. 394.

[33] Per un ulteriore approfondimento, vedi D. C. Dennett, L'idea pericolosa di Darwin, tr. it. Bollati Boringhieri, Torino 1997.

[34] Cfr. D. C. Dennett, L'atteggiamento intenzionale, cit., pp. 396-401.

[35] Ricordiamo che il test di Turing è un sistema elaborato al fine di stabilire se una macchina è in grado di pensare o meno: una persona si trova davanti ad un terminale e con la tastiera scrive delle domande e riceve delle risposte. Dall'altro capo del terminale ci sono una macchina ed un operatore umano che forniscono alternativamente le risposte alle domande. Se la persona non è in grado di discernere quando sta parlando con la macchina e quando con l'operatore umano, allora la macchina è intelligente.

[36] Cfr. R. Dawkins, Il gene egoista, trad. it. Mondadori, Milano 1992, cit. in Dennett, L'atteggiamento intenzionale, cit., p. 400.

[37] Ivi, pp. 399-400.

[38] Dennett suggerisce infatti che è utile applicare l'atteggiamento intenzionale per descrivere i processi biologici; gli studiosi danno un senso a questi ultimi fornendoli di interpretazioni mentalistiche, ma l'intenzionalità che viene attribuita è una mera intenzionalità 'come se'.

[39] D. C. Dennett, L'atteggiamento intenzionale, cit., p. 401.

[40] Ivi, p. 402.

[41] Gli evoluzionisti hanno studiato proprio questa 'indeterminatezza della funzione'. Jay Gould, ad esempio, ha analizzato la funzione del pollice del panda: esso, anatomicamente, non è affatto un dito, ma un osso sesamoide del polso, spinto a servire 'come' pollice (cfr. S. J. Gould, The panda's thumb, W. W. Norton and Co., New York 1980, p. 22, tr. it. Il pollice del panda, Ed. Riuniti, Roma 1984).

[42] D. C, Dennett, L'atteggiamento intenzionale, cit., pp. 448-449.

Pubblicazione del prof. Matteo Fini e della prof. Paola Milani

Successivo: Origine e sviluppo dell'IA.

Sommario: Index