PhármacoLόgos

Il problema della coscienza e il naturalismo biologico di John Searle

Generated with Dall-e
Autore: Alfredo Vannacci

È possibile definire cosa sia la coscienza?

John Searle ritiene che non sia un’impresa semplice e infatti ce la descrive con una perifrasi:

“quegli stati soggettivi di sensibilità o consapevolezza che iniziano quando ci si sveglia al mattino da un sonno senza sogni e continuano per tutto il giorno fino a quando non si va a dormire di notte, o si cade in coma, o si muore”.

(J. Searle, 2002; p. 7)

Esistono vari punti di vista su come ci si debba approcciare alla coscienza, e tutti hanno al loro centro il cosiddetto ‘problema mente-corpo’, cioè quale sia la relazione tra il mentale ed il fisico (modernamente, il cervello) e come sia possibile una interazione tra queste due entità.

L’elemento fondamentale che caratterizza il pensiero di Searle in questo frangente è che la coscienza sarebbe un fenomeno biologico al quale dobbiamo pensare come a una parte della nostra biologia ordinaria, insieme a digestione, crescita, mitosi, meiosi, etc…

Per questa ragione la sua posizione è detta naturalismo biologico ed ha la caratteristica di porsi in alternativa sia al dualismo, sia al materialismo:

  • in opposizione all’approccio dei dualisti, Searle propone infatti di abbandonare in toto la distinzione tra mentale e corporeo, sia che si consideri sostanziale o legata alle proprietà[1];
  • d’altra parte, anche se egli riconosce come alcuni fisicalisti che la mente in qualche senso possa ‘emergere’ dalla attività neurobiologica del cervello, non accetta tuttavia che si identifichi con questa.

 

Da questa posizione deriva anche il modello di mente che Searle propone e che si pone in netta contrapposizione soprattutto con due dei punti di vista più diffusi: quello comportamentista e quello funzionalista/computazionale. Secondo le teorie di Watson e Skinner, padri del comportamentismo, la psicologia può essere considerata una scienza solo nella misura in cui si occupa di qualcosa che è pubblicamente osservabile, cioè il comportamento. Essendo basato su un sistema di apprendimento legato alla relazione stimolo-risposta e su meccanismi di rinforzi o punizioni, secondo il comportamentismo si può avere accesso al contenuto mentale soltanto facendo riferimento all’agire manifesto di un soggetto (Lavazza, 2015; p. 109-115).

Una posizione analoga è quella sostenuta dagli approcci computazionali alla coscienza, inquadrati nell’ambito della teoria detta funzionalismo, che si può fare risalire in prima battuta a Hilary Putnam. Secondo questo modello gli stati mentali sono stati interni dell’individuo che correlano gli input con gli output tramite uno schema interno che corrisponde in ultima analisi alla descrizione funzionale di quel sistema.

Ciò che conta per avere un contenuto mentale è che il sistema correli correttamente input ed output, senza particolare riguardo per come il sistema sia effettivamente costituito (concetto richiamato anche dallo slogan “matter doesn’t matter”) (Jaworski, 2011; p136, 142).

Searle sostiene però che il corretto comportamento ed il corretto abbinamento di input ed output non siano sufficienti: un sistema potrebbe infatti comportarsi “come se” avesse una coscienza, ma senza in realtà averla. In particolare, i modelli computazionali sono definiti soltanto sintatticamente, in termini di manipolazione dei simboli, e la sintassi da sola non può essere sufficiente a generare il tipo di contenuti mentali che tipicamente vengono associati alla coscienza (J. Searle, 2002; p. 16-17).

Analizziamo a questo proposito l’argomento della Stanza Cinese, formulato per la prima volta da Searle nel 1980 nel suo articolo “Minds, brains, and programs”(Searle, 1980) diretto in particolare contro l’approccio funzionalista computazionale e contro la possibilità di una Intelligenza Artificiale di tipo Forte[2]. Vediamo come lo riassume l’autore nel 1999 per la MIT Encyclopedia of the Cognitive Sciences:

Immaginiamo che un madrelingua inglese che non conosce il cinese sia chiuso in una stanza piena di scatole di simboli cinesi (database) insieme con un libro di istruzioni per manipolare i simboli (programma). Immaginiamo che le persone fuori dalla stanza inviino dei simboli cinesi che, senza che la persona nella stanza lo sappia, sono domande in cinese (l’input). Immaginiamo ora che seguendo le istruzioni nel programma l’uomo nella stanza sia in grado di restituire dei simboli cinesi che sono risposte corrette alle domande (l’output).
Il programma consente alla persona nella stanza di passare in questo modo il test di Turing[3] per capire il cinese ma in realtà non lo rende in grado di capire una sola parola di cinese.

(J. Searle, 1999; p. 115-116)

Il nucleo dell’argomento di Searle sta nell’ultima frase: il protagonista dell’esperimento mentale, pur avendo risposto correttamente alle domande in cinese, non ha compreso il significato di ciò che stava inviando. Probabilmente durante l’interazione non ha compreso neanche che si trattasse di domande, ha semplicemente inviato dei simboli in output dopo aver ricevuto altri simboli in input, seguendo delle istruzioni di tipo sintattico.

Secondo Searle è questo che al massimo si può attribuire ad una Intelligenza Artificiale (o ad una mente considerata in base ad un approccio comportamentista/funzionalista): poter espletare l’aspetto sintattico del linguaggio, ma mancandone completamente l’aspetto semantico. Il senso ultimo dell’argomento della Stanza Cinese è quello di negare che sia sufficiente una computazione formale di simboli (sintassi) per espletare una attività mentale e produrre del pensiero. In senso più generale Searle sta anche affermando che non è possibile ottenere un contenuto semantico, un significato, partendo solo da un contenuto sintattico (Cole, 2020; p. 43-45).

Le risposte a questo argomento sono state numerose, alcune già discusse in appendice all’articolo del 1980, altre emerse negli anni successivi. Ne citiamo due delle più frequenti: la risposta dei Sistemi (Systems reply) e la risposta della Mente Virtuale (Virtual Mind reply).

  • Secondo la Systems reply è corretto ammettere che l’uomo nella stanza non capisca il cinese, ma l’uomo non è che una parte di un sistema più grande necessario per rispondere alle domande cinesi; è come se fosse l’unità di elaborazione centrale, la CPU di un computer, non il computer nella sua interezza. Quindi mentre l’uomo che esegue il programma non capisce il cinese, il sistema nel suo complesso potrebbe farlo.
  • La Virtual Mind reply è una evoluzione del medesimo concetto, in cui si sottolinea che la cosa fondamentale nell’esperimento non è che sia l’uomo a comprendere il cinese (cosa che è esclusa), quanto piuttosto che si sia creata una qualche comprensione, da parte di una qualche entità appunto ‘virtuale’ che non si identifica né con l’individuo, né con il sistema nella sua interezza.

Negli anni successivi alla formulazione di questo esperimento mentale anti-comportamentista/anti-funzionalista, Searle ha ulteriormente rivisto alcuni aspetti della sua teoria della coscienza, introducendo i concetti di soggettivismo/oggettivismo epistemologico/ontologico (Searle, 2002). In questo contesto teorico egli ha anche individuato le principali caratteristiche degli stati di coscienza, che si propone di spiegare con la sua teoria: la qualitatività, la soggettività, l’unità, l’intenzionalità, la distinzione tra centro e periferia, la struttura gestaltica, l’attività/passività, la familiarità, l’umore e il senso dell’io (J. Searle, 2007; p. 121-131).

Per motivi di spazio ci soffermeremo soltanto sulla soggettività, e molto brevemente sulla qualitatività, cominciando da quest’ultima.

La qualitatività rappresenta una caratteristica fondamentale degli stati di coscienza; Searle la definisce letteralmente così: “there is something that it’s like or something that it feels like to be in a certain conscious state”[4] ovvero “c’è qualcosa che è ‘come se’ o qualcosa che ‘fa l’effetto di’ essere in un certo stato di coscienza”(J. Searle, 2002; p. 8). Come nel caso della definizione di coscienza vista in apertura, anche questa è necessariamente generica. Lo stesso punto può essere anche descritto dicendo che gli stati di coscienza hanno caratteri qualitativi specifici, talvolta definiti ‘qualia’. A questo proposito Searle fa anche presente come non si debba pensare che alcuni stati di coscienza abbiano dei qualia (siano cioè qualitativi, ad esempio un dolore o un sapore) mentre altri non li abbiano e siano puramente quantitativi. Anche gli stati più che mai quantitativi, tipo l’esecuzione di operazioni matematiche, possono essere pensati ad esempio in lingue diverse e possiedono quindi quella nuance qualitativa che è tipica di ogni stato di coscienza (J. Searle, 2007; p. 121-122).

È necessario poi fare riferimento al concetto di soggettività (e quindi anche a quello di oggettività) in senso epistemico ed in senso ontologico. Per dirlo con le stesse parole di Searle (J. Searle & Floridi, 2016; min 10-13 ca), l’aspetto epistemico riguarda stati di cose o credenze: ci sono affermazioni che si possono fare che possono essere verificate oggettivamente (es. “Edvard Munch è stato un pittore norvegese”) e altre che invece ricadono nella sfera della soggettività (es. “Edvard Munch è stato il più grande pittore norvegese).

L’aspetto ontologico riguarda invece la differenza tra le entità che sono ciò che sono indipendentemente dalla presenza di un osservatore (oggettive o observer-independent) e quelle che sono ciò che sono ciò che sono in relazione alle credenze di un osservatore (soggettive o observer-relative) (es. il denaro: una banconota da 5€ è oggettivamente un foglio di carta colorata sulle sfumature del verde, ma ha un valore di 5€ soltanto in relazione alle credenze del soggetto, in questo caso condivise con la società).

Partendo da queste basi, ed invitando a non confondere l’oggettività epistemica dell’indagine scientifica con l’oggettività ontologica tipica delle discipline come la fisica e chimica, Searle ci invita a cercare un resoconto epistemicamente oggettivo della realtà ontologicamente soggettiva degli stati soggettivi di coscienza (J. Searle, 2002; p. 11).

Secondo questa prospettiva la coscienza ha quindi quella che Searle chiama una “ontologia di prima persona”, cioè un modo soggettivo di esistenza, che la rende differente da tutto il resto di ciò che esiste (dal microscopico al macroscopico) che invece ha un modo oggettivo di esistenza. Questa concezione privata dei fenomeni mentali è collegata a quella che viene definita ‘autorità di prima persona’: ognuno di noi ha cioè un accesso privilegiato ai propri stati mentali, che rappresentano un dominio chiuso di esperienza privata[5].

Per chiudere il cerchio con il suo naturalismo biologico e contro ogni dualismo e fisicalismo, Searle sottolinea infine che la soggettività ontologica dell’oggetto di studio non preclude la possibilità di una scienza epistemicamente oggettiva che lo indaghi (Searle, 2007). E questo è in definitiva il ruolo delle neuroscienze: cercare una spiegazione scientifica oggettiva delle sensazioni soggettive delle persone.

Secondo la visione tipica dell’autore, gli stati coscienti sono infatti causati da processi neurobiologici del cervello di livello inferiore e sono essi stessi caratteristiche di livello superiore del medesimo sistema. Il primo passo nella soluzione del problema mente-corpo sarebbe quindi proprio riconoscere che i processi cerebrali causano i processi della coscienza, ma questi processi coscienti non sono qualche sostanza o entità in più (J. Searle, 2002; p. 9). Si tratta solo una caratteristica di livello superiore dell’intero sistema (come la digestione è una funzione di livello superiore della secrezione di idrogenioni e pepsina nello stomaco o la diuresi è una funzione di livello superiore della secrezione o riassorbimento del sodio nei tubuli renali, e così via…).

La relazione cruciale tra coscienza e cervello può essere per Searle quindi riassunta così: processi neuronali di livello inferiore nel cervello causano la coscienza, che è semplicemente una funzione di livello superiore, prodotta nel suo insieme dal sistema costituito dagli elementi neuronali di livello inferiore. La sfida attuale delle neuroscienze sarebbe per Searle quella di spiegare come il sistema cervello riesce a produrre coscienza e descrivere gli specifici meccanismi neurobiologici attraverso i quali questo meccanismo si realizza (J. Searle, 2002; p. 10).

Tuttavia, alla conclusione di questo excursus, non risulta del tutto chiaro se in questo modello i processi mentali posseggano o meno poteri causali; se si tratti cioè di un modello epifenomenista o più prettamente emergentista, anche considerando che la distinzione proposta tra processi cerebrali e processi mentali ricorda quel dualismo delle proprietà che Searle apparentemente rifiuta.

 

Un ringraziamento a Valentina Savojardo e Francesco Orilia per la discussione degli argomenti qui trattati.

 

Bibliografia

Cole, D. (2020). The Chinese Room Argument. Stanford Encyclopedia of Philosophy, 1–73. https://plato.stanford.edu/archives/win2020/entries/chinese-room/fromtheWinter2020Editionofthehttp://plato.stanford.edu/board.html

Floridi, L., & Chiriatti, M. (2020). GPT-3: Its Nature, Scope, Limits, and Consequences. Minds and Machines, 30, 681–694. https://doi.org/10.1007/s11023-020-09548-1

Floridi, L., Taddeo, M., & Turilli, M. (2009). Turing’s Imitation Game: Still an Impossible Challenge for All Machines and Some Judges-An Evaluation of the 2008 Loebner Contest. Minds and Machines, 19, 145–150. https://doi.org/10.1007/s11023-008-9130-6

Jaworski, William. (2011). Philosophy of mind: a comprehensive introduction. Wiley-Blackwell.

Lavazza, A. (2015). Filosofia della mente. La Scuola.

Nagel, T. (1974). What Is It Like to Be a Bat? The Philosophical Review, 83(4), 435–450.

Oppy, G., & Dowe, D. (2021). The Turing Test. Stanford Encyclopedia of Philosophy. https://leibniz.stanford.edu/friends/info/copyright/

Searle, J. (1980). Minds, brains, and programs. The Behavioral and Brain Sciences, 3, 417–457.

Searle, J. (1999). The Chinese Room. In R. A. Wilson & F. C. Keil (Eds.), The MIT Encyclopedia of the Cognitive Sciences (Vol. 1, pp. 115–116). MT Press.

Searle, J. (2002). The Problem of Consciousness. In Consciousness and Language (pp. 7–17). Cambridge University Press. https://doi.org/10.1017/CBO9780511606366.002

Searle, J. (2007). La mente. Raffaello Cortina.

Searle, J., & Floridi, L. (2016, October 22). A Discussion of Artificial Intelligence with John Searle and Luciano Floridi. Fritt Ord Foundation & The New York Review of Books Foundation. https://www.youtube.com/watch?v=b6o_7HeowY8

Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460. https://academic.oup.com/mind/article/LIX/236/433/986238

 

[1] Secondo il dualismo delle sostanze, con un approccio che si può far risalire direttamente a Cartesio, se non a Platone, mentale e materiale sono due sostanze differenti: ciò che noi siamo è essenzialmente il mentale (che non ha proprietà fisiche), mentre i corpi sono puramente fisici e non hanno proprietà mentali (Jaworski, 2011; p. 34). Secondo il dualismo delle proprietà (detto anche ‘non cartesiano’ o teoria del doppio attributo), che può essere in un certo senso fatto risalire a Spinoza, non sono le sostanze ad essere molteplici, ma i modi con cui l’unica sostanza si manifesta: avremmo dunque un monismo ontologico unito a un dualismo gnoseologico (Lavazza, 2015; p. 93).

[2] Searle distingue due tipi di Intelligenza Artificiale (AI): di tipo Forte (Strong AI) e di tipo Debole (Weak AI). La Strong AI è la visione secondo cui un computer adeguatamente programmato può comprendere la semantica del linguaggio e a tutti gli effetti essere una mente. La Weak AI invece ritiene che i programmi possano essere utili per lo studio della mente, in psicologia, linguistica o altre aree, ma al massimo possono simulare di avere una mente. Gli argomenti di Searle sono rivolti sostanzialmente contro la visione Forte di AI (Cole, 2020).

[3] Con “test di Turing” si fa riferimento ad una specie di gioco inventato da Alan Turing nel 1950, da lui chiamato “the imitation game”(Turing, 1950), e basato in estrema sintesi sulla possibilità che una macchina intelligente possa reggere una conversazione con un essere umano, senza che quest’ultimo si renda conto di star parlando con una macchina. Il test di Turing è stato fortemente criticato da Searle e da molti altri e, sebbene sia stato ampiamente modificato negli anni per adeguarlo agli sviluppi della tecnologia (Oppy & Dowe, 2021), nessun software di intelligenza artificiale è al momento considerato neanche vicino a superarlo (Floridi et al., 2009; Floridi & Chiriatti, 2020).

[4] Questa definizione richiama certamente quella più famosa di Thomas Nagel che nel 1974 si chiedeva “che effetto fa essere un pipistrello”? (Nagel, 1974)

[5] Ciò si collega anche a un aspetto del cosiddetto ‘problema delle altre menti’, in quanto non avendo accesso diretto se non alla nostra mente, ci è solo possibile inferire cosa pensano gli altri sulla base del loro comportamento: l’accesso alla mente degli altri è cioè indiretto e inferenziale, mentre l’accesso alla nostra mente è diretto e non inferenziale (Jaworski, 2011; p. 26-28).

 

Taggato

Informazioni su Alfredo Vannacci