Un farmaco per l’intelligenza

Un farmaco per l’intelligenza

“[…] la scrittura avrà per effetto di produrre la dimenticanza nelle anime di coloro che la impareranno, perché, fidandosi della scrittura, si abitueranno a ricordare dal di fuori mediante segni estranei, e non dal di dentro e da se medesimi […]”

Platone, Fedro [275 A] [1]

Il dio della scrittura

Il dio Toth, Theuth per i greci, era una delle molte e complesse divinità del pantheon egizio. Spesso raffigurato come un babbuino o come un uomo con la testa di ibis, l’uccello a lui sacro, Theuth era venerato come il dio della scrittura, della saggezza e della conoscenza; era anche considerato l’inventore della scrittura e dei geroglifici.

Platone ce lo presenta nel Fedro, introducendone il mito nel contesto di una discussione più ampia sull’arte della retorica, sulla natura dell’anima e sulla scrittura come strumento di memoria. Per bocca di Socrate, Platone ci racconta l’incontro tra il dio ed il faraone Thamus, con Theuth che illustra al re tutte le sue invenzioni e ne espone i benefici per il popolo egizio [1].

“A quel che si narra, molte furono le cose che, su ciascun’arte, Thamus disse a Theuth in biasimo o in lode, e per esporle sarebbe necessario un lungo discorso. Ma quando si giunse alla scrittura, Theuth disse: «Questa conoscenza, o re, renderà gli Egiziani più sapienti e più capaci di ricordare, perché con essa si è ritrovato il farmaco della memoria e della sapienza».”Platone, Fedro [275 A] [1]

Tuttavia, Thamus non condivide l’ottimismo del dio sulla effettiva utilità di questa scoperta e, con un rovesciamento dialettico, ci spiega che la memoria promessa dalla scrittura si tramuterà al contrario in dimenticanza:

“[…] Ora tu, essendo padre della scrittura, per affetto hai detto proprio il contrario di quello che essa vale. Infatti, la scoperta della scrittura avrà per effetto di produrre la dimenticanza nelle anime di coloro che la impareranno, perché, fidandosi della scrittura, si abitueranno a ricordare dal di fuori mediante segni estranei, e non dal di dentro e da se medesimi: dunque, tu hai trovato non il farmaco della memoria, ma del richiamare alla memoria. […]».”Platone, Fedro [275 A] [1]

Successivamente Socrate commenta il mito sottolineandone alcuni aspetti, così riassunti da Migliori: lo scritto non offre il vero sapere, ma solo l’apparenza; serve solo per richiamare alla memoria di chi già sa; i lettori, ricchi di nozioni, si crederanno dotti, ma in realtà non sapranno nulla. Inoltre, come accade a un dipinto, la scrittura sembra viva, ma non lo è in quanto è incapace di rispondere alle domande; se interrogata ripete sempre la stessa cosa, perché non sa difendersi da sola ma ha bisogno del soccorso del padre [2].

Anche se la bocciatura della scrittura non è totale (pur nuocendo alla memoria, è ammessa la sua funzione come ‘farmaco del ricordare’), la posizione di Platone è chiara: questa nuova tecnologia fa molte promesse, ma in realtà offre ben poco di utile e presenta numerosi rischi.

 

Farmaco o veleno?

Come è noto, nella lingua greca il termine φαρμάκων significava sia farmaco in senso proprio (medicamento, cura) sia veleno[1]; su questo doppio significato gioca anche Derrida nel suo testo “La Pharmacie de Platon”: in particolare, più che individuare una polisemia del termine, Derrida argomenta che questa ambivalenza è intrinseca alla natura stessa della scrittura. La scrittura, come ogni φαρμάκων, non può essere ridotta a una semplice opposizione semantica tra poli divergenti, ma è sempre, in ogni circostanza, sia un rimedio, sia un veleno [3]. Lasciando perdere in questa sede l’obiettivo decostruttivo e anti-logocentrico di Derrida, la sua riflessione ci aiuta a individuare nel mito platonico di Theuth un parallelo sorprendentemente attuale con la recente emergenza dell’Intelligenza Artificiale.

Il concetto di Intelligenza Artificiale (Artificial Intelligence, AI) ha avuto origine negli Stati Uniti a metà del secolo scorso, quando un manipolo di ricercatori iniziò ad esplorare la possibilità di creare macchine capaci di simulare l’intelligenza umana. Nel 1950, il britannico Alan Turing pubblicò un articolo fondamentale intitolato “Computing Machinery and Intelligence” nel quale pose la celebre domanda “è possibile per le macchine pensare?” [4]. In questo lavoro egli propose quello che da allora è noto come il “test di Turing”: una macchina può essere considerata intelligente se può convincere un valutatore umano di essere umana attraverso una conversazione scritta [5]. Dal 1950 al 2024, nessun tipo di AI si era neanche lontanamente avvicinata a superare questo test.

Nonostante il grande entusiasmo suscitato negli ambienti scientifici, per tutto il resto del secolo scorso l’AI è rimasta una disciplina di nicchia, utilizzata in contesti limitati e per situazioni molto particolari. È stato a partire dagli anni 2010 che l’AI ha sperimentato un vero e proprio boom grazie ai progressi nel machine learning[2], all’aumento della potenza computazionale e alla disponibilità di grandi quantità di dati per l’addestramento [7]. Ciò ha consentito di estendere la sua applicazione a vari ambiti sociali ed economici; ad esempio, tecnologie come Siri di Apple e Google Voice Search hanno utilizzato reti neurali di AI per migliorare la precisione nell’elaborazione delle richieste vocali; la visione artificiale ha consentito progressi nel riconoscimento facciale e nella classificazione delle immagini, con implicazioni significative per i sistemi di sicurezza o di guida autonoma; i sistemi di raccomandazione hanno personalizzato l’esperienza dell’utente di portali e servizi di streaming analizzando comportamenti e preferenze; infine, più recentemente, il deep learning[3] ha facilitato la diagnosi in ambito medico grazie all’analisi semiautomatica delle immagini radiologiche.

Molti settori hanno dunque beneficiato degli avanzamenti della AI, anche se questa è rimasta sempre in un certo senso ‘dietro le quinte’: l’utente si rendeva conto che Netflix o Amazon erano diventati in grado di consigliargli serie o libri di suo gradimento basandosi sullo storico dei suoi comportamenti, o che Siri era (più o meno) in grado di rispondere alle sue richieste relative all’uso di un iPhone, ma non aveva realmente idea di cosa ciò significasse, né che queste procedure si basassero su una cosa chiamata “Intelligenza Artificiale”.

Il panorama è però radicalmente cambiato nei primi anni 2020, con l’arrivo al grande pubblico della cosiddetta Intelligenza Artificiale Generativa, un tipo di AI che utilizza modelli informatici per generare contenuti originali, come testo, immagini, musica o video, basandosi su enormi archivi di dati esistenti. Il motore di questa rivoluzione è stato senza dubbio ChatGPT, un modello di linguaggio sviluppato da OpenAI, basato sulla famiglia di modelli GPT (Generative Pre-trained Transformer), la cui prima versione (GPT-1) è stata introdotta nel 2018, seguita nel 2019 da GPT-2 e nel 2020 da GPT-3, un modello molto più grande e potente dei precedenti, che ha nettamente migliorato la qualità delle risposte e la comprensione del contesto [9].

In una data ormai storica, il 30 Novembre 2022, OpenAI ha rilasciato per l’uso pubblico ChatGPT, una versione di GPT-3 ottimizzata per conversazioni e assistenza virtuale; meno di un anno e mezzo più tardi possiamo dire che questa è stata la prima volta in cui l’utente finale si è reso conto di poter effettivamente porre delle domande a una macchina e ottenere delle risposte che sembrano fornite da un essere umano. Forse ChatGPT non supererà ancora pienamente il test di Turing [10], ma il passo avanti rispetto ai precedenti modelli e a qualunque interazione uomo-macchina a cui avevamo fino ad allora assistito è stato sicuramente impressionante [4].

Da allora, molte start-up nonché tutti i colossi dell’IT si sono gettati nel settore dell’AI ed al momento sono disponibili numerosi chatbot dalle performance eccellenti: ChatGPT è giunto alla versione 4-o ed è stato affiancato da numerosi altri competitor, come Gemini di Google (ex-Bard), Claude di Anthropic, Grok di X o Llama di Meta.

Anche se il pantheon è cambiato e non è più un dio con la testa di ibis a proporci una nuova tecnologia in grado di estendere le capacità umane, proprio come succedeva con la scrittura ai tempi di Thamos, l’Intelligenza Artificiale ci promette di migliorare l’efficienza delle nostre azioni, ottimizzare i processi della nostra vita quotidiana e risolvere problemi di ogni genere.

L’Intelligenza Artificiale è dunque il φαρμάκων che ci viene portato in dono oggi, non più solo per la nostra memoria, ma per la nostra intelligenza in generale. Come ai tempi di Platone però, questo dono porta con sé una serie di promesse che potrebbero rivelarsi ingiustificate; andiamo a analizzarle.

 

Cos’è l’Intelligenza Artificiale?

Not until a machine can write a sonnet or compose a concerto because of thoughts and emotions felt, and not by the chance fall of symbols, could we agree that machine equals brain – that is, not only write it but know that it had written it.

Geoffrey Jefferson, The Mind of Mechanical Man, 1949 [13]

Innanzitutto, se c’è una cosa che non si può attribuire alla AI è proprio l’intelligenza.

Anche se è molto difficile stabilire con certezza cosa sia l’intelligenza umana, allo stato attuale si tende a definirla come un insieme integrato di abilità cognitive, tra cui spiccano la capacità di ragionare, risolvere problemi, pianificare, pensare in modo astratto, comprendere idee complesse e apprendere in maniera relativamente rapida dall’esperienza [14].

Nel corso dell’ultimo secolo si sono alternate molte teorie intorno a cosa sia l’intelligenza e a come essa sia organizzata. C’è chi come Spearman all’inizio del ‘900 ha sostenuto che l’intelligenza umana sia costituita da una capacità generale (fattore g) che influenza la performance in una vasta gamma di compiti cognitivi, affiancata da abilità specifiche (fattori s) che riguardano competenze particolari, come la matematica o le abilità verbali [15]. E c’è chi come Gardner ha proposto una teoria basata su un network di intelligenze multiple, identificandone almeno otto tipi distinti: linguistica, logico-matematica, spaziale, musicale, corporeo-cinestetica, interpersonale, intrapersonale e naturalistica [16].

Le neuroscienze attuali tendono a supportare maggiormente una teoria simile a quella di Spearman, suggerendo che l’intelligenza sia una funzione distribuita in un network di diverse aree del cervello, senza che nessuna funzione possa essere precisamente localizzata in una determinata zona. Diversi studi di neuroimaging hanno infatti mostrato come le abilità cognitive identificate da Gardner come intelligenze multiple possono essere in realtà meglio spiegate come funzioni cognitive interconnesse, cioè fattori specifici collegati ad una intelligenza generale che li coordina, piuttosto che come intelligenze separate e indipendenti [17].

In ogni caso, qualunque sia la definizione corretta di intelligenza umana, l’AI non possiede niente di simile. Quella che oggi chiamiamo “Intelligenza Artificiale Generativa” è infatti basata sui cosiddetti modelli di linguaggio di grandi dimensioni (Large Language Models, LLM): modelli informatici addestrati su enormi quantità di testo, che possono includere libri, articoli, pagine web e altre fonti. Durante l’addestramento, il modello apprende le statistiche di co-occorrenza delle parole, cioè quali parole tendono a comparire insieme e in quali contesti. Quando li interroghiamo o chattiamo con loro, gli LLM rispondono prevedendo la parola successiva in termini di probabilità, sulla base di quanto l’associazione era rappresentata nei modelli su cui sono stati addestrati [5].

In poche parole, gli LLM eccellono nel riconoscere e replicare la struttura grammaticale e sintattica del linguaggio e possono generare frasi che sono corrette e coerenti perché riescono a ‘indovinare’ in termini probabilistici le regole di come le parole e le frasi vengono costruite da un essere umano quando si esprime in linguaggio naturale. Ciò che ci dà l’impressione di stare veramente parlando con un nostro simile è che le parole e le frasi non sono solo accostate seguendo le regole sintattiche della nostra lingua, ma anche seguendo le ‘regole implicite’ che usiamo parlando il linguaggio naturale: come accostiamo i concetti, le espressioni, come introduciamo i discorsi, tutte procedure che per noi hanno un senso preciso e derivano da un ragionamento mentale, ma che gli LLM riescono a imitare seguendo un processo statistico induttivo di deep learning, che non ha niente a che vedere con come pensiamo noi.

Per un fenomeno cognitivo di rispecchiamento, se la macchina ci dà una risposta che è coerente con quanto ci aspetteremmo da un essere umano, allora ci viene da pensare che dietro ci sia un ragionamento simile a quello che seguirebbe un essere umano per generarla.

Per questo tendiamo a pensare che siano ‘intelligenti’.

Ma non è così.

Gli LLM non comprendono il significato delle parole e delle frasi che generano e non le generano nello stesso modo in cui lo fanno gli esseri umani. Non hanno e non possono avere alcuna reale comprensione delle domande che facciamo loro, né delle informazioni che stanno elaborando per risponderci; non possono accedere al registro semantico delle parole, ma solo metterle una accanto all’altra in un modo tale che è in grado di imitare (ad oggi molto bene) il nostro linguaggio.

In maniera molto lungimirante, Alan Turing aveva descritto l’AI come un ‘imitation game’ ed in fondo possiamo dire che è sempre così [19]. L’importante differenza è che i modelli contemporanei sono diventati infinitamente più bravi a fare questo gioco di imitazione, al punto da riuscire quasi a superare il test che Turing aveva ideato. Tuttavia, da quanto abbiamo detto è chiaro che ormai ‘superare il test’ non significa affatto che la macchina sia effettivamente intelligente, ma solo che riesce a dare agli interlocutori l’impressione di esserlo [12]: siamo certamente giunti al punto in cui superare il test di Turing deve essere considerata condizione necessaria ma non sufficiente per la definizione di intelligenza.

In quest’ottica, rimane senz’altro valida la posizione citata in apertura di Geoffrey Jefferson sul British Medical Journal nel 1949 che fa eco a uno dei Pensieri di Pascal:

Tutti i corpi, il firmamento, le stelle, la terra e i suoi regni non valgono il minimo degli spiriti; perché questo conosce tutto ciò e se stesso; e i corpi, nulla. Pascal – Pensieri [20]

 

Le (false) promesse di un dio moderno

Come ai tempi di Platone, al centro di molte discussioni sulla AI c’è il concetto di ‘promessa’, sia in senso positivo che negativo: la tecnologia viene spesso presentata come ‘promettente’ [7] oppure ne vengono sottolineate le promesse non mantenute, o addirittura, come sottolineava Noam Chomsky sul New York Times lo scorso anno, le ‘false promesse’ [21]. Come la scrittura per Thamos, ogni tecnologia ci viene oggi presentata carica di aspettative, molte delle quali sono quantomeno ottimiste, se non addirittura fantasiose. Chomsky in particolare si è espresso in modo molto critico (forse fin troppo) sulle promesse delle AI; oltre alla già discussa impossibilità dei sistemi LLM di comprendere il significato del testo, l’illustre linguista affronta altri due punti fondamentali:

  1. Incapacità di spiegazione causale: i modelli di AI possono descrivere e prevedere, ma non sono in grado di fornire spiegazioni causali, non possono cioè dirci ‘il perché’ che sta dietro agli eventi.
  2. Mancanza di ragionamento morale: le AI non possiedono la capacità di ragionare moralmente o di comprendere i principi etici e questo le rende incapaci di prendere decisioni eticamente informate e di evitare contenuti inappropriati.

Si tratta sicuramente di due osservazioni condivisibili, anche se, per come abbiamo detto essere strutturate le AI, a questo punto dovrebbe essere chiaro che si tratta di promesse che nessun sistema informatico oggi potrebbe mai mantenere.

Per quanto riguarda il primo punto, è ovvio che i motori LLM non sono creativi e non possono esserlo. Il loro comportamento si basa solo sull’imitazione di quanto hanno appreso nella fase di addestramento. Le AI non possono creare un’opera d’arte originale e non possono neanche contribuire al progresso scientifico.

Magari possono risolvere un problema in maniera quasi-scientifica, se istruiti su leggi e modelli, oppure copiando dalle soluzioni date da altri a problemi apparentemente simili, ma non hanno e non possono avere un vero ruolo gnoseologico.

Le loro soluzioni non hanno un valore euristico, gli LLM non hanno addirittura alcun reale accesso epistemico al mondo: come una calcolatrice sa fare i calcoli infinitamente meglio di un essere umano, ma non può sapere cosa sia un calcolo o a cosa serva, o quale tipo di problemi possa risolvere (a meno che qualcuno non glielo dica), così non ci possiamo aspettare di dare in pasto ad un LLM un problema formulato in termini scientifici e ottenere in risposta una soluzione scientificamente corretta a cui qualche scienziato non abbia ancora pensato (o non avrebbe potuto farlo, applicando schemi già noti).

La spiegazione causale e la scoperta scientifica non sono funzioni che le AI svolgono e non si prevede che, almeno allo stato attuale di progettazione, possano svolgerlo. Al limite, citando Khun, possono avere un ruolo nel risolvere puzzle in una fase di ‘scienza normale’ [22], ma contribuire all’avanzamento scientifico è fuori discussione: il pensiero laterale, che muove gran parte del progresso scientifico, è fuori dalla portata degli LLM, perché lo è il pensiero stesso.

Per quanto riguarda il secondo punto invece, il ragionamento morale, la questione necessita di maggiore attenzione.

 

Artificial morality?

Ma un giorno, con arte invidiabile scolpì nel bianco avorio una statua, infondendole tale bellezza, che nessuna donna vivente è in grado di vantare; e s’innamorò dell’opera sua. L’aspetto è quello di fanciulla vera, e diresti che è viva, che potrebbe muoversi, se non la frenasse ritrosia: tanta è l’arte che nell’arte si cela. Pigmalione ne è incantato e in cuore brucia di passione per quel corpo simulato. Spesso passa la mano sulla statua per sentire se è carne o avorio, e non vuole ammettere che sia solo avorio. La bacia e immagina che lei lo baci, le parla, l’abbraccia, ha l’impressione che le dita affondino nelle membra che tocca e teme che la pressione lasci lividi sulla carne.

Ovidio, Metamorfosi X, 247-259 [23]

Nel giugno 2022, mentre l’hype sulle AI stava crescendo, ma non era ancora giunto al culmine (ChatGPT sarebbe stato reso pubblico solo 5 mesi dopo), sono usciti sulla stampa internazionale diversi articoli relativi alle esternazioni dell’ingegnere Blake Lemoine (un dipendente di Google, successivamente licenziato) il quale sosteneva che il motore di AI a cui stava lavorando (allora si chiamava LaMDA) fosse diventato senziente ed avesse acquistato comprensione delle emozioni umane e consapevolezza di sé [24].

Google smentì rapidamente queste dichiarazioni, sostenendo che LaMDA era semplicemente un modello linguistico avanzato e che le risposte apparentemente umane che dava erano il risultato di algoritmi progettati per imitare conversazioni naturali. La comunità accademica e gli esperti di intelligenza artificiale chiusero rapidamente la questione e accusarono Lemoine di antropomorfizzare il sistema, attribuendo caratteristiche umane a una macchina che in realtà non poteva possedere alcuna coscienza [25].

In realtà non c’è da stupirsi della tentazione dell’uomo di antropomorfizzare le sue invenzioni, d’altra parte, il topos della creazione umana che prende vita e diventa senziente non è certo nato con l’Intelligenza Artificiale: dalla statua della donna perfetta creata da Pigmalione e resa viva da Venere, al Golem della tradizione ebraica, alla creatura di Frankenstein narrata da Mary Shelley, fino alla moltitudine di esseri senzienti artificiali immaginati dagli scrittori del secolo scorso, molti dei quali sono ormai entrati nell’immaginario collettivo (tra questi vale la pena di ricordare i replicanti di Philip K. Dick e i robot positronici di Isaac Asimov).

Che la stessa cosa succedesse con i motori LLM della AI era solo questione di tempo.

Floridi e Nobre spiegano molto bene le ragioni sottostanti a questa confusione: il meccanismo che sta alla base di molti di questi fraintendimenti e ‘false promesse’ è il fenomeno del ‘prestito concettuale’, secondo cui le nuove discipline scientifiche adottano termini dalle discipline esistenti per sviluppare il proprio vocabolario tecnico. Questo processo è ampiamente diffuso ed è sicuramente utile per colmare le lacune linguistiche iniziali cui va necessariamente incontro una disciplina di recente sviluppo che non può ancora usufruire di un proprio vocabolario tecnico, tuttavia può portare a importanti fraintendimenti quando i termini presi in prestito mantengono le loro connotazioni originarie pur assumendo nuovi significati [26]. Un esempio evidente è quello dell’apprendimento (‘learning’, come in machine learning o deep learning) con cui in AI ci si riferisce allo sviluppo e all’applicazione di algoritmi statistici che migliorano le prestazioni del sistema sulla base dei dati. Tuttavia, questo concetto differisce sostanzialmente dal modo in cui gli esseri umani e gli animali acquisiscono nuove conoscenze o abilità, e potrebbe lasciar intendere che una AI abbia effettivamente ‘appreso’ una nuova funzione in modo simile a come farebbe un uomo [6]. D’altra parte, anche le scienze cognitive e le neuroscienze hanno spesso adottato terminologie tratte dalle scienze informatiche, descrivendo il cervello umano come un sistema di elaborazione delle informazioni simile a un computer. Anche questa riduzione dei processi biologici complessi a semplici operazioni computazionali può creare confusione, portando a una visione impoverita della mente umana, trascurando le sue qualità soggettive ed esperienziali e lasciando intendere che l’intelligenza umana e l’intelligenza artificiale siano molto più simili di quanto in effetti non sono [26].

Quindi possiamo sicuramente affermare che l’Intelligenza Artificiale non è dotata di intelligenza, almeno non in senso umano. Ma potremmo comunque considerarla in qualche modo in grado di agire moralmente?

La prima domanda a cui rispondere è innanzitutto se la AI sia in grado di agire.

In effetti, al punto di sviluppo della tecnologia a cui siamo oggi arrivati, è difficile negarlo: una delle definizioni più accettate di AI è “la capacità di una macchina di eseguire compiti che, se svolti da un essere umano, richiederebbero intelligenza”[7]. Eseguire compiti significa agire nel mondo, sia esso il mondo virtuale interno ad una macchina (il cosiddetto cyberspazio, come era quasi sempre all’inizio della storia della AI), sia esso il mondo esterno, nel quale tradizionalmente agiscono gli esseri umani.

In ogni caso, in riferimento a queste azioni nel mondo, la posizione più semplice sarebbe quella di considerare le AI non come degli agenti, ma come degli strumenti: l’agente sarebbe l’utente della AI (o al limite il programmatore, se il livello di automazione è così alto da non necessitare un utente diretto) ed il software ne sarebbe solo uno strumento. Ciò potrebbe valere anche in senso morale: come un martello può essere usato per piantare chiodi e costruire un rifugio per i senzatetto oppure essere lanciato in testa a qualcuno per ucciderlo, allo stesso modo è possibile usare una AI con finalità umanitarie, oppure per creare insulti razziali o misogini, o anche per lanciare una bomba. È chiaro che in termini morali è responsabile l’uomo che ha dato il via e/o partecipato alla azione, non certo lo strumento utilizzato.

La situazione della AI rispetto agli strumenti a cui siamo abituati è però un po’ diversa ed è ampiamente affrontata nell’ambito dell’approccio noto come Etica dell’Informazione. Uno strumento classico, come un martello o una calcolatrice è un dispositivo che gli esseri umani utilizzano per ampliare le loro capacità fisiche o cognitive nel relazionarsi col mondo. Gli strumenti sono progettati per eseguire compiti specifici sotto il controllo diretto degli esseri umani, ma non influiscono sulla sua autonomia decisionale o sulla sua libertà. Nel testo “The Fourth Revolution” del 2017, Luciano Floridi li identifica come ‘tecnologie di primo ordine’, quando mettono in relazione l’uomo con la natura (come le scarpe, la ruota, o un’ascia), o come ‘tecnologie di secondo ordine’, quando mettono in relazione l’uomo con un altro strumento (ad esempio il cacciavite, che si relaziona con la vite, o le chiavi con la serratura, o un’automobile con la strada) [30]. Le AI (di tipi diversi, non necessariamente gli LLM) sono invece in grado di interfacciarsi direttamente con altre tecnologie, in assenza dell’intervento umano, rappresentando quindi ‘tecnologie di terzo ordine’. Esempi semplici di questo scenario, alcuni già disponibili da anni, sono i sistemi di domotica che regolano autonomamente il riscaldamento di casa interpellando sensori o servizi meteo online, oppure gli smartphone che trasferiscono dati di ogni tipo ai nostri computer, oppure le macchine a guida autonoma che interagiscono con satelliti tramite GPS o con altre macchine per avere informazioni sulle strade meno trafficate o evitare incidenti.

In molte di queste interazioni, l’utente non ha più alcuna funzione attiva: il sistema, una volta messo in moto, interagisce con altri sistemi e modifica da solo il proprio comportamento sulla base dei dati che riceve, senza alcuna necessità di intervento umano.

Definendo come agenti quelle entità che possono agire autonomamente e fare scelte basate su informazioni raccolte dall’ambiente, nel testo “The Ethics of Information” del 2013, Floridi argomenta che le AI devono essere considerate non strumenti, ma un particolare tipo di agenti, ovvero agenti artificiali (artificial agents, AA), cioè software progettati per eseguire compiti e prendere decisioni senza supervisione continua, ed in grado di influenzare l’ambiente [8] in modi simili agli esseri umani [31].

 

Il bufalo, la locomotiva e il girarrosto

Tra bufalo e locomotiva
La differenza salta agli occhi
La locomotiva ha la strada segnata
Il bufalo può scartare di lato e cadere
Francesco De Gregori, Bufalo Bill, 1976

I sistemi di Intelligenza Artificiale, sono dunque dotati di agency (cioè sono capaci di compiere azioni in relativa autonomia), anche se non sono dotati di intelligence: possono interagire con il mondo e modificarlo e possono anche modificare il proprio agire sulla base di un apprendimento autonomo dall’intervento umano (solving agency), anche se non possono capire il mondo e pensare nello stesso modo in cui pensa un essere umano [32].

Ma possono essere considerati agenti morali?

La questione è decisamente più controversa ed anche se Floridi anche in questo caso risponde positivamente, non è facile essere del tutto d’accordo. La sua posizione è efficacemente riassunta da Judith Simon nel contributo “Distributed Epistemic Responsibility in a Hyperconnected Era” per “The Onlife Manifesto” (p.150) del 2015:

[…] qualcosa si qualifica come agente se mostra interattività, autonomia e adattabilità, ovvero né il libero arbitrio né l’intenzionalità sono ritenuti necessari per essere dotati di agency. Un tale concetto di “mindless morality” consente di affrontare l’agency di entità artificiali (come gli algoritmi) così come quella di collettivi di persone, che possono essere considerati entità a sé stanti (come aziende o organizzazioni). Un altro merito di questo approccio risiede nel disgiungere la “moral agency” dalla “moral responsibility”: un’entità non umana può essere considerata responsabile [accountable] se si qualifica come agente, cioè se agisce in modo autonomo, interattivo e adattivo. Tuttavia, non può essere considerata responsabile in senso stretto [responsible, cioè responsabile in senso morale], perché tale responsabilità richiede intenzionalità. Vale a dire che, mentre l’agency e la accountability [responsabilità operativa] non richiedono intenzionalità, la responsibility [responsabilità morale] sì. Pertanto, sembra che gli agenti non umani – fintanto che a) non mostrano intenzionalità e b) sono considerati isolatamente – non possono essere ritenuti [moralmente] responsabili (responsible), anche se sono ritenuti [operativamente] responsabili (accountable) per determinate azioni [33].

Quindi, la differenza tra responsibility e accountability può essere sintetizzata come segue: l’accountability è legata alla capacità di un agente (anche non umano) di essere ritenuto in modo determinante causa delle sue azioni, mentre la responsibility implica un livello di intenzionalità e quindi presuppone coscienza e volontà, attributi che sono ad oggi associati solo ad agenti umani (se ne potrebbe potenzialmente parlare solo nel caso futuristico di agenti autonomi che possedessero autoconsapevolezza e intenzionalità).

 

I punti fondamentali che vengono comunemente sollevati contro questa presunta moralità degli agenti artificiali sono tre:

  • mancanza di intenzionalità: gli AA non possiedono stati mentali, quindi non possono propriamente ‘decidere’ cosa fare;
  • mancanza di teleologia: gli AA non hanno obiettivi propri, per cui non possono agire in direzione di un fine o di valori;
  • mancanza di autonomia e libero arbitrio: gli AA operano seguendo regole prestabilite, non sono liberi, non possono prendere decisioni in autonomia.

La soluzione proposta da Floridi e Sanders non è una risposta a questa domanda, ma semplicemente un cambio delle regole [34]:

  • per quanto riguarda l’intenzionalità, essi sostengono che l’agency richiede interattività, autonomia, adattabilità, ma non necessariamente intenzionalità;
  • la teleologia è in un certo senso presa in prestito: anche se gli AA non hanno obiettivi nel senso umano, possono essere progettati per ottimizzare specifici risultati;
  • l’autonomia infine è sostituita dalla adattabilità: anche se gli AA operano secondo regole e algoritmi prestabiliti, questi permettono loro di prendere decisioni in un certo senso autonome, perché si adattano ai mutamenti di contesto senza l’intervento umano.

 

Tutte le questioni sollevate sono a nostro parere importanti, ma quella che appare essere fondamentale è soprattutto la questione della libertà: esistono naturalmente numerose posizioni metaetiche che differiscono l’una dall’altra nel definire cosa sia giusto o sbagliato e come ciò debba essere stabilito, ma indipendentemente da quale si voglia adottare, risulta assai problematico riconoscere una responsabilità morale in assenza di libertà. Se un agente non è libero di agire, come può essere considerato responsabile delle proprie azioni [9]?

Secondo la visione dell’etica della informazione, anche se le decisioni delle AI non sono basate sul libero arbitrio, dal momento che le conseguenze delle loro azioni richiedono considerazioni etiche, ciò li rende dotati di moral agency. Gli AA dovrebbero quindi essere considerati agenti morali non tanto perché le loro azioni sono intenzionali, orientate verso un obbiettivo, o autonome, ma piuttosto perché possiedono conseguenze etiche significative sul mondo.

Facendo l’esempio di un incidente stradale, un’auto convenzionale non può certo essere ritenuta responsabile dell’accaduto: è il conducente che può essere ritenuto responsabile per colpa o dolo, o al limite il produttore, nel caso in cui sia stato un difetto tecnico a causare l’incidente. Nel caso di un veicolo a guida autonoma però, dal momento che esso agisce in modo interattivo e adattativo senza l’intervento di un essere umano, l’AI che la guida può essere riconosciuta operativamente responsabile (accountable) per un incidente, anche se non può essere ritenuta pienamente responsabile dal punto di vista morale (responsible).

Ma chi è dunque responsabile in senso morale in questo caso, se qualcuno lo è?

L’etica della informazione invita a considerare la rete di agenti coinvolti: il sistema di AI dell’auto, i progettisti del software, gli ingegneri dell’hardware, i legislatori che regolano la tecnologia, e così via. Tutti sono parte di un sistema distribuito che contribuisce all’esito morale dell’azione dell’agente artificiale. Questo suggerisce che la responsabilità morale, in caso di azioni intraprese da AA, potrebbe essere distribuita tra diversi attori e componenti del sistema piuttosto che essere localizzata in un individuo o entità singola [37].

Questo cambio delle regole (o quantomeno del punto di vista) può essere efficace ai fini della discussione sulla agency, ma non modifica il problema di fondo: è certamente lecito attribuire questo tipo di moral agency agli AA, e anche attribuire loro una accountability, per come è stata fin qui definita (se un’auto a guida autonoma senza nessuno a bordo guidata da una AI causa un incidente, l’ha causato effettivamente essa e nessun altro ed è quindi operativamente responsabile – accountable – per ciò che ha fatto), ma se seguiamo fino in fondo il disaccoppiamento tra accountability e responsibility e affermiamo che quest’ultima è in fondo ‘distribuita’ in modo variabile tra gli esseri umani che sono intervenuti nel processo a vario titolo, allora, di fatto, stiamo dicendo che gli AA non sono responsabili in senso convenzionale delle loro azioni e di conseguenza, non sono veri agenti morali.

 

In conclusione, quando parla di moralità degli AA l’etica della informazione non si focalizza sulla intenzionalità o sul loro libero arbitrio, che in fondo nega, quanto piuttosto sul fatto che la loro agency ha conseguenze morali. La moralità starebbe nel fatto che essi agiscono sul mondo nel bene o nel male, non sul fatto che sono liberi di agire e ‘suscettibili di biasimo o di lode’ (come avrebbe detto Aristotele), al punto che la responsabilità ricade (anche in maniera distribuita) sul programmatore o sull’utente.

Per quanti siano i gradi di libertà ‘operativa’ che questo agente artificiale può avere, o il livello di astrazione dal quale consideriamo la questione, la sensazione è che in senso morale ciò non importi un gran che: lo scarto ontologico tra la macchina e l’uomo farà sempre sì che la responsabilità ricada sugli esseri umani moralmente più prossimi all’azione in oggetto, i quali hanno intenzionalità, teleologia, libero arbitrio e sono in ultima analisi suscettibili di biasimo o lode (hanno cioè sia responsibility che accountability).

 

Anche se le loro azioni possono avere conseguenze etiche, gli AA non possono quindi essere considerati moralmente responsabili nel senso pieno del termine. Non basta compiere azioni nel mondo per esserne ritenuti moralmente responsabili, e neanche avere un certo grado di autonomia. La questione non era certamente sfuggita a Kant, che ci presenta una primordiale forma di Agente Artificiale nella celebre similitudine del girarrosto della “Critica della Ragion Pratica”. La sua posizione è stata così riassunta da Alliney:

Kant riteneva insufficiente la libertà psicologica difesa da Leibniz (ovvero la considerazione di un ordine causale intrapsichico parallelo all’ordine causale naturale), giudicando un «meschino ripiego» definire la libertà come ciò «che è fatto con le proprie forze» perché così «non sarebbe niente di meglio della libertà di un girarrosto che, una volta caricato, fa da sé i suoi movimenti». Se si vuole salvare la libertà, conclude Kant, bisogna porre una causalità di ordine diverso da quello naturale, e per questo indipendente dalla sequenza dei necessari eventi naturali che precede l’atto libero. Dunque, l’agente è libero proprio perché «comincia in senso assoluto una nuova serie» causale compiendo un’azione che «avrebbe potuto non fare». In accordo con una secolare tradizione, conclude Kant, la libertà va intesa come «una facoltà di assoluta spontaneità» dotata di una «causalità fisicamente incondizionata», esterna al «meccanismo della necessita naturale» [38].

In accordo con quanto scrive Kant, per definire il ruolo morale di un agente, la centralità dell’atto libero è a nostro parere assai più importante delle conseguenze dell’atto stesso. Vale la pena qui di citare letteralmente quanto scrive Alici:

Come persona morale, l’essere umano non è soltanto in condizione di adattarsi all’ambiente, di interagire con esso e trasformarlo, ma è anche capace di creare un nuovo ambiente, che non è una mera estensione di quello naturale, così come le azioni morali non sono una mera estensione degli eventi naturali [39].

Il tema che emerge dunque (e che manca nella analisi dell’etica della informazione) è quello dello scarto ontologico, di quel “plusvalore pratico che identifica la sporgenza della vita morale rispetto a una vita ridotta in termini naturalistici. Nel bene e nel male, in termini di azioni e di omissioni.”[39] Non può bastare essere in grado di modificare l’ambiente rispondendo in maniera adattativa a degli stimoli per essere considerato un vero agente morale.

Se è vero che ogni epoca storica trova la sua identità più profonda attorno a un certo modo di interpretare il rapporto tra natura e cultura [40], è possibile che di fronte alla innovazione dell’Intelligenza Artificiale ci troviamo di fronte a uno dei tanti esempi di oscillazione non perfettamente congrua tra naturalismo e culturalismo, tipici della nostra epoca. Da un punto di vista prettamente tecnico, gli agenti artificiali sono un prodotto della cultura umana e non fanno certo parte del mondo naturale; tuttavia, la tentazione di attribuire loro una moral agency sulla base delle conseguenze etiche delle loro azioni ricorda molto l’atteggiamento nei confronti del mondo animale tipico di certi paradigmi naturalisti. In questo senso, in quale misura l’errore di un’auto a guida autonoma che esegue scorrettamente il suo programma e investe un bambino sarebbe diverso dai tragici casi di cani da guardia che perdono il controllo e uccidono i figli dei proprietari?

È chiaro che l’agire morale di un essere umano è una cosa completamente diversa, non tanto in termini quantitativi, ma qualitativi, sia dal comportamento di un animale, sia dalla moral agency di un AA intesa alla maniera di Floridi.

Scrive Taylor, citando Frankfurt, che sia gli esseri umani che gli animali hanno desideri cosiddetti di primo ordine, cioè quei moventi che gli consentono di puntare a qualcosa e agire nella direzione opportuna per ottenerlo [41]. Ciò che caratterizza l’agire umano secondo Frankfurt però è possedere anche desideri di secondo ordine, cioè quelli il cui oggetto è un desiderio di primo ordine. Taylor aggiunge ulteriore profondità a questa visione sostenendo che peculiare della human agency è la capacità di giudicare i propri desideri e di considerarne alcuni come desiderabili e altri come indesiderabili, introducendo il concetto di “strong evaluation”: una capacità di auto-interpretazione e valutazione morale che non è meramente un esercizio di calcolo delle conseguenze, ma un impegno a valutare qualitativamente i desideri e le azioni in termini di valori morali più elevati [42].

Sulla base di questa visione, in cui la teleologia rientra nel quadro morale in maniera molto importante, attribuire moral agency agli agenti artificiali (o anche agli animali), senza considerare la dimensione qualitativa e interpretativa tipica della human agency, significa fraintendere la natura della moralità e della responsabilità, o quantomeno volerla profondamente ridefinire.

Gli esseri morali non sono solo agenti che reagiscono agli stimoli, ma sono esseri capaci di riflessione profonda, auto-interpretazione e valutazione di sé stessi in relazione a valori. Da questo punto di vista quindi, l’Intelligenza Artificiale e tutti gli AA, non solo non sono propriamente considerabili agenti morali, ma, non appartenendo neanche al mondo naturale, sono alla fine più simili al girarrosto di Kant o alla locomotiva di De Gregori, piuttosto che al bufalo, perché non possono neanche decidere di scartare di lato e cadere.

 

Ridimensionare le promesse

Al termine di questa breve disamina, rivestiamo dunque i panni di Thamos e concludiamo il parallelismo tra la scrittura per Platone e l’AI per noi. Cosa possiamo prendere per buono delle promesse di un dio moderno su questa nuova tecnologia? Quali caratteristiche narrateci dal padre “per affetto” dobbiamo invece considerare soltanto “il contrario di quello che essa vale”?

In fondo ogni innovazione tecnologica promette un beneficio, un passo avanti su un particolare aspetto, la memoria nel caso della scrittura, l’intelligenza (o, più propriamente, ciò che con essa si può fare) al giorno d’oggi. Tuttavia, appare chiaro al nostro tempo, come appariva chiaro ai tempi di Platone, che i facili trionfalismi necessitano di essere moderati: come la scrittura ha dimostrato di poter essere grandemente utile, anche se in forma minore e diversa rispetto a quanto prospettato dal dio, anche le tecnologie di AI hanno grandissime potenzialità sul miglioramento della nostra qualità della vita e sulla semplificazione di un gran numero di compiti della nostra quotidianità. Purché non ci si aspetti da loro che svolgano funzioni che non possono svolgere.

Dando ragione alle perplessità di Socrate, a distanza di quasi 2500 anni possiamo dire che la scrittura non è diventata un farmaco per la memoria, ma non è neanche opportuno considerarla un veleno: una volta studiato e compreso, essa può aiutare a richiamare alla mente, ma non può sostituire il processo attivo ed intellettivo dell’uomo di studiare, comprendere (intelligere) e memorizzare.

Allo stesso modo le nuove tecnologie basate sulla Intelligenza Artificiale (anch’esse, come abbiamo visto, “sembrano vive, ma non lo sono”) ci vengono promesse come farmaci per sostituire gli esseri umani in qualche loro funzione, con l’evidente rischio di rivelarsi in realtà veleni, in grado di deprivare l’uomo della funzione in oggetto, uccidendola di fatto come competenza umana. Rischieremmo di nuovo di crederci dotti, ma in realtà non sapere nulla.

Come suggeriva Derrida (e come conferma ogni esperienza della medicina, dai tempi dei Greci ad oggi), ogni φαρμάκων è sempre, in ogni circostanza, sia un rimedio, sia un veleno. L’Intelligenza Artificiale non può e non deve sostituire l’intelligenza umana, così come gli agenti artificiali non possono sostituire gli agenti umani o condividerne i fondamenti di moralità. Ma, come avviene con ogni tecnologia, l’uso appropriato e moderato può essere considerato un farmaco in senso proprio, cioè uno strumento non indirizzato alla sostituzione di una competenza umana, ma alla sua integrazione, al suo rafforzamento, al supporto di funzioni basate sull’intelligenza e sulla moralità, caratteristiche che rimangono (e devono rimanere) comunque inerentemente ed esclusivamente umane.

 

Bibliografia

1       Platone. Tutti gli scritti. 7a ed. Milano: Bompiani 2014.

2       Migliori M. Il disordine ordinato. La filosofia dialettica di Platone. Vol. 1: Dialettica, metafisica e cosmologia. Brescia: Morcelliana 2013.

3       Derrida J. La farmacia di Platone. Jaca Book 1972.

4       Turing AM. Computing Machinery and Intelligence. Mind. 1950;59:433–60.

5       Oppy G, Dowe D. The Turing Test. Stanford Encyclopedia of Philosophy. Published Online First: 2021.

6       Apprendimento automatico. Wikipedia. 2024. https://it.wikipedia.org/w/index.php?title=Apprendimento_automatico&oldid=138273572 (accessed 16 May 2024)

7       Hirsch-Kreinsen H. Artificial intelligence: a “promising technology”. AI & Soc. Published Online First: 18 January 2023. doi: 10.1007/s00146-023-01629-w

8       Cos’è il deep learning? | IBM. 2023. https://www.ibm.com/it-it/topics/deep-learning (accessed 16 May 2024)

9       Marr B. A Short History Of ChatGPT: How We Got To Where We Are Today. Forbes. https://www.forbes.com/sites/bernardmarr/2023/05/19/a-short-history-of-chatgpt-how-we-got-to-where-we-are-today/ (accessed 16 May 2024)

10     De Angelis L, Baglivo F, Arzilli G, et al. ChatGPT and the rise of large language models: the new AI-driven infodemic threat in public health. Front Public Health. 2023;11:1166120.

11     Mei Q, Xie Y, Yuan W, et al. A Turing test of whether AI chatbots are behaviorally similar to humans. Proceedings of the National Academy of Sciences. 2024;121:e2313925121.

12     Jones CR, Bergen BK. People cannot distinguish GPT-4 from a human in a Turing test. 2024. https://doi.org/10.48550/arXiv.2405.08007

13     Jefferson G. The Mind of Mechanical Man. Br Med J. 1949;1:1105–10.

14     Colom R, Karama S, Jung RE, et al. Human intelligence and brain networks. Dialogues Clin Neurosci. 2010;12:489–501.

15     Spearman C. ‘General Intelligence,’ Objectively Determined and Measured.

16     Gardner HE. Frames of Mind: The Theory of Multiple Intelligences. Basic Books 2011. https://books.google.it/books?id=wxj6npSaykgC

17     Deary IJ, Penke L, Johnson W. The neuroscience of human intelligence differences. Nat Rev Neurosci. 2010;11:201–11.

18     Minerva, l’IA italiana al bivio tra Vannacci e Manzoni. il manifesto. 2024. https://ilmanifesto.it/minerva-lia-italiana-al-bivio-tra-vannacci-e-manzoni (accessed 18 May 2024)

19     Floridi L, Taddeo M, Turilli M. Turing’s Imitation Game: Still an Impossible Challenge for All Machines and Some Judges-An Evaluation of the 2008 Loebner Contest. Minds and Machines. 2009;19:145–50.

20     Pascal B. Pensieri. 5. ed. Milano: Bompiani 2012.

21     Chomsky N, Roberts I, Watumull J. Opinion | Noam Chomsky: The False Promise of ChatGPT. The New York Times. 2023. https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html (accessed 18 May 2024)

22     Kuhn TS. The Structure of Scientific Revolutions. Chicago, IL: University of Chicago Press 2012. https://books.google.pt/books/about/The_Structure_of_Scientific_Revolutions.html?id=3eP5Y_OOuzwC&source=kp_cover&redir_esc=y (accessed 4 February 2020)

23     Publio Ovidio Nasone. Metamorfosi. Garzanti classici 2013. https://books.google.al/books?id=zw_f_c0vY8cC

24     The Google engineer who thinks the company’s AI has come to life. Washington Post. 2022. https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/ (accessed 19 May 2024)

25     Is Google’s AI sentient? Stanford AI experts say that’s ‘pure clickbait’. 2022. https://stanforddaily.com/2022/08/02/is-googles-ai-sentient-stanford-ai-experts-say-thats-pure-clickbait/ (accessed 19 May 2024)

26     Floridi L, Nobre AC. Anthropomorphising machines and computerising minds: the crosswiring of languages between Artificial Intelligence and Brain & Cognitive Sciences. 2024. https://doi.org/10.2139/ssrn.4738331

27     Cao K, Xia Y, Yao J, et al. Large-scale pancreatic cancer detection via non-contrast CT and deep learning. Nat Med. 2023;29:3033–43.

28     Coyner AS, Singh P, Brown JM, et al. Association of Biomarker-Based Artificial Intelligence With Risk of Racial Bias in Retinal Images. JAMA Ophthalmology. 2023;141:543–52.

29     Marvin Minsky | AI Pioneer, Cognitive Scientist & MIT Professor | Britannica. 2024. https://www.britannica.com/biography/Marvin-Lee-Minsky (accessed 19 May 2024)

30     Floridi L. La quarta rivoluzione: Come l’infosfera sta trasformando il mondo. Raffaello Cortina Editore 2017. https://books.google.al/books?id=b6MCEAAAQBAJ

31     Floridi L. The Ethics of Information. Oxford University Press 2013. https://doi.org/10.1093/acprof:oso/9780199641321.001.0001

32     Floridi L. AI as Agency Without Intelligence: On ChatGPT, Large Language Models, and Other Generative Models. 2023. https://doi.org/10.2139/ssrn.4358789

33     Floridi L, editor. The Onlife Manifesto. Cham: Springer International Publishing 2015. https://doi.org/10.1007/978-3-319-04093-6

34     Floridi L, Sanders JW. On the Morality of Artificial Agents. Minds and Machines. 2004;14:349–79.

35     De Caro M. Il libero arbitrio: una introduzione. 4. ed. Roma: GLF Ed. Laterza 2004.

36     Neafsey EJ. Conscious intention and human action: Review of the rise and fall of the readiness potential and Libet’s clock. Consciousness and Cognition. 2021;94:103171.

37     Floridi L. Distributed Morality in an Information Society. Sci Eng Ethics. 2013;19:727–43.

38     Alliney G. La chimera e il girarrosto. Per una storia della libertà. Libero arbitrio. Teorie e prassi della libertà. 2014:185–235.

39     Alici L. Liberi tutti: il bene, la vita, i legami. Milano: VP, Vita e pensiero 2022.

40     Alici L. Il fragile e il prezioso: bioetica in punta di piedi. Prima edizione. Brescia: Morcelliana 2016.

41     Frankfurt HG. Freedom of the Will and the Concept of a Person. The Journal of Philosophy. 1971;68:5–20.

42     Taylor C. Human Agency and Language. New York: Cambridge University Press 1985.

[1] In questo senso, un φαρμάκων molto noto nella storia della filosofia è il κώνειον, la cicuta che Socrate si autosomministra per eseguire la condanna a morte, come ci racconta ancora Platone nel Fedone [1].

[2] Il machine learning è quel ramo dell’intelligenza artificiale che si occupa di sviluppare algoritmi e modelli che permettono ai computer di apprendere dai dati e fare previsioni o prendere decisioni senza essere esplicitamente programmati dall’uomo per ogni singolo compito. Il machine learning utilizza tecniche statistiche per identificare pattern nei dati e migliorare le performance nel tempo attraverso l’esperienza [6].

[3] Il deep learning è una tecnica avanzata di machine learning che utilizza reti neurali profonde per apprendere automaticamente da rappresentazioni complesse dei dati. A differenza degli approcci tradizionali, il deep learning elabora i dati attraverso più livelli, ciascuno dei quali cattura caratteristiche sempre più astratte. Questo lo rende particolarmente efficace per compiti complessi come il riconoscimento delle immagini, il riconoscimento del parlato e l’elaborazione del linguaggio naturale, ma necessita di grandi quantità di dati e di potenti capacità computazionali [8].

[4] In realtà, i risultati di alcune ultime pubblicazioni suggeriscono che GPT-4 riesca non solo a generare testo che appare umano, ma anche ad ingannare gli esseri umani in interazioni brevi e naturali. Secondo alcuni, ciò può essere considerato come “passare il test di Turing”. GPT-4 non mostra caratteri tipici dell’intelligenza convenzionale, ma sicuramente è in grado di simulare l’interazione umana in modo molto convincente, grazie ad una combinazione di fattori stilistici e socio-emozionali [11,12].

[5] Per quanto possa sembrare strano, se la risposta appare coerente è solo perché essa viene generata accostando tra loro (esclusivamente secondo principi statistici e seguendo le regole sintattiche della lingua in oggetto) parole che nei testi su cui il modello è stato addestrato risultano vicine. In pratica, il modello procede con un metodo induttivo basato sulla probabilità con cui quelle parole o quei concetti ‘vanno insieme’ nel suo database. Ciò è responsabile ad esempio delle risposte razziste, ciniche o discriminatorie dei primi modelli di GPT o delle recenti risposte ‘nostalgiche del Ventennio’ di Minerva, il primo LLM made in Italy, recentemente sviluppato dalla Sapienza di Roma [18]. L’Intelligenza Artificiale Generativa non può inventare niente: se è stata addestrata su testi razzisti, le sue risposte saranno necessariamente razziste.

[6] Che non si tratti di un vero apprendimento è anche dimostrato dal fatto che non è trasmissibile: ciò che la macchina ha ‘imparato’ non può essere a sua volta insegnato all’uomo, sia nel bene che nel male. Ad esempio il modello di deep learning PANDA, analizzando le medesime immagini, ha identificato oltre un terzo in più di carcinomi del pancreas rispetto ai radiologi e non è facile capire come abbia fatto [27]. Sul versante opposto, un modello di AI è stato in grado di identificare il gruppo etnico a cui dei pazienti appartenevano analizzando immagini del fondo dell’occhio che, secondo i ricercatori umani, non avrebbero dovuto contenere quella informazione, con evidenti rischi di racial bias, ad esempio a fini assicurativi [28]. È ormai assodato che ‘apprendendo’ tramite correlazioni statistiche derivanti da enormi quantità di dati, le AI individuano pattern che non sono comprensibili, spiegabili e quindi replicabili dagli esseri umani.

[7] La paternità di questa definizione è attribuita a Marvin Minsky, matematico ed informatico del MIT, pioniere negli anni 1960 delle ricerche sulla AI [29]. Si tratta di una definizione operativa e funzionale, molto ‘comoda’ ma senz’altro poco informativa. Uno dei suoi vantaggi è sicuramente che non ha bisogno di una definizione di ‘intelligenza umana’ per funzionare; però a ben vedere non definisce neanche cosa sia una intelligenza artificiale, piuttosto ci mette in condizione di riconoscerne una quando la vediamo all’opera: se vediamo una macchina fare qualcosa che avrebbe necessitato l’uso dell’intelligenza per essere fatta da un uomo, allora possiamo dire che “dentro c’è della AI”.

[8] Questo concetto funziona particolarmente bene se si intende con ‘ambiente’ quella che Luciano Floridi chiama infosfera [30]: l’ecosistema globale dell’informazione, comprendente tutte le entità informative e le loro interazioni. Si tratta di un concetto che trascende le semplici informazioni digitali per includere un ambiente dinamico e onnipervasivo, in cui le informazioni sono continuamente create, scambiate e consumate da vari agenti, inclusi quelli artificiali. L’infosfera abbraccia sia il cyberspazio che lo spazio fisico, rendendo le distinzioni tra online e offline sempre meno significative, con una esperienza continua e integrata che viene definita ‘onlife’.

[9] C’è da dire che alcune posizioni fisicaliste estreme delle neuroscienze sostengono che le funzioni mentali e decisionali potrebbero essere interamente ridotte a processi neurobiologici deterministici. Questo implicherebbe che le nostre scelte e azioni sarebbero esclusivamente il risultato di una sequenza di eventi non modificabile, sollevando dubbi sulla nozione tradizionale di libero arbitrio [35]. Non è possibile condurre in questa sede una disamina approfondita di questa posizione, ma basti dire che, oltre ad essere profondamente controintuitiva, le prove scientifiche a suo supporto non sono certamente solide [36].