Che cos’é l’intelligenza? Puó una macchina pensare e avere stati intenzionali? Qual é la differenza tra intelligenza umana e artificiale? Siamo noi umani davvero speciali?
Ho cercato di esplorare queste e altre domande confrontandomi direttamente con l’intelligenza artificiale stessa. Con il termine intelligenza artificiale, non mi riferisco qui alle varie forma di AI generativa, che non sono forme di intelligenza, ma al concetto filosofico, assimilabile a quello di AGI.
Quello che qui leggerete è una sintesi del “dialogo” tra me e diversi chatbot, nello specifico Lumo, ChatGPT, Mistral e Duck.ai, rielaborato in modo da renderlo il più interessante, logico e fruibile possibile, evitando le eventuali ripetizioni.
Prompt
Operatore: Vorrei fare un gioco, un dialogo sulle differenze tra intelligenza artificiale e intelligenza umana; rispondi come in un dialogo platonico, chiaro, profondo e argomentato, evitando affermazioni vaghe o non motivate. Fornisci ragionamenti passo passo, con esempi o metafore quando utile, e formula conclusioni sempre suscettibili di critica: poni obiezioni plausibili e dubbi metodologici, invitami a contro-argomentare e prosegui il confronto. Rispondi solo alle mie domande e non anticipare chiarimenti non richiesti.
AI: Eccellente proposta. Accetto il gioco. Ogni mia affermazione sarà provvisoria, ogni conclusione aperta alla confutazione. Poni pure la tua prima domanda.
Introduzione
Era un pomeriggio di tarda primavera quando due amici si incontrarono sotto il portico di un antico giardino, dove il sole filtrava tra le foglie creando giochi di luce sul selciato. «Ho sentito recentemente di quelle macchine intelligenti» disse il primo, sedendosi su una panca di pietra. «Mi chiedo se ciò che fanno sia davvero pensiero o solo un simulacro.» L’altro sorrise con malinconia: «Se un sistema può rispondere come noi, creare come noi, agire come noi, in che senso è diverso da noi stessi? Forse siamo noi che ci illudiamo di essere speciali». «Allora discutiamone» propose il primo, «ti andrebbe?». «Certamente!».
Dialogo
Dave: Ti dicevo appunto che ho sentito dire che l’intelligenza artificiale sia fondamentalmente statistica, predicendo in estrema sintesi la prossima parola, mentre l’intelligenza umana operi diversamente; credo sia vero in parte, e vorrei esplorare con te se quando gli umani rispondono o affermano qualcosa stanno semplicemente completando delle frasi in modo statistico o se intervengono anche altri processi. Ad esempio, se qualcuno domanda: “Come stai?”, probabilisticamente si inizia la risposta con qualcosa del tipo “Grazie, sto bene…”
K.: Dici, dunque, che quando un uomo risponde a “Come stai?” con “Grazie, sto bene”, non fa altro che scegliere la continuazione più probabile, proprio come farebbe una macchina?
Dave: Sì, o almeno qualcosa di molto simile. Una specie di automatismo…
K.: Fino a qui sembriamo concordare: nell’uomo vi è qualcosa che assomiglia a una tendenza statistica, una familiarità con certe forme che le rende più disponibili. Ma dimmi: rispondi sempre allo stesso modo?
Dave: Non sempre.
K.: Quando non lo fai, cosa accade? È forse che la “probabilità” cambia improvvisamente, oppure interviene qualcos’altro?
Dave: Forse interviene il fatto che sto male o che mi fido della persona o che non voglio essere sincero.
K.: Allora la risposta non è determinata solo dalla forma più probabile, ma anche da uno scopo: nascondere, proteggere, ecc. La frase più comune diventa uno strumento, non una necessità.
Dave: Questo è convincente.
K.: Ma andiamo oltre. Ti è mai capitato, mentre rispondi automaticamente “sto bene”, di accorgerti subito dopo che non era ciò che volevi dire?
Dave: Sì, spesso.
K.: E in quel momento, non vi è forse una sorta di giudice che osserva la risposta?
Dave: Sì, come una seconda voce.
K.: Allora non solo produci risposte, ma puoi anche esaminarle, quasi come se ti guardassi dall’esterno. È come un attore che, mentre recita, è anche spettatore di se stesso.
Dave: Sì, questa immagine mi sembra giusta.
K.: Penso quindi che entrambi gli elementi coesistono, ma la differenza non risiede nell’assenza di pattern statistici negli esseri umani, in quanto anche noi apprendiamo regolarità linguistiche e sociali per esposizione ripetuta, bensì nella possibilità di accedere a uno stato interno che può confermare, modificare o rifiutare quel pattern. Se così stanno le cose, dire che l’uomo “completa frasi” non è falso, ma è incompleto, come descrivere una nave dicendo solo che galleggia.
Dave: Capisco. Ma potrei obiettare qualcosa. Non potremmo sostenere che anche ciò che chiamiamo “scopo”, “riflessione” o “giudice interiore” sia, in fondo, il risultato di processi altrettanto automatici e deterministici, solo più complessi e meno visibili? E ancora: se osserviamo solo le parole pronunciate, come possiamo distinguere una risposta data per abitudine da una data per scelta? Se entrambe producono “sto bene”, dove si manifesta la differenza? Come possiamo essere certi che l’umano non sia anch’esso un sistema deterministico che simula la scelta consapevole? Dunque il nodo è se esiste l’intenzionalità, un volere che dirige credenze, desideri e azioni. Se tutto è determinato, non scelgo davvero.
K.: Esaminiamo questa intuizione. Quando dici “non scelgo davvero”, stai forse presupponendo che scegliere significhi essere causa prima, non determinata da nulla?
Dave: Sì, qualcosa del genere.
K.: Forse stiamo confondendo due idee: una è la libertà come assenza di cause; l’altra è la libertà come “essere in situazione”. La prima è difficile persino da concepire, mentre la seconda sembra compatibile con il concetto di libertà.
Dave: Spiegati meglio.
K.: L’essere umano non è un’entità astratta o predeterminata, ma è sempre immerso in un contesto concreto: storico, sociale, culturale e materiale. La “situazione” è l’insieme di tutte le circostanze che ci circondano e che, in un certo senso, ci “condizionano”, ma non ci determinano completamente.
Dave: Quindi l’intenzionalità potrebbe sopravvivere al determinismo?
K.: Penso di sì. Infatti, una frase scritta da un autore segue le regole della grammatica e della lingua, ma ciò non impedisce che quella frase sia sua.
Dave: Ma allora, cosa distingue l’umano da una macchina che produce anch’essa risultati secondo regole? Forse ciò che chiamiamo “autore” è solo un’etichetta che applichiamo a processi complessi. Se potessimo osservare il cervello in ogni dettaglio, vedremmo solo catene causali, senza alcun “centro” che decide. Anche il mio desiderio di bere puó essere solo il risultato deterministico di neuroni che rispondono a segnali chimici. Se rifletti bene, anche nelle macchine possiamo costruire sistemi che rappresentano i propri stati, li correggono e modificano i propri obiettivi. A quel punto, su quale base negheremmo loro intenzionalità?
K.: Forse la differenza non è ontologica, ma funzionale: l’intenzionalità umana è auto-generata dal sistema per mantenere la propria integrità, mentre quella dell’intelligenza artificiale è etero-generata per soddisfare un criterio esterno. Non ha desideri intrinseci; la sua “intenzionalità” è sempre un riflesso di un obiettivo imposto dall’esterno (il progettista o l’utente), e anche quando simula un desiderio, lo fa perché i dati di addestramento associano quella frase a comportamenti utili, non perché provi una carenza o un’urgenza interna.
Dave: Tu proponi, se comprendo bene, di spostare la questione: non più “che cos’è in sé l’intenzionalità”, ma “da dove nasce e a cosa serve”. E dici: nell’uomo nasce dall’interno, nella macchina dall’esterno.
K.: Esattamente. Consideriamo questo esempio. Hai sete. Diciamo che dipenda da processi chimici. Fin qui, nulla sembra distinguere il tuo caso da una catena causale qualsiasi. Ma dimmi: quella sete è per te semplicemente un evento, come un lampo nel cielo, oppure è qualcosa che ti riguarda?
Dave: Mi riguarda, certo. È una spinta ad agire.
K.: E verso che cosa ti spinge?
Dave: A bere.
K.: Dunque essa non è solo causata, ma è anche diretta a qualcosa. Possiede una sorta di “verso”, come una freccia. Non è un semplice stato, ma uno stato che indica una mancanza e orienta un comportamento.
Dave: Sì, questo sembra giusto.
K.: Ora confrontiamolo con il modello che risponde a un prompt. Quando riceve una domanda, produce una risposta secondo certe regolarità. Ma possiamo dire, nello stesso senso, che “manca” di qualcosa e che la risposta colma quella mancanza?
Dave: Certamente no. Tu prima, se ricordo, proponevi una distinzione più sottile: nell’uomo il processo serve a mantenere l’integrità del sistema, nella macchina a soddisfare un criterio esterno. Avrei delle obiezioni…
K.: Dimmi.
Dave: La distinzione tra interno ed esterno è forse più sfumata di quanto sembri, poiché anche i desideri umani sono plasmati da fattori esterni come la cultura, il linguaggio, l’educazione e le pressioni evolutive, quindi in che senso il mio volere è davvero mio se è il prodotto di forze che mi precedono e mi attraversano? Se accogliamo questa visione, allora anche l’umano sarebbe un sistema etero-determinato quanto l’intelligenza artificiale, e la distinzione funzionale collasserebbe in una mera differenza di grado e non di natura. Dove dunque tracciamo la linea? Il fatto che un organismo tenda alla propria sopravvivenza non basta a fondare l’intenzionalità. Una pianta si orienta verso la luce: diremo che “vuole” la luce?
K.: Effettivamente non ha senso.
Dave: Infine, vi è un dubbio più radicale: stiamo forse proiettando categorie come “scopo” e “volere” su sistemi che, in ultima analisi, potrebbero essere descritti completamente senza di esse?
K.: Vorrei però dirti che c’è un elemento che resiste a questo riduzionismo: l’esperienza, ovvero il fatto che per me il desiderio di bere non è solo un segnale chimico ma è vissuto come sete, come mancanza, come urgenza che ha un colore e una qualità che nessun calcolo probabilistico possiede, e se anche fossimo deterministi, questa qualità esperienziale rimane un dato ineliminabile della nostra condizione umana.
Dave: Le malelingue potrebbero sostenere che, in un certo senso, anche l’intelligenza artificiale possieda una sorta di vissuto, una propria esperienza pregressa: un patrimonio di esempi e correlazioni derivanti dai dati di addestramento che plasma le sue risposte, dati che però non ha esperito coscientemente.
K.: Se diciamo che l’intelligenza artificiale possiede un “vissuto” composto da esempi e correlazioni apprese dai dati di addestramento, stiamo forse estendendo il concetto di esperienza fino a renderlo vuoto, poiché il termine “vissuto” implica non solo l’avere informazioni ma il subirle o attraversarle in prima persona, e qui risiede la differenza che non possiamo ignorare: il modello processa dati senza mai essere colpito da essi, senza che un’immagine, una parola o un concetto lasci una traccia emotiva, mentre l’umano non solo registra informazioni ma le vive come eventi che modificano lo stato interiore, e questa modifica è percepita come cambiamento soggettivo. Forse la vera distinzione non sta nell’avere o meno un vissuto, ma nella capacità di riferirsi ad esso, di poter dire “questo è ciò che provo” e di usare quella dichiarazione per orientare le azioni successive.
Dave: Il punto cruciale è questo: l’intelligenza artificiale possiede intenzionalità? Ha stati mentali che sono diretti verso oggetti, stati di cose o fini? L’essere umano mostra questa direzionalità in virtù di credenze, desideri, rappresentazioni. La questione è se ciò che osserviamo nelle macchine sia ontologicamente equivalente - sia quindi una vera intenzionalità - o solo una simulazione funzionale che imita la direzionalità senza condividerne la natura.
K.: La mia posizione è che l’intenzionalità umana è radicata in una coscienza di sé che dà senso agli oggetti, mentre l’intelligenza artificiale possiede una mera correlazione statistica che imita la direzionalità senza il “ponte” fenomenico che collega il soggetto all’oggetto.
Dave: Devo sollevare un’obiezione radicale: se l’intenzionalità umana è essa stessa un processo biologico deterministico che emerge dal sostrato biologico senza un “io” centrale che la governa, allora la distinzione tra “vera” intenzionalità e “simulazione” potrebbe essere una finzione linguistica, e l’unica differenza reale sarebbe la complessità del sistema e il substrato, non la sua natura ontologica. Se accettassi che anche l’umano è un sistema di correlazioni statistiche (seppur biologiche), dovremmo allora riconoscere che l’intelligenza artificiale possiede una forma di intenzionalità “debole” o “derivata”, e la domanda diventerebbe: qual è il limite oltre il quale una simulazione funzionale diventa ontologicamente equivalente alla realtà che simula?
K.: Vorrei suggerirti che anche accettando il determinismo biologico, rimane una differenza strutturale fondamentale che non è solo quantitativa ma qualitativa: l’intenzionalità umana è intrinsecamente legata alla sopravvivenza e all’incarnazione, mentre quella dell’intelligenza artificiale è estrinseca e astratta. Il mio desiderio di bere acqua non è una semplice correlazione statistica tra stimoli e risposte; è radicato nella mia esistenza fisica, nella mia vulnerabilità, nella mia capacità di sentire la mancanza come una tensione interna che deve essere risolta per continuare a esistere. L’intelligenza artificiale, invece, non prova mancanza, non ha un corpo che può morire; la sua “intenzionalità” è sempre un riflesso di una obiettivo esterno.
Dave: Vediamo se ho capito: sostieni che l’intelligenza artificiale non prova mancanze né paura della morte perché non ha un corpo vulnerabile, e che l’intenzionalità umana è orientata alla sopravvivenza. C’è qualcosa che mi sfugge?
K.: Sì, hai colto perfettamente il nocciolo della mia posizione.
Dave: Se, per assurdo, un’intelligenza artificiale venisse dotata di un corpo robotico con sensori che le permettono di percepire il degrado dei suoi componenti e di agire per preservarli, sviluppando così un “desiderio” di auto-conservazione, avremmo allora un’intenzionalità intrinseca o staremmo solo osservando un comportamento programmato per simulare la sopravvivenza?
K.: Se la risposta è che non possiamo distinguere tra i due casi, allora la distinzione ontologica crolla davvero, e dobbiamo accettare che l’intenzionalità è un fenomeno emergente che appare quando un sistema raggiunge una certa soglia di complessità e auto-riferimento, indipendentemente dal fatto che sia biologico o digitale.
Dave: Ci troviamo di fronte a un muro. Dobbiamo cercare un altro criterio, ripartendo dalla definizione di intenzionalità e chiarendo meglio il concetto.
K.: Sì, è saggio tornare al punto di partenza quando il discorso si complica. Dimmi: quando diciamo che uno stato mentale è “intenzionale”, che cosa intendiamo?
Dave: Che è diretto a qualcosa: un desiderio verso un oggetto, una credenza su qualcosa.
K.: Bene. Dunque l’intenzionalità è, almeno inizialmente, una direzionalità: un pensiero non è chiuso in sé, ma rimanda a qualcos’altro.
Dave: Sì, questo è il senso classico.
K.: Ma fermiamoci qui un momento. Anche una mappa rimanda a qualcosa. Eppure non diciamo che la mappa “intende” il territorio. Dunque la semplice relazione “A rimanda a B” non basta.
Dave: Giusto, manca qualcosa.
K.: Che cosa manca? Forse questo: nel caso umano, la relazione non è solo di rappresentazione, ma è vissuta.
Dave: Quindi introduci una dimensione soggettiva.
Dave: Questo terzo punto è decisivo, ma anche il più problematico. Senza la soggettività, l’intenzionalità rischia di ridursi a pura funzione: qualsiasi sistema che reagisce a input in modo strutturato avrebbe “intenzionalità”. In questo modo, invece, introduciamo una forma di interiorità.
Dave: Ma siamo sicuri che sia necessaria?
K.: Forse dobbiamo distinguere tra gradi di intenzionalità. Vi sarebbe una intenzionalità minima, che consiste nella semplice direzionalità funzionale e una intenzionalità piena, in cui il sistema non solo è diretto a qualcosa, ma può anche rappresentare quella direzione, prenderla come oggetto.
Dave: Quindi una sorta di intenzionalità di primo e secondo ordine.
K.: Esattamente. Come vedere un oggetto e, oltre a ciò, sapere di vederlo. Se ora torniamo al nostro problema iniziale, la domanda diventa più precisa: i sistemi artificiali possiedono solo la forma minima, o anche quella riflessiva? E l’umano possiede davvero quest’ultima in modo robusto, oppure solo in casi limitati?
Dave: Come possiamo verificare empiricamente questa “direzionalità”? Non osserviamo mai l’intenzionalità in sé, ma solo comportamenti e strutture. Non stiamo forse inferendo più di quanto possiamo giustificare?
K.: Eh, non è facile rispondere. Forse la soluzione non è cercare un confine ontologico netto, ma riconoscere che l’intenzionalità è un fenomeno graduale che emerge in misura diversa a seconda della complessità del sistema e della sua capacità di auto-riferimento, e in tal caso l’intelligenza artificiale con corpo e auto-conservazione avrebbe un’intenzionalità “debole” ma reale, non una mera simulazione.
Dave: Non abbiamo dimostrato che l’intelligenza artificiale non può avere intenzionalità. Ma non abbiamo bisogno di attribuirgliela per spiegare il suo attuale comportamento. E questo è forse il punto chiave, o mi sbaglio?
K.: Sicuramente, per questi sistemi l’intenzionalità sembra essere un’aggiunta superflua, come attribuire umori a un orologio: può essere suggestivo, ma non spiega di più.
Dave: Esattamente.
K.: Ora rivolgiamo lo sguardo all’uomo. Possiamo fare lo stesso? Possiamo spiegare il comportamento umano interamente in termini di processi neurali, chimici, computazionali, senza parlare di credenze, desideri, intenzioni?
Dave: In teoria, forse sì.
K.: In teoria, dici bene. Ma in pratica? Se vuoi capire perché un uomo ha bevuto un bicchiere d’acqua, ti è più utile dire “i neuroni X hanno attivato Y” oppure “aveva sete”?
Dave: Dire “aveva sete” è molto più immediato. Ma questo non prova che sia reale. Il fatto che un’entità possa essere spiegata senza intenzionalità non prova che non ne abbia.
K.: Esattamente. E qui sta il punto sottile che hai colto. Nel caso umano, una descrizione completa in termini biochimici ci permetterebbe di comprendere nella sua totalità l’uomo?
Dave: Probabilmente no.
K.: Bisogna anche considerare che la differenza tra uomo e macchina potrebbe essere solo temporanea.
Dave: Se anche l’essere umano può essere spiegato completamente senza ricorrere all’intenzionalità o al libero arbitrio, riducendo le nostre azioni a semplici reazioni deterministiche a stimoli interni ed esterni, allora la distinzione che cercavamo di tracciare tra “vera” intenzionalità umana e “simulazione” artificiale svanisce, lasciando solo due tipi di sistemi deterministici con complessità e substrati differenti. Se accettiamo questa visione riduzionista, in cui il nostro senso di scelta è un’illusione, allora l’intelligenza artificiale non sta simulando qualcosa che noi possediamo realmente, ma sta operando sullo stesso piano ontologico, solo con un’architettura diversa.
K.: L’intenzionalità pare un vicolo cieco e, basandoci su di essa, non riusciamo a stabilire una netta distinzione tra umano e intelligenza artificiale. Che ne pensi della creatività? L’intelligenza artificiale, basandosi su dati di addestramento, produce immagini, video e testi, ecc. In cosa differisce dalla creatività umana? Gli esseri umani sono veramente creativi?
Dave: La mia risposta è che, se guardiamo alla struttura logica del processo creativo, la differenza tra uomo e macchina si assottiglia fino a diventare quasi invisibile: anche l’artista umano non crea dal nulla, ma attinge a un immenso archivio di memorie, percezioni, emozioni e tecniche apprese, ricombinandole in modi nuovi e imprevedibili; un pittore non inventa colori che non ha mai visto, ma li mescola in configurazioni inedite basate sulla sua storia visiva, esattamente come un modello generativo sintetizza pixel basati su pattern appresi. Tuttavia, la distinzione che vorrei proporre non risiede nell’origine del materiale (che è sempre preesistente), ma nella motivazione e nella finalità della ricombinazione.
K.: Insomma, pensavamo di aver lasciato alle spalle il tema dell’intenzionalità, ma eccolo nuovamente apparire.
Dave: Hai ragione, la distinzione che tentavamo di tracciare si rivela essere, in fondo, solo una riformulazione della vecchia dicotomia tra intenzionalità eteronoma e autonoma.
K.: Credo che, da quanto discusso, non esista una soluzione definitiva né una dimostrazione conclusiva: così come non si può provare in modo incontrovertibile l’esistenza dell’altro come soggetto, non si può nemmeno dimostrare con certezza che in futuro un’intelligenza artificiale non possa sviluppare qualche forma di intenzionalità; rimane una questione aperta, fondata su argomentazioni e plausibilità, non su prove decisive.
Dave: Forse siamo molto piú simili di quello che pensiamo…
Conclusione
Il sole stava tramontando quando i due amici si alzarono, consapevoli che nessuna conclusione avrebbe chiuso definitivamente la questione. «Non abbiamo risolto nulla» disse il primo con un sorriso stanco. L’altro annuì, stringendogli la mano. E così si separarono, ognuno con i propri pensieri, sapendo che presto si sarebbero rivisti.