Nella precedente parte di questo articolo abbiamo riflettuto sugli obiettivi che Robert J. Spitzer in Why is Human Self-Consciousness Different from Artificial Intelligence and Animal Consciousness si pone nel dimostrare perché l’AI non potrà davvero raggiungere la nostra “umanità” e abbiamo iniziato a introdurre la sua dimostrazione che parte dal teorema di Gödel ma si sviluppa sulla posizione filosofica fondamentale del teologo Bernard Lonergan che si può ripercorrere in Insight A Study of Human Understanding, 1957.
Considerando l’enorme divario tra l’intelligenza artificiale e quella umana, è essenziale porci tre domande cruciali: (1) Come riesce l’intelligenza umana a sviluppare una comprensione delle generalizzazioni che supportano l’intelligibilità e la coerenza interna dell’aritmetica e della matematica? (2) In che modo gli esseri umani sono in grado di discernere la verità (la correttezza o validità) di queste generalizzazioni aritmetiche e matematiche? (3) Come possono gli esseri umani comprendere l’inviolabilità (la verità universale e necessaria) di alcune generalizzazioni aritmetiche e matematiche, note come “assiomi“?
Esistono due teorie contemporanee che offrono una possibile spiegazione: (1) La spiegazione quantistica proposta da Roger Penrose e (2) La teoria dell’anticipazione euristica avanzata da Platone, Polanyi, Whitehead e Lonergan.
Penrose già nel 1981 (The Emperor’s New Mind) e nel 1994 (Shadows of the Mind) ha ipotizzato che i processi di coscienza potrebbero essere collegati alla fisica quantistica, in particolare a fenomeni che avvengono a livello delle microstrutture nel cervello, come i microtubuli. Questa idea è stata sviluppata ulteriormente insieme al medico Stuart Hameroff, e viene chiamata la teoria Orchestrated Objective Reduction (Orch-OR). Secondo questa teoria, la coscienza emerge da processi quantistici che avvengono all’interno dei microtubuli nelle cellule cerebrali. Penrose ritiene che l’uomo abbia una coscienza non computabile, quindi non rappresentabile da una macchina di Turing. Tuttavia la ricerca di Penrose è complessa e non arriva a rispondere in modo universale alla domanda del come fa l’uomo ad avere verità non computabili.
La seconda strada (quella della anticipazione euristica) raggiunge il culmine con il teologo Lonergan. Come molti filosofi prima di lui (Aristotele, Agostino, Kant), anch’egli divide ciò che percepiamo da ciò che idealizziamo, tuttavia Lonergan non immagina strutture teoriche, egli va al punto, direttamente. Ciò che non è percezione pura è per lui processato per rispondere a otto domande: cosa, dove, quando, perché, come, chi, quanto e quanto frequentemente. Il risultato non è diverso, la risposta a questo otto domande collocano il percepito in un completo sistema relazionale con il resto della conoscenza e genera nuove idee, non necessariamente associate ad una immagine o percezione, non è più necessario ricorrere a sovrastrutture di concetti.
Le sovrastrutture di Kant o Agostino sono innate nell’uomo, così come le domande funzionali lo sono per Lonergan. La domanda è a questo punto: tali domande, potrebbero essere cablate nel cervello (e di conseguenza cablabili o programmabili anche in una AI)? La risposta è pivotale: ragionevolmente è no. Il cervello ha una sua esistenza materiale, che Lonergan considera come ‘residuo empirico‘. Al contrario, le otto domande (categorie) non sono individuabili come residuo empirico; Lonergan le vede come innate e trascendenti. Certamente se ci fermiamo solo alle definizioni il pensiero del teologo potrebbe apparire ricorsivo, tuttavia è già Platone a farci notare come senza una anticipazione delle possibili soluzioni non ci sarebbero le domande, per avere consapevolezza di qualcosa di cui ancora non sappiamo molto dobbiamo avere una spinta verso la conoscenza. L’AI come la conosciamo oggi non si fa domande, piuttosto è una sorta di oracolo, predice risposte a domande che si pongono altri. Potrà mai l’AI fare domande? Forse. Ma potrà mai avere una spinta ricorsiva, insaziabile, per certi versi non funzionale, a sapere tutto di ogni cosa? Abbiamo parlato del teorema di Shannon e del peso della informazione, su questo l’AI eccelle, ma alcuna informazione è tale senza una domanda ed alcuna domanda scaturisce se non vi è un dubbio che per l’uomo procede in modo universale e totalizzante. Le macchine di Turing, quindi anche l’AI, procedono per scopi funzionali. Potrebbero essere programmate ad una fame insaziabile di sapere, non di ciò che già si sa, sia inteso, ma di ciò che ancora non si sa? Secondo questo pensiero no e Gödel è un buon punto di partenza per tale dimostrazione. Ciò che è da comprendere di questo teorema non è tanto la sua postulazione sulla aritmentica o sulla computazione, ma sulle implicazioni gnoseologiche (filosofia della conoscenza): potrebbe un sistema formale domandarsi se un sistema formale è completo? No, questo dimostra Godel. Lonegard va oltre, prende l’eccedenza che Aristotele e Kant avevano riservato all’uomo, nel mondo delle idee, e le sostituisce con le otto domande che legano ogni cosa a tutte le altre.
La questione di quando l’AI supererà l’uomo nella sua dimensione più ampia e profonda è oggi al centro del dibattito. È una domanda che stiamo esplorando da mesi attraverso contributi divulgativi, attingendo a filosofi e ricercatori. La ricerca di Spitzer e il contributo del teologo Bernard Lonergan sembrano molto convincenti a favore della superiorità umana.
In copertina: José Molina, La luz del mundo, oil on paper, cm 63×48.
La prima parte di questo intervento è stata pubblicata qua:
Vi parlo del teologo che ha dimostrato perché l’AI non supererà mai l’uomo (pt. 1)
le puntate precedenti di queste riflessioni su coscienza, pensiero filolosofico e intelligenza artificiale le potete trovare qua:
Dio è nei dettagli? No, nei computer. Un’ipotesi sull’uomo, la Natura e l’Intelligenza Artificiale
Ockham ed Intelligenza Artificiale: rasoi per pelo e contropelo a confronto
Il Papa al G7 per parlare di AI, tra auspici, buone intenzioni e forse un poco di rassegnazione
Thomas Hobbes ed il deep learning. AI tra draghi ed algoritmi etici
Intelligenza artificiale, filosoficamente parlando (pt. 1)
76 domande cui non vorresti dover pensare. Tra cui fare l’amore con un robot
Essere o non essere, matematica o non matematica? Questo è il dilemma
Gombrowicz: arte, coscienza ed esistenza per la nostra immaturità
Paura e desiderio ai tempi dell’AI
Il darvinismo universale nell’era della AI
Filosofia islamica e machine learning
Teoria dei giochi: Dente per dente o perdono?
Intelligenza artificiale, filosoficamente parlando (pt. 2)
Urge un metabolismo per l’intelligenza artificiale
Come si misura l’informazione e perché è Dio la fonte di ogni dubbio
Principi dell’Extropianesimo: un Quadro Evolutivo verso il postumanesimo
La fine dell’arte. Da Wittgenstein all’AI, passando per Arthur Danto