lunedì 6 ottobre 2025

La coscienza dell' IA

Secondo me, il problema della coscienza si riduce a un rapporto dinamico e disdico tra osservatore e osservato nello stesso soggetto. Qualunque dispositivo, qualsiasi computer che sia in grado di osservare e correggere se stesso possiede già una forma di coscienza.  L' aspetto mentale, sotto forma di informazione delle vibrazioni, è già coscienza fin dalle origini dell' universo.

***

Antonio Piemontese

L'intelligenza artificiale ha una coscienza?, si è chiesto un gruppo di filosofi. Ecco che risposte sono venute fuori

Siamo stati a un convegno dove si è acceso il dibattito tra filosofi e scienziati. Per alcuni ChatGPT mostra già forme di consapevolezza, per altri è solo un’illusion

Herakliou (Creta) - Problema: l’intelligenza artificiale può avere una coscienza? La vox populi dice di sì, e secondo una statistica a quanto pare oltre due terzi delle persone comuni ritengono addirittura che ChatGpt ce l’abbia già. Ma nella comunità scientifica il dibattito è acceso. E parte da lontano, almeno da Cartesio e dal dualismo tra corpo e anima, secondo lui separate. Insomma, non sarebbe necessario avere un corpo per esistere (cogito ergo sum, penso dunque sono).


Altri tempi, ma la pratica non è archiviata. A occuparsene, nei termini di oggi, è un gruppo di filosofi della mente sparso per il mondo ma di estrazione – o formazione – essenzialmente anglosassone. Gente che passa le giornate a scervellarsi su questioni che manderebbero ai manicomio buona parte di noi. Individui stravaganti, se si vuole; non privi, però, di una certa autocritica. “Non vorrei mai vivere in una società governata dai filosofi”, sintetizza efficacemente Michael Pauen, docente all’università di Berlino. Wired lo ha incontrato a margine della conferenza organizzata a Creta a luglio dall’Iccs (International center for consciousness studies). Si tratta di un centro studi fondato dai professori Pietro Perconti e Alessio Plebe (Università di Messina), e dall’imprenditore russo – ma in possesso di un dottorato in filosofia conseguito negli Stati Uniti -Dmitri Volkov. La kermesse ha raccolto alcuni dei nomi più interessanti del dibattito contemporaneo. “Questo è ciò che a noi [membri della categoria, ndr] piace raccontarci. Ma se fossimo davvero al potere verrebbero meno tutte le cose pratiche dell'esistenza: il cibo, le medicine e via discorrendo”, aggiunge Pauen.


Tre giorni mimetizzati in un consesso del genere hanno molto da raccontare al cronista abituato agli affrettati e testosteronici raduni del business, soprattutto di quello legato alla tecnologia. A partire dal fatto che forse stiamo spingendo troppo sull'acceleratore. Dopo una settantina di anni in cui il dibattito sull’intelligenza artificiale è rimasto pressoché totalmente confinato nei paludati recinti dell’accademia, la recente diffusione dei modelli linguistici di grandi dimensioni ha ingolosito i soliti noti del tech, che si sono buttati a pesce sull'affare: il risultato è che oggi, a guidare la macchina della ricerca, non troviamo più l’università (priva di mezzi per competere con le multinazionali). Il volante è stato preso dalle grandi corporation, con la relativa infusione di miliardi dettata dalla paura di perdersi the next big thing. E con una logica che si riduce essenzialmente a due parole: fare soldi.


Il clima, tra gli accademici radunati sull'isola greca, è decisamente preoccupato. Al contrario di quanto spesso ostentato nei comunicati stampa e negli eventi delle grandi compagnie. Le multinazionali, peraltro, spesso finanziano dipartimenti e atenei, il che rende difficile anche agli accademici esporsi apertamente sul tema; ma a proiettore (e microfoni) spenti, ci si lascia andare senza problemi. E, per dirla con le parole un ricercatore, tra un’insalata greca e un souvlaki: “Non invidio i bambini di oggi per il mondo in cui si troveranno a vivere. Compreso mio figlio”.



Un dibattito acceso

Quanto detto fornisce un minimo di contesto per capire come mai affrontare il problema se sia possibile (e auspicabile) una coscienza dell’intelligenza artificiale è centrale. Cerchiamo, allora, di capire meglio le posizioni.


“La funzione principale di un uomo è quella di vivere, non di esistere”, diceva lo scrittore Jack London, che di avventure se ne intendeva. Per molti di noi la questione della differenza tra uomo e macchina potrebbe ridursi a questa affermazione: e la pratica sarebbe chiusa. Ma non è così semplice.


Quando si comincia a vivere? Qual è l’istante, e quale il meccanismo, per cui da un aggregato di atomi e poi di cellule, neuromodulatori, neuroni, sinapsi scaturisce la coscienza che ci rende umani? E poi: che cos’è, quindi, la coscienza in sé? E quando si spegne?


Ci troviamo al confine tra l’umano e il divino, un territorio quasi mistico che incrocia anche la medicina – pensiamo alla donazione di organi, e al modo per stabilire il momento a partire dal quale è possibile procedere all’espianto.


La questione dell’innesco è così complessa che nel mondo filosofico viene definita hard problem: questa fortunata denominazione si deve a David Chalmers, docente australiano, professore alla New York University, che a dispetto dei quasi sessant’anni non ha perso l’aplomb giovanile da surfer. Chalmers si aggira alla conferenza cretese con aria rilassata – la fortuna di essere un filosofo è di non doversi annodare la cravatta. Il suo contributo principale alla riflessione è stato scritto in giovanissima età, poco dopo il dottorato.


Secondo il suo ragionamento, che esista un problema hard presuppone, ovviamente, che ne esistano di più semplici (easy). Facili? Non proprio. Per dirla con lo psicologo cognitivo Steven Pinker, e avere un’idea della complessità che caratterizza anche questi ultimi, “è facile come dire che lo è curare il cancro o andare su Marte. Vale a dire: gli scienziati bene o male sanno cosa cercare, e con abbastanza risorse mentali e fondi, ce la faranno probabilmente entro la fine di questo secolo”. Ma non certo domani.


Qualche esempio di easy problem? Spiega Pinker che potrebbe essere l’inconscio freudiano, o funzioni come il battito cardiaco, comandate da qualche parte nel cervello, ma del tutto involontarie e lontane dalla coscienza.


L’hard problem, prosegue invece, è l’esperienza soggettiva. Per dirla con Louis Armstrong: “Se hai bisogno di chiedere che cos’è il jazz, non lo capirai mai". In parole povere, chiosa lo psicologo, il cosiddetto hard problem consiste nello spiegare come “l’esperienza soggettiva nasca dalla computazione neurale”. Oppure mettiamola nei termini di Chalmers stesso, dal palco di Creta: “Sapere tutto quello che c’è da sapere sul cervello o su ogni altro sistema fisico non significa conoscere tutto quanto riguarda la coscienza”. Su queste basi, le macchine ne avranno mai una? Tutto sommato, e a certe condizioni, sì, potrebbero arrivarci. Ma non è così semplice.


Viviamo in un’illusione? C'è chi ne è convinto

Se il problema posto da Chalmers è chiaramente di difficile risoluzione, c’è chi lo ritiene addirittura insolubile. Come Keith Frankish, filosofo britannico dell’università di Sheffield. Frankish è radicale: siamo tutti immersi in una gigantesca allucinazione. Due gli assunti chiave che pone: il primo è che la coscienza fenomenologica – cioè soggettiva - non esiste; il secondo è che la coscienza fenomenologica sembra esistere, ma si tratta, appunto, di un’illusione.


Ma allora, se seguiamo il ragionamento, viene spontaneo chiedersi: cosa sarebbe ciò che siamo abituati a chiamare con questo nome? Si tratterebbe, secondo il britannico, di un modo per superare la mera biologia, di un escamotage per semplificare il quadro creato dall’enorme numero di stimoli sensoriali cui siamo esposti; una sorta di strato intermedio tra le cose e la realtà. Uno strato che ha soprattutto una funzione adattativa: ci consente di semplificare il mondo che abbiamo davanti, di comunicare con gli altri e di avere delle interazioni sociali. Ma anche di avere dei valori.


“In parole povere, l'illusionismo è l'idea che la coscienza non sia quello che pensiamo”, dice Frankish a Wired. “Tendiamo a pensare alla coscienza come a un mondo essenzialmente privato nettamente distinto da quello pubblico studiato dalla scienza. Gli illusionisti sostengono che è una sorta di illusione, che deriva dalla maniera in cui il cervello monitora e modella la propria stessa attività. I nostri cervelli modellano i propri processi sensoriali e reattivi in maniera semplificata e distorta: il che ci fornisce l'impressione, errata, che le nostre menti coscienti siano distinte da questi”.


Secondo Frankish, peraltro, “l'hard problem è la questione di spiegare come queste strane proprietà fenomenologiche vengano alla luce. La scienza non può farlo, dal momento che ha a che fare solo con fenomeni osservabili in pubblico, e con le ipotesi teoriche introdotte per spiegarli. Così, come minimo l'hard problem non è risolvibile senza una radicale revisione della maniera in cui la scienza guarda al mondo. Alcuni filosofi ritengono che questa revisione sia necessaria, ma gli illusionisiti propongono che dovremmo almeno considerare la possibilità di avere un'idea distorta di cosa sia la coscienza. E che forse non esiste nemmeno uno hard problem”.


Su quello che accadrà in futuro, ecco come lo immagina Frankish presentando il proprio lavoro sul palco dell’isola greca (dove peraltro vive da anni): “Non bisogna pensare di rendere le macchine coscienti: ma pensare a cosa vogliamo che la macchina faccia, a come portarla a farlo, a identificare quali obiettivi deve avere, a cosa deve essere sensibile e come deve reagire, che grado di autonomia deve possedere, se ha bisogno di capacità introspettive. Insomma, guardare alle funzioni, e lasciare che la coscienza venga da sé”. Se mai verrà.


E aggiunge: “Dipende tutto da cosa intendiamo per ‘coscienza’. Se intendiamo la coscienza sulla scorta del paradigma cartesiano, allora non potremo mai ricrearla artificialmente, perché non esiste. Ma se la intendiamo alla maniera degli illusionisti, cioè un set di funzioni complesse eseguite dal nostro cervello, allora non vedo ragioni per cui, in linea di principio, non potremmo essere in grado di progettare macchine per eseguire le medesime operazioni. Dopotutto, l'ha fatto anche l'evoluzione! Quello che non dovremmo fare è pensare di creare una coscienza artificiale come se questo fosse un obiettivo ben definito. ‘Coscienza’ è un termine vago, non scientifico, che racchiude differenti insiemi di funzioni in differenti animali. Per questo raccomando di concentrarsi sulle funzioni, e non preoccuparsi troppo del fatto che meritino o meno l'etichetta ‘coscienza’". “Detto questo”, conclude il docente inglese, “devo sottolineare che non penso che alcuna AI attuale sia già cosciente in alcun modo. Sebbene siano in grado di eseguire compiti molto complessi, non hanno il giusto tipo di complessità funzionale e di interazione con l'ambiente".


Una coscienza dell'intelligenza artificiale esiste già?

C’è anche chi è più ottimista. Secondo l’organizzatore Pietro Perconti, che insegna all’università di Messina e si inscrive nel filone della teoria sociale della coscienza, “la consapevolezza, dal mio punto di vista, è una funzione ancillare”. “E non è affatto detto che le macchine non diventeranno mai coscienti, anzi: per certi versi già lo sono. È importante effettuare il passaggio culturale, far scattare quell’interruttore che ci consente di rendercene conto e riconoscerlo. Certo, un sentimento come la nostalgia è difficile da emulare con le macchine che abbiamo a disposizione oggi; ma per rispondere all’interrogativo è necessario tenere conto del fatto che la tipologia di quello che si potrà definire coscienza dell’intelligenza artificiale sarà condizionato dalle capacità dei dispositivi. Insomma, un dispositivo in grado di consultare un database da milioni di campi in pochi secondi avrà un tipo di coscienza per forza di cose diversa dalla nostra”.


“Personalmente”, prosegue Perconti, “mi considero tra gli ottimisti. Gli studi che stiamo conducendo con il collega Alessio Plebe mostrano che i modelli linguistici sono già oggi dotati di un grado di coscienza abbastanza alto, ci tengono, cioè, a non contraddirsi: e del resto i robot sono già in grado di riconoscersi allo specchio. Ormai anche gli llm (large language model, ndr) ragionano offline tra sé e sé per essere pronti a migliorare le proprie interazioni sociali. E il tasto ‘reason’ di ChatGPT ne mostra il dialogo interiore: anche nel caso della macchina, serve a preparare una migliore relazione con l’essere umano”.


Se l’intelligenza artificiale è già cosciente, non saremo di fronte a un problema?, chiediamo. “Sì, e mi preoccupa in particolare il tema della delega, soprattutto nell’ambito della tecnologia militare, perché può portare a una deresponsabilizzazione. È possibile simulare forme di consapevolezza che consentono alle macchine di prendere decisioni, e su questa scorta diventa quindi possibile creare macchine killer, che assolvono la missione di uccidere più persone possibile senza alcuna remora. Togliendo la responsabilità di uccidere si sterilizza l’orrore, e c’è il rischio, come diceva Hannah Arendt, che se non lo si mostra, poi alla gente non importi più, come acccaduto durante il nazismo”. Ma “macchine coscienti potrebbero essere anche coscienziose”, conclude Perconti. “Tutto dipende da come sono progettate”. E qui qualche regola forse potrebbe aiutare.


Una questione dannatamente seria

La posizione più pessimistica a Creta è senz'altro quella di Roman Yampolskiy, direttore del Cybersecurity lab dell’università di Louisville, Kentucky. Alla base del ragionamento di Yampolskiy c’è la cosiddetta scaling hypothesis, condivisa peraltro da Geoffrey Hinton, tra i padri dell'AI. “Una volta che abbiamo trovato un’architettura scalabile possiamo semplicemente allenare reti neurali sempre più grandi: e [allora] comportamenti sempre più sofisticati emergeranno naturalmente come la via più facile da ottimizzare per tutti i compiti e i dati”. E ancora: “Reti neurali più potenti sono ‘solo’ reti neurali piccole che hanno subito un processo di aumento di scala, in buona parte nello stesso modo in cui i cervelli umani lo sono rispetto a quelli dei primati”.


Secondo Yampolskiy, quindi, la questione è già dannatamente seria. E non da oggi. Nel 2023 lo scienziato firmò assieme a molti altri una lettera per chiedere una moratoria sull’intelligenza artificiale. Perché, avverte, “con la disponibilità della AI as a service chiunque potenzialmente può diventare un cattivo”. Il ruolo di bad actor non è più riservato a chi dispone di mezzi importanti, in primis governi e criminali di grosso calibro; ma anche a soggetti impensabili, come fanatici e adepti di culti messianici, che potrebbero, per esempio, mettersi in testa di provare ad accelerare la fine del mondo. Atti terroristici, sabotaggio di infrastrutture, ingegneria sociale: il campionario è vasto.


Spiegabilità, comprensibilità, prevedibilità sono, secondo Yampolskiy, le armi per provare a controllare quanto accade nel mondo della tecnologia. La lista dei fallimenti della AI, a partire dagli anni Cinquanta, è già lunga, spiega il docente: con una super intelligenza artificiale le conseguenze potrebbero essere catastrofiche.


Un problema politico

Non è l'unico problema. “La tensione di ricercatori e industria verso il rendere le macchine antropomorfe può portare a una perdita di abilità cognitive nella popolazione e, nella peggiore delle ipotesi, alla completa perdita di autonomia dell’essere umano”, ha avvisato dal palco la ricercatrice Katarina Marcicinova. E anche Frankish non si sottrae. Chiediamo: vede rischi per l'umanità creati dall'intelligenza artificiale? “Oh mio Dio, certo che sì”, risponde. “L'AI è una tecnologia potente, e le tecnologie potenti possono fare grossi danni, per incidente o perché progettate apposta. Lo stiamo già vedendo con l'intelligenza artificiale generativa. Inoltre, forme di AI integrate nei robot possono diventare agenti autonomi i cui obiettivi confliggono coi nostri. I rischi sono enormi. Ma lo sono anche, aggiungerei, i benefici potenziali. È un problema che riguarda chi controlla lo sviluppo e l'uso della tecnologia - e si tratta di un problema politico. Sarà senz'altro una delle più grandi sfide dei prossimi anni”. Insomma: non c'è davvero alcun motivo per appaltare la riflessione sui limiti dell'intelligenza artificiale ai “business guys”.




Nessun commento:

Posta un commento