Nel mio caso, quando il discorso si fa troppo astratto e l' IA è troppo compiacente, vado a cercare le cosiddette diadi incarnate, di cui non si può dubitare. Bisogna sempre ancorarsi alla realtà e alle di-mostrazioni.
Di Luca Zorloni
12.12.2025
Ci stiamo ammalando di epistemia, l'illusione di sapere cose solo perché l'AI le scrive bene
L'intelligenza artificiale è molto brava a farci credere di sapere cose che non sa. E noi ci stiamo convincendo di conoscerle, mentre ci affidiamo a risposte che suonano bene
C'era una volta l'episteme. La vera conoscenza, secondo i filosofi dell'antica Grecia. Oggi ci ritroviamo invece con l'epistemia. Che della conoscenza è un'illusione. Una sorta di specchio della realtà deformato da una fede cieca nelle risposte dei grandi modelli linguistici (Llm) alle nostre domande. Giudizi. Valutazioni. Classificazioni di fonti. Azioni di discernimento che deleghiamo ai modelli di AI. E fin qui, tutto lecito. Il problema insorge quando riceviamo la risposta. Quanto la prendiamo per buona?
Qui si colloca il bivio tra episteme ed epistemia. Tra conoscenza e illusione. Perché gli Llm non sono progettati per effettuare verifiche sostanziali, ma per generare una risposta che sia plausibile dal punto di vista linguistico. Il loro scopo, in fondo, è questo. Restituire un output che “suoni” bene. Al netto che sia vero o falso. Se quel risultato non viene verificato da chi delega all'AI un pezzo del suo lavoro, ecco che succede il patatrac.
È qualcosa che ricorda molto da vicino il confronto tra Socrate e i sofisti nell'Atene del quinto secolo. Di questi uno degli esponenti di spicco era Gorgia. Il quale sosteneva che nulla esiste, che se anche esistesse non sarebbe conoscibile e se anche fosse conoscibile, non sarebbe comunicabile. L'AI fa un po' il contrario, perché può comunicare tutto, pur senza conoscerlo. Alla fine, però, l'esito è lo stesso. Un esercizio di persuasione che si fonda sulla capacità di costruire un discorso plausibile, non vero.
Lo studio italiano
Un recente studio pubblicato su Pnas e condotto da un team di ricerca guidato da Walter Quattrociocchi, docente dell'università La Sapienza di Roma e al timone del Center of data science and complexity for society, ha analizzato per la prima volta in modo sistematico come sei modelli linguistici di ultima generazione, tra cui ChatGPT di OpenAI, Gemini di Google o Llama di Meta, “operazionalizzano il concetto di affidabilità". Come si legge nella nota che annunciava la pubblicazione del progetto, "il lavoro confronta le loro valutazioni con quelle prodotte da esseri umani ed esperti del settore (NewsGuard, Mbfc), utilizzando un protocollo identico per tutti: stessi criteri, stessi contenuti, stessa procedura. Il focus non è sull’accuratezza del risultato finale, ma su come il giudizio viene costruito”.
In una parola, l'epistemia. Se dovessi scegliere, è questa per me la parola dell'anno. Perché identifica questa nuova stagione della nostra società dominata dalla costruzione di una impressione di conoscenza che sta in piedi perché non si sa, perché non si sa delegare all'AI e perché non si sa controllare e verificare il risultato. Ci si bea, in compenso, di una risposta cucita talmente bene da illuderci di non poter essere che vera. L'AI ci renderà più stupidi se vorremo cullarci nella stupidità indotta. Se ci accontenteremo della prima risposta del chatbot, senza considerare i meccanismi probabilistici che governano il funzionamento dei grandi modelli linguistici.
Come reagire?
Le conclusioni dello studio condotto dal team di Quattrociocchi non identificano solo il problema, ma indicano anche la soluzione. Che è saperne di più dell'AI a cui ci affidiamo. Delegare la navigazione solo se si conosce la rotta, la destinazione, gli scogli che affiorano. O se si hanno gli strumenti per comprendere se, circondati dalla nebbia, si sta viaggiando nella giusta direzione. L'impiego dell'AI richiede di alzare il nostro livello di conoscenza, di ampliarlo e di mantenerlo aggiornato. Da un lato, rispetto alla capacità di utilizzare gli strumenti di intelligenza artificiale, di saperne distinguere i risultati, i meccanismi di funzionamento e quindi i punti di forza e quelli di debolezza. Dall'altro, rispetto alle materie su cui chiedono all'AI di sostituirci a noi.
Alla fine, quando si parla degli effetti della tecnologia sul sapere, torniamo sempre al punto di partenza. Che fake news, deepfake, epistemia si disinnescano non tanto con etichette posticce o filigrane, ma coltivando lo spirito critico, investendo sulla formazione, allenando la mente a non cadere nei tranelli di una conoscenza superficiale. È una buona notizia, se volete, che ridimensiona gli allarmi delle trombe dell'Apocalisse. Ma è anche una consapevolezza che sposta il fuoco della trasformazione dall'AI a noi stessi. E ci inchioda alle nostre responsabilità. Sapremo uscirne migliori?
Nessun commento:
Posta un commento