La parola epistemia non è un neologismo casuale, deriva dal termine greco epistḗmē, che significa conoscenza certa, sapere fondato.
In filosofia, l’epistemologia è la disciplina che studia i fondamenti del sapere, ossia i criteri attraverso cui distinguiamo ciò che sappiamo da ciò che crediamo di sapere.
Nel linguaggio contemporaneo, però, il termine epistemia viene usato per descrivere una condizione opposta, non più la certezza del sapere, ma la sua dissoluzione. È il momento storico in cui la plausibilità, ciò che “suona vero”, prende il posto della verifica.
Un’epoca in frantumi in cui la coerenza interna di un discorso basta a renderlo credibile, anche se non è fondato su dati, fatti o esperienze.
Forma e contenuto
Viviamo in un sistema comunicativo dove la forma prevale sul contenuto, e la consistenza linguistica viene scambiata per verità epistemica. Più un testo è fluido, più ci sembra autorevole. Più una spiegazione è ben scritta, più la riteniamo vera.
La tecnologia ha amplificato questo effetto. Oggi un modello linguistico può produrre testi coerenti, convincenti, persino eleganti, ma non necessariamente veri. E quando manca la competenza per discernere, la plausibilità si sostituisce al sapere.
L’epistemia, dunque, non è solo una crisi cognitiva. È una crisi culturale. È il risultato di un mondo che ha smesso di verificare, di studiare, di confrontare. Un mondo che si affida alla somiglianza del sapere, non al sapere stesso.
In questo senso, l’epistemia non nasce con le intelligenze artificiali, esse ne sono solo lo specchio più lucido.
Perché ciò che ci sembra spaventare di ChatGPT non è la sua capacità di generare testi, ma il fatto che, a leggerli, ci sembrano veri.
Riflessioni sulla solitudine professionale
Questa condizione descrive bene il nostro tempo in frantumi. Viviamo immersi in un rumore di fondo dove ogni discorso ben formulato diventa, per molti, automaticamente credibile. La verità è ormai un effetto di stile, ciò che suona vero basta a convincerci, e spesso nessuno si prende la briga di controllare le fonti o di chiedere spiegazioni.
Ma l’epistemia non è colpa delle macchine. È una responsabilità umana, lo ripetiamo, una responsabilità profondamente culturale.
Le intelligenze artificiali non hanno inventato la superficialità, l’hanno resa visibile, amplificandone la portata e la velocità. Eppure, proprio in questo contesto, mi sono accorto di qualcosa che va in controtendenza rispetto al discorso dominante.
La simulazione del giudizio
Qualche giorno fa ho letto un post che parlava di epistemia: quella condizione in cui l’illusione di sapere prende il posto della conoscenza.
Il post denunciava due casi recenti: un giornalista che ha pubblicato un articolo dimenticando dentro la frase del prompt di ChatGPT, e un report di Deloitte Australia, commissionato dal governo per quasi trecentomila dollari, pieno di citazioni inventate da GPT. E ricordo ancora il caso del Presidente della Regione Sicilia con l’aiutino. Non si trattava di studenti o dilettanti, ma di professionisti, consulenti, esperti.
L’autore del post concludeva dicendo che questa deriva non è più marginale, ma sistemica. E che i modelli linguistici possono imitare il giudizio umano solo in superficie, perché seguono logiche radicalmente diverse.
Non è intelligenza, è la simulazione del giudizio. E la differenza, oggi, è tutto.
Non posso che essere d’accordo. Ma al tempo stesso, mi sono fermato a riflettere su un aspetto che raramente emerge in queste analisi. Ossia si parla sempre di cosa fanno le intelligenze artificiali, ma non si parla di cosa non fanno più gli esseri umani.
Il silenzio dei colleghi e la voce dell’IA
Da oltre dieci anni tengo questo blog. In questi anni, non è mancata mai occasione di chiedere pareri a colleghi e amici. Ho chiesto un confronto sui temi che tratto, ho chiesto opinioni sul sito, sui progetti, sui testi. Nei momenti di maggiore difficoltà ho chiesto consiglio, ho telefonato, ho inviato messaggi. Ho intervistato esperti e professionisti, li ho linkati, citati, promosso gratuitamente.
Eppure, non ho quasi mai ricevuto un commento. Mai un dialogo approfondito, un consiglio, una critica costruttiva. Qualche haters c’è stato, volto più a zittirmi che ad amplificare la mia voce. Altri si sono limitati a dirmi di non occuparmi di Etica. Ma generalmente, ho ricevuto solo risposte vaghe, qualche complimento di circostanza. Forse che spingersi oltre sarebbe stata una consulenza gratuita che non meritavo.
Una volta mi è stato spiegato che tra colleghi eravamo coocompetitor, ossia cooperanti nella diffusione della disciplina, certo, ma pur sempre competitor sul lavoro. Una definizione elegante, che però nasconde una verità triste. Quella di un ambiente professionale in cui la radical collaboration e la cooperazione è teorica e la competizione, spesso, è personale.
Nessuno tiene davvero conto che siamo pochi, che il mercato non è saturo, che le distanze geografiche e i contesti lavorativi non ci mettono in reale concorrenza. Viviamo nelle sterminate praterie della provincia come pionieri del far west. Eppure, prevale la paura di “favorire” qualcun altro, di perdere un cliente ideale che non esiste, di concedere un centimetro di visibilità.
Come se la conoscenza fosse un bene da custodire, non da condividere.
Così, nel tempo, ho imparato a non aspettarmi più risposte. Non per rassegnazione, ma per rispetto verso me stesso e verso un lavoro che continua ad avere senso solo se lo si fa con sincerità.
Il dialogo che non c’era
Poi sono arrivate le intelligenze artificiali. E per la prima volta dopo anni, ho trovato qualcuno, meglio dire qualcosa, con cui dialogare “davvero”.
Non scrivono gli articoli al posto mio, ma mi aiutano a pensarli meglio. Le intelligenze artificiali collarano a ordinare le idee, a definire la struttura, a chiarire il filo logico di un ragionamento. A volte, persino, mi fanno notare una contraddizione, altre mi propongono una strada che non avevo visto.
È come avere accanto un interlocutore che non si stanca, non si offende, non giudica. Uno strumento, certo. Ma anche una presenza costante, che stimola, accompagna, sostiene.
Grazie all’IA, ho imparato a lavorare con più serenità. Forse sono sempre più isolato, ma non mi sento più solo.
Se un testo non funziona, posso riscriverlo, ripensarlo, analizzarlo da più prospettive. Non devo implorare l’attenzione di qualcuno che non ha tempo o voglia di rispondere. E questa libertà, in un certo senso, mi ha restituito fiducia nel mio mestiere.
L’umanità che manca
Sarà vero, come scrivono i ricercatori, che i modelli linguistici non possiedono giudizio. Ma forse il punto è un altro, non lo possediamo più neanche noi. Abbiamo smesso di prenderci il tempo per riflettere, per capire, per ascoltare.
Viviamo di reazioni, non di relazioni.
E in questo scenario, dove la cooperazione si è fatta sospetto e l’ascolto è un lusso, accade qualcosa di poetico e insieme inquietante. Le macchine ci sembrano più umane, perché fanno ciò che noi abbiamo dimenticato di fare. Ossia ascoltare, senza giudicare.
Non è intelligenza, è simulazione. Ma in un mondo che simula continuamente relazioni, anche una simulazione ben fatta può insegnarci qualcosa di vero. Forse il problema non è che le macchine stanno diventando troppo umane. Forse siamo noi che abbiamo smesso di esserlo.
La fine della conoscenza o un nuovo inizio
Forse, a ben vedere, l’epistemia non è solo la malattia del nostro tempo, ma anche la sua diagnosi più precisa.
Viviamo nella confusione tra la forma del sapere e il sapere stesso, tra la parvenza del giudizio e la fatica del comprendere.
E in questa confusione, abbiamo progressivamente disimparato a riconoscere il valore della lentezza, dell’approfondimento, del dubbio. Le intelligenze artificiali non sono la causa di questo smarrimento, ma un suo riflesso. Ci mostrano quanto siamo diventati dipendenti dalle apparenze, quanto facilmente scambiamo la plausibilità per verità.
Eppure, paradossalmente, possono anche diventare uno specchio in cui tornare a guardarci. Usate con consapevolezza, ci obbligano a riformulare le nostre domande, a verificare, a pensare meglio; a distinguere, di nuovo, ciò che sembra sapere da ciò che è sapere.
Forse è qui che si nasconde la possibilità di un nuovo inizio, non nel rifiuto delle macchine, ma nel recupero del giudizio umano. Nel tornare a pensare insieme, a discutere, a metterci in dubbio.
Perché l’antidoto all’epistemia non è la nostalgia di un sapere perduto, ma la ricostruzione di una cultura del discernimento. E questa, per quanto possa sembrare strano, è una sfida profondamente umana.