L’intelligenza artificiale toglierà umanità? Oppure sarà l’assenza di umanità a preparare il terreno ad una intelligenza artificiale sempre più dilagante?
Da qualche tempo l’intelligenza artificiale non è più uno strumento che si va a cercare. È diventata un ambiente in cui noi abitiamo quotidianamente. Meta, lo sappiamo, l’ha integrata dentro i suoi social network e dentro WhatsApp, e ciò che prima era opzionale ora è incorporato nelle piattaforme che usiamo ogni giorno. L’AI non è più una tecnologia distante. Sebbene è presente nelle nostre vite da qualche mese, anche gratuiramente, sembra che siano passati anni, sembra che ci sia sempre stata. Si tratta di una presenza più o meno silenziosa, pronta a intervenire mentre scriviamo, leggiamo, rispondiamo, quasi fosse il nostro buon vecchio T9.
Io stesso la utilizzo, la uso nel mio lavoro, per esplorare alternative, per rendere più chiaro un passaggio, per togliermi dubbi. Non sono contro le nuove tecnologie. Non lo sono mai stato. Anzi, riconosco che molte competenze maturate nel mondo analogico oggi trovano nell’intelligenza artificiale un’estensione utile. L’AI può aumentare l’efficacia, può ridurre la ripetitività, può offrire punti di vista che aiutano a riflettere. Semmai io ho sempre parlato di consapevolezza nell’uso. Proprio per usare gli strumenti e non essere usato.
Il mio sguardo di fiducia
Quando ho iniziato a guardare con fiducia a questa evoluzione, avevo una speranza precisa. Pensavo che costruire macchine capaci di simulare il pensiero umano ci avrebbe obbligati a capire meglio cosa significhi davvero pensare. Immaginavo che, nel momento in cui avessimo delegato alle macchine le attività meccaniche e ripetitive, l’essere umano avrebbe sentito il bisogno di approfondire la propria parte più complessa, più fragile. Mi aspettavo che l’intelligenza artificiale producesse un aumento di consapevolezza.
Purtroppo oggi temo che stia accadendo qualcosa di diverso. Non perché la tecnologia sia pericolosa in sé, ma perché il terreno su cui si è innestata è già fragile. La fatica del pensiero, grazie al consumo massiccio di video e di scrolling era già poco allenata. L’abitudine alla scorciatoia era già più che diffusa. L’idea che ogni problema debba avere una risposta e una soluzione immediata era già radicata prima ancora che arrivasse l’intelligenza artificiale generativa.
L’intelligenza artificiale non può sbagliare
Qualche giorno fa una bambina di prima media mi ha detto con naturalezza che l’intelligenza artificiale non può sbagliare i suoi compiti. In quella frase non c’era arroganza. C’era fiducia nello strumento e, allo stesso tempo, una sottile svalutazione del proprio processo di apprendimento. Se la macchina non sbaglia, intanto perché rischiare? Ma anche che l’errore diventa qualcosa da evitare, non qualcosa da attraversare.
Eppure è proprio l’errore che educa il pensiero.
Il problema, dunque, lo ripeto, non è lo strumento. Il problema è l’uso che ne faremo, e cosa ne faranno le generazioni che non hanno conosciuto un prima analogico e che rischiano di non sviluppare mai una relazione sana con la fatica cognitiva. Quando una risposta è immediata, è naturale che si scelga la via più breve. Quando una spiegazione è disponibile in pochi secondi, è difficile resistere alla tentazione di accettarla senza scomporla.
Pensare, infatti, richiede tempo, concentrazione, fatica, richiede la disponibilità a restare nel dubbio. L’intelligenza artificiale promette velocità, mentre il pensiero umano ha bisogno del suo tempo. L’AI offre soluzioni, mentre la maturazione personale nasce dal problema.
Se questo processo si indebolisce, non perdiamo soltanto competenze tecniche. Perdiamo struttura interiore. Una persona che non è abituata a riflettere fatica a valutare le conseguenze delle proprie azioni. Una persona che non ha allenato il dubbio tende a reagire per impulso. Una persona che non attraversa l’errore sviluppa una fragilità nascosta, perché non ha costruito strumenti per reggere l’imprevisto.
Le cronache degli ultimi anni raccontano una società sempre più connessa e sempre più sola. Raccontano relazioni che si interrompono con facilità, discussioni che si polarizzano, parole che diventano armi invece che ponti. Raccontano giovani che faticano a nominare le proprie emozioni e adulti che preferiscono evitare il conflitto piuttosto che affrontarlo con pazienza.
L’intelligenza artificiale che si inserisce nel vuoto
In questo contesto l’intelligenza artificiale non crea il vuoto. Si inserisce nel vuoto.
La macchina sostituisce l’uomo dove l’uomo si è già ridotto a funzione. La chat automatica prende il posto di chi risponde sempre nello stesso modo, senza cura. L’algoritmo diventa preferibile quando la relazione è percepita come un costo e non come un investimento. L’AI occupa gli spazi dove l’umanità si è ritirata. Per questo continuo a dire che il vero rischio non è tecnologico. È culturale e semantico.
Il capitale semantico
Negli ultimi mesi ho parlato spesso di capitale semantico declinandolo in modi diversi, per renderlo più divulgativo possibile. Con questa espressione intendo quel patrimonio invisibile fatto di significati condivisi, di precisione linguistica, di capacità di distinguere, di argomentare, di ascoltare prima di replicare. Il capitale semantico non cresce con la velocità, ma con l’esercizio. Si costruisce nel tempo, attraverso letture difficili, conversazioni lente, conflitti attraversati senza gridare.
Quando questo capitale si impoverisce, le parole si svuotano. I discorsi si accorciano. Le opinioni diventano slogan. In un contesto simile, l’intelligenza artificiale può produrre testi formalmente corretti che però non trovano più un terreno critico capace di valutarli. Se il nostro capitale semantico si assottiglia, non saremo più in grado di distinguere tra un pensiero autentico e una sequenza plausibile di frasi.
L’uso che faccio dell’intelligenza artificiale
Quando utilizzo l’intelligenza artificiale, mi accorgo che il lavoro più importante non è quello che fa lei. È quello che faccio io dopo. Rileggo ciò che ho ottenuto, modifico le parole, taglio le parti che non mi rappresentano, mi fermo su una frase e mi chiedo se nasce davvero dalla mia esperienza o se sto semplicemente accettando una soluzione elegante. A volte chiudo tutto e ricomincio da capo, perché sento che il processo è più importante del risultato.
Non lo faccio per orgoglio. Lo faccio per allenamento. Anche se poi, scrivo meglio e vengo letto di meno.
Se smetto di esercitare il mio pensiero, se delego completamente la fatica, allora non sto usando uno strumento. Sto abdicando a una responsabilità.
Una battaglia per l’educazione al pensiero
Non è una battaglia contro l’intelligenza artificiale. È una battaglia per l’educazione al pensiero. È una sfida che riguarda la scuola, la famiglia, il lavoro, le relazioni quotidiane. Se vogliamo che la tecnologia resti uno strumento al servizio dell’uomo, dobbiamo ricostruire spazi in cui il dubbio abbia dignità, in cui l’errore non sia un fallimento ma una tappa, in cui la lentezza non sia vista come inefficienza.
L’intelligenza artificiale non diventa pericolosa quando è potente. Diventa pericolosa quando noi smettiamo di essere profondi. E la profondità, per quanto la tecnologia possa evolversi, resta una responsabilità interamente umana.
La domanda allora non è se l’AI ci renderà meno umani. La domanda è se siamo ancora disposti ad allenare la nostra umanità anche quando una macchina è pronta a sostituirne la fatica.