Negli ultimi anni la resurrezione digitale è diventata uno dei temi tra i più discussi nel dibattito sull’intelligenza artificiale e sulla memoria online.
Negli ultimi anni la resurrezione digitale è diventata uno dei temi più discussi nel dibattito sull’intelligenza artificiale e sulla memoria online.
Il termine indica la possibilità di ricreare, attraverso sistemi di IA generativa, una replica conversazionale di una persona scomparsa a partire dai dati che ha lasciato nel tempo: messaggi, email, registrazioni vocali, fotografie, video, contenuti social. Un archivio digitale costruito per ricordare si trasforma così in una presenza attiva, capace di rispondere, dialogare e simulare uno stile personale.
Le domande che non possiamo ignorare
La resurrezione digitale solleva interrogativi tecnologici, etici e giuridici sempre più urgenti: chi controlla questi gemelli digitali? A chi appartengono le parole generate dall’algoritmo? E quali effetti può avere, sul piano psicologico, la possibilità di “parlare” con una replica artificiale di chi non c’è più?
Per orientarsi tra innovazione, lutto e identità digitale, è utile partire da un cambiamento concreto nel modo in cui conserviamo la memoria.
Fino a pochi anni fa, il ricordo di una persona defunta aveva una forma stabile: fotografie, lettere scritte a mano, registrazioni audio, video di famiglia. Tracce e frammenti che custodivano il passato senza pretendere di animarlo. Oggi, con l’IA generativa, quella memoria può diventare una conversazione: non più qualcosa da guardare o ascoltare, ma qualcuno con cui parlare.
Cosa sono i deathbot
Queste repliche vengono chiamate deathbot, griefbot o gemelli digitali. In ambito internazionale si usa anche il termine digital necromancy — necromanzia digitale — un’espressione volutamente provocatoria per descrivere la trasformazione delle tracce online in una presenza artificiale attiva anche dopo la morte.
Il funzionamento tecnico è relativamente lineare: i sistemi di IA apprendono dai materiali disponibili, modellano uno stile linguistico, ricostruiscono una voce, animano un volto e producono nuove frasi coerenti con la personalità originaria. Non si limitano a riprodurre ciò che è già stato detto, ma generano nuove risposte e nuove conversazioni plausibili. È qui che la questione si fa più complessa.
La differenza con un chatbot tradizionale
Un chatbot tradizionale, anche quando usa modelli linguistici avanzati, è progettato per svolgere una funzione precisa: fornire informazioni, guidare un utente, assistere in un processo. La sua natura è dichiarata. È uno strumento. Ed anche quando la funzione è così chiara, io ho sempre detto che è necessario progettare chatbot etici.
Nel caso dei gemelli digitali post mortem, l’interfaccia conversazionale non è più un servizio, ma diventa una simulazione identitaria. L’utente non interagisce con un assistente, ma con la rappresentazione di una persona amata. La conversazione non è orientata a un compito, ma a un legame affettivo.
Questa differenza ha implicazioni importanti sul piano della responsabilità. Ogni interfaccia conversazionale definisce cosa può essere detto, cosa può essere chiesto, quali limiti esistono. Quando il soggetto simulato è una persona defunta, il margine di errore non è solo tecnico: può essere esistenziale. L’algoritmo può generare risposte che suonano autentiche, ma che non sono mai state realmente pensate o pronunciate dalla persona originaria. La somiglianza non coincide con la verità.
Un mercato già attivo, una regolamentazione in ritardo
Il mercato della cosiddetta grief tech è già una realtà. Startup e grandi aziende tecnologiche stanno sviluppando avatar conversazionali, ologrammi e profili social attivi dopo la morte. I modelli linguistici rendono queste simulazioni sempre più credibili, ma la regolamentazione fatica a tenere il passo.
Le leggi proteggono dati, testi e registrazioni. Molto meno chiaro è lo statuto giuridico delle frasi generate autonomamente dall’IA: a chi appartengono? Chi controlla nel tempo quella replica? Chi decide cosa può dire — e cosa no?
Chi aderisce a questi servizi firma contratti spesso lunghi e complessi. Le piattaforme si riservano in genere diritti ampi sui contenuti generati: se l’azienda chiude, la replica può scomparire; se viene acquisita, può essere modificata; se i dati vengono riutilizzati, l’immagine della persona può circolare in contesti non previsti. L’identità postuma rischia così di diventare una variabile all’interno di un modello di business.
Gli effetti psicologici
Interagire con una replica digitale di una persona cara può offrire conforto nelle prime fasi del lutto: sentire una voce familiare, leggere risposte che ricordano qualcuno di amato può attenuare il senso di vuoto.
Tuttavia, il lutto è un processo complesso e personale. La memoria umana è dinamica: si trasforma nel tempo, rielabora, integra. Una presenza artificiale che continua a produrre nuove parole rischia di interferire con questo processo, introducendo elementi che non appartengono alla storia reale della persona ma che entrano comunque nella sfera emotiva di chi resta.
C’è anche un limite strutturale da tenere presente: l’intelligenza artificiale può simulare coerenze linguistiche, ma non possiede intenzionalità, coscienza o esperienza vissuta. Può generare significati formali, non significati incarnati. Un gemello digitale può imitare la superficie del linguaggio, ma non il vissuto che lo sosteneva.
La dimesione psicologica
Esiste poi una dimensione psicologica che non può essere ignorata. Interagire con una replica digitale di una persona cara può offrire conforto, soprattutto nelle fasi iniziali del lutto. Così come sentire una voce familiare, leggere risposte che ricordano la persona amata può attenuare il senso di vuoto. Tuttavia, il lutto è un processo complesso, fragile, personale.
La memoria umana è dinamica: si trasforma nel tempo, rielabora, integra, talvolta addolcisce. Una presenza artificiale che continua a produrre nuove parole rischia di interferire con questo processo, introducendo elementi che non appartengono alla storia reale della persona ma che entrano comunque nella percezione emotiva di chi resta.
Come architetto dell’informazione e progettista di sistemi conversazionali, vedo qui una tensione fondamentale.
Un gemello digitale può imitare la superficie del linguaggio, ma non può ricostruire il capitale semantico che lo sosteneva.
Riflessioni sulla memoria
Riflettere sui deathbot significa dunque interrogarsi su che cosa vogliamo preservare davvero quando parliamo di memoria.
Vogliamo conservare le tracce o prolungare l’illusione della presenza? Vogliamo un archivio o una simulazione attiva?
Ogni traccia online contribuisce già oggi a costruire un archivio permanente della nostra esistenza digitale. Con l’intelligenza artificiale, quell’archivio può trasformarsi in un interlocutore.
Non credo che la risposta possa essere un rifiuto semplicistico della tecnologia. Sarebbe ingenuo. Le interfacce conversazionali sono strumenti potenti e, in molti ambiti, profondamente utili. Ma proprio per questo occorrono regole chiare su consenso, trasparenza, controllo e possibilità di disattivazione. Occorre soprattutto una consapevolezza culturale.
Non tutto ciò che può essere simulato deve necessariamente essere mantenuto in vita.
In fondo la domanda più importante non riguarda la potenza degli algoritmi, ma la forma che vogliamo dare alla nostra memoria collettiva.
Se la memoria diventa dialogo permanente, se la morte non coincide più con il silenzio digitale, dobbiamo chiederci chi governa quella voce e a quale scopo. Perché progettare un’interfaccia conversazionale significa sempre progettare una relazione. E quando la relazione riguarda chi non può più scegliere, la responsabilità diventa ancora più grande.