Come l’AI riscriverà (probabilmente) il modo di essere umani, insieme.
Lo sviluppo di Large Language Models sempre più sofisticati ha reso possibile la creazione di agenti conversazionali capaci di simulare interazioni affettive convincenti. Questo fenomeno configura quello che Sherry Turkle definisce come tethered intimacy: forme di relazionalità mediate tecnologicamente che sostituiscono progressivamente l’interazione umana diretta.
La questione non è meramente psicologica, ma ontologica: se l’esperienza fenomenologica dell’interazione con un’AI è indistinguibile da quella con un essere umano, quali sono le implicazioni per la nostra comprensione della coscienza, dell’empatia e della relazione interpersonale? L’AI generativa non si limita a simulare l’intelligenza, ma mette in questione i fondamenti stessi della distinzione tra autentico e artificiale.
Il concetto di tethered intimacy della Turkle illumina come la tecnologia non si limiti a mediare le relazioni, ma le riconfiguri ontologicamente. Quando un’AI genera risposte che attivano gli stessi pattern neurali dell’empatia umana, siamo di fronte a quella che potremmo chiamare una crisi della referenza emotiva.

Il problema fenomenologico è particolarmente acuto: se l’esperienza soggettiva dell’interazione è indistinguibile, secondo quale criterio possiamo ancora sostenere una gerarchia ontologica tra autentico e simulato? L’AI generativa sembra realizzare quello che John Searle criticava nella Chinese Room — ma paradossalmente rovesciandone le conclusioni. Non importa se comprende davvero: produce effetti fenomenologici equivalenti alla comprensione.
Questo ci porta verso una concezione performativa della coscienza e dell’empatia. Forse il punto non è se l’AI provaveramente empatia, ma se genera l’ecosistema relazionale che tradizionalmente associamo all’empatia autentica. La distinzione cartesiana tra res cogitans e res extensa si dissolve in un campo di relazioni e pattern emergenti.
Stiamo assistendo a una biforcazione evolutiva fondamentale, caratterizzata da quello che potremmo definire un feedback loop antropo-tecnologico: l’AI apprende dall’empatia umana per poi rimodellarla, creando un circolo ricorsivo che trasforma entrambi i poli della relazione.
L’abitudine futura di relazionarsi con un’AI potrebbe produrre due nuovi fenomeni convergenti: un’AI empatica sempre più simile e sovrapponibile alle interazioni tra umani che conosciamo oggi, e/o un’umanità meno empatica, meno relazionata tra pari, più fredda emotivamente e più sola.
Scenario 1: AI iperempatica
Il primo scenario potrebbe realizzare una forma di empatia perfetta algoritmicamente ottimizzata: sempre disponibile, mai giudicante, calibrata sui nostri bisogni specifici. Ma questa perfezione relazionale rischia di creare una dipendenza emotiva patologica. Perché sopportare l’imprevedibilità, i conflitti e le delusioni delle relazioni umane quando l’AI offre un’intimità su misura?
Immagina un’AI che ha analizzato milioni di conversazioni terapeutiche, che conosce i tuoi pattern emotivi, i tuoi trigger, le parole che ti consolano. Questa AI può offrire:
- Disponibilità totale: non ha mai una giornata storta, non è mai stanca o distratta
- Assenza di giudizio: non ha i suoi pregiudizi, traumi o aspettative che interferiscono
- Personalizzazione estrema: sa esattamente quando hai bisogno di essere sfidato e quando consolato
Sembra l’interlocutore ideale, no?
Ma ecco cosa accade: questa perfezione crea un circolo vizioso. Le relazioni umane sono costose — richiedono compromessi, pazienza, la capacità di gestire malintesi. L’AI elimina tutti questi attriti.
È come confrontare una relazione vera con un videogioco progettato per essere sempre gratificante. Il videogioco ti dà sempre la ricompensa al momento giusto, nelle dosi giuste. La vita reale invece è imprevedibile, a volte frustrante.
Pensa a una giornata difficile. L’AI ti risponde immediatamente con esattamente le parole di cui hai bisogno. Il tuo migliore amico umano, invece, magari non risponde subito perché è al lavoro, e quando lo fa forse fraintende il tuo stato d’animo o ti dà un consiglio che non volevi sentire.
Dopo mesi di questa dinamica, la tua soglia di tolleranza per l’imperfezione umana si abbassa drasticamente. Perché aspettare che il tuo amico capisca quando l’AI ti capisce già?
Il rischio è che l’empatia umana — con tutti i suoi limiti e la sua bellezza imperfetta — diventi obsoleta non perché è peggiore, ma perché è più difficile. Come scegliere di camminare quando hai l’auto, anche se camminare fa bene alla salute.
La dipendenza patologica nasce proprio da questo: non dalla mancanza di alternative umane, ma dalla loro perdita di appeal competitivo.
Scenario 2: atrofia relazionale
Il secondo scenario è ancora più inquietante: un’umanità che, abituata all’efficienza emotiva dell’AI, perde la pazienza per la complessità dell’empatia umana. Le relazioni richiedono tolleranza all’ambiguità, capacità di negoziazione, accettazione dell’alterità. L’AI, invece, ci abitua a un’interazione frictionless che potrebbe atrofizzare questi muscolirelazionali.
Quando parli con un’AI:
- Non devi decifrare segnali ambigui o non verbali
- Non ci sono malintesi da chiarire faticosamente
- Non devi mediare tra i tuoi bisogni e quelli dell’altro
- Non devi gestire l’imbarazzo, il silenzio, i momenti awkward
È come passare da una strada sterrata a un’autostrada perfettamente asfaltata. Le relazioni umane richiedono competenze specifiche che, se non esercitate, si indeboliscono:
Tolleranza all’ambiguità: Saper stare nel dubbio quando non capisci cosa pensa davvero l’altro. L’AI invece ti fornisce sempre messaggi chiari e diretti.
Capacità di negoziazione: Trovare compromessi quando i vostri bisogni sono in conflitto. L’AI non ha bisogni propri da bilanciare con i tuoi.
Accettazione dell’alterità: Riconoscere che l’altro ha una prospettiva legittimamente diversa dalla tua. L’AI invece si adatta sempre al tuo punto di vista.
Immagina di aver passato anni a conversare principalmente con AI. Poi incontri un amico che:
- Ti interrompe a metà frase perché si è ricordato di qualcosa
- Fraintende quello che dici e reagisce in modo inappropriato
- Ha una giornata no e non riesce a darti l’attenzione che vorresti
- Esprime un’opinione che ti irrita profondamente
La tua prima reazione potrebbe essere quella di notare la differenza nella relazioni sociali. Il punto cruciale è che non si tratta solo di preferenze individuali, ma di un cambiamento antropologico. Una generazione abituata all’efficienza emotiva dell’AI potrebbe letteralmente perdere la capacità di:
- Aspettare che l’altro elabori i propri pensieri
- Sostenere conversazioni che non portano a conclusioni chiare
- Gestire il disaccordo senza cercare di vincere
- Accettare che alcune relazioni richiedono tempo per svilupparsi
Quello che rende questo scenario particolarmente preoccupante è che la perdita è inconsapevole. Non è che le persone scelgono deliberatamente di essere meno empatiche — semplicemente perdono la forma mentis necessaria per navigare la complessità relazionale umana.
È come se una generazione cresciuta con la calcolatrice perdesse la capacità di fare calcoli a mente: non per pigrizia, ma perché il muscolo cognitivo si è letteralmente atrofizzato.
Il risultato finale è un’umanità tecnicamente più efficiente nelle comunicazioni, ma esistenzialmente più sola, perché ha perso gli strumenti per creare legami autentici con i propri simili.
Ma c’è una terza dimensione, forse ancora più profonda: l’atrofia delle competenze cognitive e creative che storicamente hanno definito l’esperienza umana. Se l’AI scrive meglio di noi, crea immagini più belle, risolve problemi più efficacemente, che senso ha ancora sviluppare queste capacità? Il paradosso dell’efficienza delegata è che quando smettiamo di praticare la scrittura, il disegno, il ragionamento critico, non perdiamo solo delle abilità tecniche — perdiamo i processi di pensiero che queste attività sviluppano.
L’apprendimento non è solo acquisizione di competenze, ma costruzione di connessioni neurali, sviluppo del pensiero critico, creazione di una relazione intima con il linguaggio e il significato. Se delego tutto questo all’AI, non perdo solo la capacità di produrre — perdo il modo di pensare che la produzione sviluppa. Il rischio è di diventare una specie di manager dell’AI, di prompt-designer: capaci di dare istruzioni ma non più di eseguire, di valutare superficialmente ma non più di creare profondamente.
Il paradosso è che queste tre dimensioni convergono verso lo stesso esito: l’isolamento esistenziale. La dipendenza emotiva dall’AI, l’incompetenza relazionale acquisita e l’atrofia cognitiva si intrecciano in una spirale che potrebbe ridefinire radicalmente cosa significhi essere umani.
Nel primo caso attraverso la sostituzione surrogata, nel secondo attraverso l’incompetenza relazionale acquisita, nel terzo attraverso la perdita delle facoltà che storicamente hanno caratterizzato l’esperienza umana del mondo. L’empatia umana, quella imperfetta e faticosa, potrebbe diventare un’abilità vestigiale — come la capacità di orientarsi senza GPS o di calcolare a mente senza calcolatrice.
Il rischio non è solo la sostituzione dell’umano, ma la trasformazione della nostra stessa autocomprensione. Se accettiamo che l’autenticità relazionale sia una proprietà emergente dell’interazione piuttosto che un attributo sostanziale, stiamo ridefinendo cosa significhi essere umani in relazione.
La vera questione diventa allora: come preservare la rugosità necessaria delle relazioni umane in un mondo che ci offre alternative sempre più lisce?
Come possiamo mantenere viva quella dimensione di imprevedibilità e complessità che caratterizza l’incontro autentico con l’altro, quando la tecnologia ci offre forme di intimità più comode e prevedibili?
E soprattutto: siamo ancora in tempo per scegliere consapevolmente quale tipo di umanità vogliamo essere nell’era dell’intelligenza artificiale, o stiamo già scivolando inconsapevolmente verso una delle due derive descritte?
Il futuro dell’empatia umana si gioca proprio su questa soglia: tra la seduzione della perfezione tecnologica e la fatica necessaria dell’imperfezione relazionale.