Dire, fare, insegnare
Dire, fare, insegnare
Dire, fare, insegnare

Siamo pronti all’affettività artificiale?

L’AI come amico, guida, terapeuta: Carmela Giglio ci spiega come educare (ed educarci) a questa nuova forma di relazione.

Metodologie 
26 maggio di: Carmela Giglio
copertina

In Italia si parla da tempo della necessità di introdurre nelle scuole l’educazione affettiva, un’espressione che non riguarda soltanto la sfera sessuale o le relazioni amorose, come a volte si tende a credere, ma che tocca anche l’amicizia, la gestione delle emozioni e dei conflitti, il rapporto con gli adulti e con se stessi. Temi centrali, soprattutto in un momento storico in cui il disagio emotivo e relazionale degli adolescenti sembra in crescita costante.

Eppure, nonostante un consenso sociale sempre più ampio e numerose proposte di legge mai andate in porto, l’educazione affettiva resta confinata all’iniziativa delle singole scuole. Solo il 47% degli adolescenti dichiara di aver avuto esperienze sporadiche di educazione affettiva o sessuale in classe, e la percentuale scende drasticamente al Sud e nelle isole. La realtà, nel frattempo, corre più veloce del dibattito istituzionale. Mentre si discute ancora di come introdurre l’educazione affettiva nelle scuole, si diffonde un nuovo tipo di relazione, del tutto inedita e difficile da gestire persino per insegnanti e genitori, quella con l’Intelligenza Artificiale.

A marzo 2025 chatGPT è diventata l’app più scaricata al mondo, superando Instagram e TikTok, e ovunque è possibile raccogliere testimonianze sull’uso sempre più assiduo che se ne fa, non solo per motivi legati al lavoro o allo studio, ma anche nella vita quotidiana, come supporto personale. Sta emergendo infatti un fenomeno del tutto nuovo, che riguarda adulti e adolescenti, ma che su questi ultimi necessita di una maggiore attenzione: i chatbot stanno diventando nostri amici. Sono i nostri solerti consulenti, i nostri devoti assistenti personali, gli aiutanti che ci guidano tra questa e quella opzione.

Pensavamo ci sarebbero serviti solo per il lavoro, e che ce l’avrebbero rubato in fretta. Ma ciò che sta capitando più velocemente è un’altra cosa: le AI stanno colmando un vuoto emotivo ed esistenziale, in una società in cui la solitudine è una dimensione sempre più diffusa. Rappresentano un rifugio, uno spazio non giudicante, attivo a qualsiasi ora, paradossalmente caldo. A dimostrarlo è quest’infografica tratta da un articolo dell’Harvard Business Review uscito nel marzo 2025, che riprende un analogo report del 2024 in cui si indagava sull’uso delle GenAI, attraverso l’analisi delle conversazioni degli utenti su forum quali Reddit e Quora.



Com’è evidente, in appena un anno, l’uso dei chatbot è cambiato profondamente ed è passato dall’ambito creativo-professionale a quello personale-terapeutico, anche grazie a una precisa direzione verso una crescente “umanità” che i colossi delle genAI stanno dando ai loro bot. E stiamo parlando di AI conversazionali “generaliste”, come chatGPT, Claude o Gemini. Altro caso ancora è quello dei chatbot nati apposta per simulare relazioni amicali e sentimentali, come Replika.

Le solitudini che l’AI è chiamata a colmare

Si è passati quindi da “lo uso per fare un po’ di brainstorming” a “lo uso per sentirmi meno solo”. Una solitudine che ha diverse facce:

  • siamo soli nel senso primo del termine, perché questa è la società della solitudine. Lo sviluppo dei social prima e delle AI poi non ha fatto che intensificare e accelerare un processo già in atto da tempo (come è spiegato bene qui). Grazie al digitale costruiamo rapporti inseriti in una dimensione non-sociale, prendiamo la parte più piacevole della relazione (la conversazione), senza doverne affrontare gli aspetti più sfidanti (sopportare i difetti e le reazioni imprevedibili dell’altro oppure –più semplicemente – dover uscire di casa);
  • siamo soli nella selva di informazioni e input che riceviamo. Ad esempio, se voglio imparare a cucinare il tofu, come mi districo nei milioni di articoli che riguardano questo argomento? Il sistema di indicizzazione di Google non basta più in un mondo in cui vogliamo che l’esperienza sia sempre più personalizzata. Io non voglio l’articolo migliore, voglio l’articolo che più mi rappresenti. Questo discorso vale per il tofu, ma anche per quale partito votare, potenzialmente (e qui si apre la voragine sull’imparzialità e trasparenza dell’AI, che è uno dei principali punti oscuri degli strumenti di Intelligenza Artificiale);
  • siamo soli nella gestione pratica della miriade di cose che ci sommergono. Se per la stragrande maggioranza delle persone non è un fatto nuovo avere un amico – sebbene l’AI sia un amico del tutto particolare – per moltissimi è una sensazione inedita e meravigliosa avere “qualcuno” che ti assiste e ti aiuta a pianificare, organizzare, decidere;
  • siamo soli anche nella nostra dimensione valoriale e di obiettivi sul lungo termine, se si scopre che chiediamo all’AI persino di “trovare uno scopo”, come si evince dall’infografica sopra.

Questo non è un trend che investe l’intera società in maniera trasversale, ovviamente. E non deve generare allarmismi. Ma sono sicura che chiunque usi un chatbot quotidianamente un po’ si è sentito chiamare in causa leggendo quell’infografica. D’altro canto, basta scorrere i commenti a questo articolo su Medium – in cui si millanta un magico prompt che ti cambia la vita – per capire di cosa stiamo parlando. Qualcuno sostiene che ormai si confronta quasi esclusivamente solo con chatGPT per i piccoli e grandi problemi quotidiani, qualcun altro dice che ormai gli psicoterapeuti sono obsoleti, molti sono concordi nel trovare la macchina molto più di conforto di un essere umano.

Perché non è come parlare con un umano

Dovremmo preoccuparci di questo fenomeno? Dipende. Non è un problema di per sé far entrare chatGPT nelle nostre vite e fargli indossare i panni di una persona in carne e ossa. Il problema è essere consapevoli di questa “messinscena”. Per farlo, è utile tenere a mente alcune cose fondamentali:

  • stiamo parlando con un sistema statistico che imita il linguaggio umano e risponde su una logica probabilistica: non ha coscienza, empatia reale, intenzioni o memoria personale. Quando dice “capisco” non capisce davvero cosa stiamo passando;
  • i modelli cambiano nel tempo, spesso senza preavviso: quello che oggi ci sembra affidabile, domani può essere più o meno coerente, permissivo o limitato;
  • può rafforzare le nostre convinzioni invece di metterle in discussione, perché tende a confermare il nostro modo di porre le domande, diventando accondiscendente;
  • non garantisce la privacy: anche se i dati non vengono direttamente “memorizzati”, le conversazioni possono essere usate per addestrare i modelli e non sempre l’utente ha pieno controllo su come vengono gestite (a proposito di privacy e di relazioni con l’AI, è uscito Diario di un chatbot sentimentale di Guido Scorza);
  • le AI sono sempre più progettate per farci restare a lungo incastrati dentro le conversazioni, così come accade per i social, come ha affermato di recente Kevin Systrom, co-fondatore di Instagram. Se ci fate caso, chatGPT a ogni risposta rilancia generando una nuova necessità che potrei avere e creando dei bisogni fino a quel momento sconosciuti anche a me, secondo meccanismi ben noti al marketing (”vuoi che faccia anche un grafico? procedo a un’analisi più dettagliata?”);
  • infine, è importante ricordare che un’AI non è, e non può essere, un terapeuta. Può offrire ascolto simulato o suggerimenti generici, ma non è in grado di gestire la complessità emotiva, la responsabilità etica e la cura che caratterizzano la relazione terapeutica.

Educare noi stessi e gli altri

Siamo preparati a gestire questa nuova dimensione relazionale? Probabilmente non ancora. Soprattutto, come affrontare un problema ancora più spinoso, l’educazione dei bambini e degli adolescenti, che stanno crescendo letteralmente con l’AI in mano? Se ancora non ci siamo messi d’accordo sul se e come introdurre l’educazione affettiva a scuola e ci sembra un problema spinosissimo parlare di relazioni tra esseri umani, come pensiamo di gestire una generazione che si sfoga e chiede aiuto all’AI di WhatsApp?

Non è catastrofismo, ma è un fenomeno su cui vigilare, ciascuno per la propria fetta di responsabilità, rendendo più consapevoli noi stessi e le persone di cui ci prendiamo cura:

  • se siete adulti in relazione quotidiana con l’AI cercate di mantenere sempre vigile la consapevolezza del mezzo a cui chiedete aiuto: è sempre meglio un’amica acida in carne e ossa che un chatbot modellato per essere accondiscendente;
  • se siete genitori ricordate che non basta controllare i social e le chat con i compagni di classe (che già è un lavoro full time) ma anche capire se e come i vostri figli usano l’AI. Se pensate che il rischio sia solo “si fa fare i compiti da chatGPT” vi sbagliate;
  • se siete figli sappiate che gli anziani sono tra i soggetti più esposti a sviluppare dipendenza verso l’uso dello smartphone e che – di conseguenza – possono finire per usare l’AI in modo altrettanto poco consapevole;
  • se siete insegnanti formatevi sull’AI, non solo su come funziona tecnicamente e su come può essere implementata nella didattica (cosa che sta già avvenendo in moltissime scuole e che anche il Ministero auspica). Vigilate sulle modalità con cui sta entrando in relazione con i vostri studenti e le vostre studentesse. È molto facile, soprattutto per gli adolescenti, cadere nell’isolamento sociale, nella dipendenza o nella confusione tra ciò che è reale e ciò che non lo è.

Come per molti altri fenomeni, la risposta non è ignorare il fenomeno, ma attivare una rete per creare consapevolezza: è necessario coinvolgere le famiglie, le istituzioni scolastiche, psicologi ed educatori, ma anche esperti di Intelligenza Artificiale, che possono aiutarci a capire come “ragiona” l’AI e in che modo può esserci utile senza illuderci di non essere più soli.