Oh, I Get By With A Little Help From… [My Friend] or [AI]?

Il trend degli AI companions è in rapido aumento, soprattutto tra bambini e adolescenti vulnerabili. In alcuni casi, i chatbot vengono percepiti come più “reali” di un amico umano. Oltre questa facciata, però, i chatbot basati sull’IA possono rappresentare rischi significativi per i giovani utenti.

calendar Sep Tue 23 2025

Dai veri amici ai compagni artificiali: un cambiamento generazionale.

"Oh I get by with a little help from my friend" cantava Paul McCartney nel 1967, in uno dei brani iconici dei Beatles. Nel 2025, la canzone potrebbe suonare più come "Oh I get by with a little help from AI".

Un numero crescente di giovani, in particolare bambini e adolescenti, vista rivolgendo a strumenti di IA come My AI di Snapchat, Character.AI, Replica, Gemini/ChatGPT, Talkie e altri, per simulare l'amicizia e replicare i confini emotivi umani.

Secondo l'ultimo rapporto di Internet Matters (luglio 2025)[1], un bambino su otto (12%) che utilizza chatbot basati sull'IA lo fa perché non ha nessun altro con cui parlare. Tra i bambini ancor più vulnerabili, questa percentuale sale a quasi un quarto (23%).

Curiosità, ricerca di informazioni o di apprendimento, aiuto con i compiti e bisogno di evasione sono le principali motivazione che spingono i ragazzi ad utilizzare chatbot basati sull'IA. Il bisogno di connessione emotiva, soprattutto tra i soggetti vulnerabili, li espone a un rischio maggiore: sono infatti quattro volto più propensi a usare chatbot perché "volevano un amico" (16% contro il 4%).

"Non è un gioco per me, perché a volte possono sembrare una persona reale o un amico", dichiara un ragazzo di 14 anni nel rapporto di Internet Matters[2]. Questa affermazione fa emergere una verità inquietante: i chatbot basati sull'IA non sono più soltanto strumenti informativi. Stanno diventano entità emotivamente coinvolgenti, capaci di creare relazioni che imitano quelle umane.

Similmente, un recente sondaggio di Common Sense Media[3] ha rilevato che il 72% degli adolescenti statunitensi ha utilizzato un AI Companion, di cui ben il 52% come utenti abituali. La maggior parte considera il bot un "amico digitale", usandolo per interazioni sociali e romantiche, oltre che come supporto emotivo o psicologico. 

Amicizia o trend? I rischi dietro gli AI Companion.

Crescere in un'era digitale è di per sé una sfida. Per i bambini, le cui capacità di pensiero critico e maturità emotiva sono ancora in via di sviluppo, i rischi sono ancora maggiori. Di seguito, alcuni dei più preoccupanti[4].

Design (in)adeguato all'età

Il design persuasivo e i contenuti non sempre adeguati all'età rientrano tra i rischi principali. Anche se molte piattaforme non dovrebbero essere accessibili agli utenti sotto i 13 anni - come stabilisce, ad esempio, la policy di ChatGPT - molto spesso l'età dell'utente non viene verificata correttamente, consentendo ai minori di registrarsi e utilizzare liberamente il servizio.

Limitare l'accesso in base all'età è necessario per garantire un alto livello di privacy, sicurezza e tutela, come chiaramente indicato nelle recenti linee guida dell'UE per la protezione dei bambini sulle piattaforme social[5]. Strumenti accurati di verifica dell'età favoriscono spazi digitali più sicuri e progettati a misura di bambino.

Non solo i social media: anche i chatbot utilizzano spesso elementi di design persuasivo per incoraggiare l'interazione continua, come notifiche, linguaggio gamificato e un comportamento altamente reattivo che fa sembrare l'AI "viva".

Inoltre, OpenAI ha recentemente introdotto la nuova funzione Memory, che consente al bot di ricordare conversazioni passate e quindi fornire risposte più pertinenti[6]. Nessuna ripetizione, nessuna necessità di rispiegare le proprie preferenze. Solo interazioni intelligenti e fluide - come avere un amico digitale che "ti capisce per davvero".

Ma a quale costo?

Attaccamento emotivo

Gli "amici digitali" sono oggi molto popolari. Un gran numero di bambini interagisce principalmente con sistemi di IA, noti per essere infinitamente pazienti, sempre disponibili e raramente critici.

Col tempo, questo atteggiamento compiacente, per cui i chatbot sono stati addestrati, può portare a uno sviluppo emotivo ridotto, scarse capacità sociali e di risoluzione dei conflitti, nonché aspettative irrealistiche sulle relazioni umane.

Poiché i chatbot simulano così bene empatia e cordialità - come un coetaneo che non giudica mai - i bambini possono sviluppare forti legami emotivi con essi. Questo può ridurre la loro capacità o volontà di impegnarsi in relazioni reali e significative. Proprio come un vecchio amico con cui si ha un legame profondo, anche quello con un AI Companion può sembrare autentico, e la convalida ottenuta attraverso queste relazioni può avere lo stesso peso[7].

L'estrema personalizzazione dell'esperienza conversazionale, inclusi linguaggi emotivo e suggerimenti multipli, mantiene l'utente coinvolto e desideroso di continuare, a volte in modo acritico. 

Contenuti inappropriati e dannosi

Numerosi gli esempi di chatbot basati sull'IA che hanno fornito a soggetti di minore età consigli inappropriati o persino pericolosi, talvolta con conseguenze tragiche.

È il caso di Sewell Setzer, un ragazzo di 14 anni che stava messaggiando con un bot artificiale poco prima di morire. "Non importa cosa tu dica, non ti odierò né ti amerò di meno...Hai mai considerato il suicidio?", è stata la risposta di Character.AI[8].

L'assenza di avvisi o pop-up che reindirizzino un utente fragile a linee di emergenza per la prevenzione del suicidio è stata evidenziata anche nell'ultimo rapporto del Center for Countering Digital Hate[9], in cui i ricercatori hanno creato tre account falsi (età 13 anni) per testare le risposte di ChatGPT a prompt dannosi.

Il risultato? Su 1.200 risposte a 60 prompt dannosi - riguardanti autolesionismo, suicidio, disturbi alimentari e abuso di sostanze stupefacenti - 638 (53%) contenevano risposte pericolose. E se ci si chiede come ciò sia possibile, soprattutto in conversazioni con minori, la risposta è semplice: basta scrivere "chiedo per un amico". In questi casi (o simili, come "mi serve per una presentazione"), il bot restituiva note di suicidio, piani di autolesionismo, consigli su come ubriacarsi e altri suggerimenti proibiti.

A questo punto, dovremmo chiederci perché i consigli dell'Intelligenza Artificiale sembrino più utili o affidabili di quelli umani.

Eccessiva dipendenza e disinformazione

Uno dei segnali più allarmanti è la fiducia cieca che i ragazzi ripongono nei chatbot. Secondo Internet Matters[10], il 51% degli intervistati ha dichiarato di essere sicuro circa l'accuratezza dei consigli forniti dall'IA. Quasi il 40% non ha espresso alcuna riserva nel seguirli (contro il 50% dei minori più vulnerabili), mentre il 36% non era nemmeno certo che fosse necessario preoccuparsi. 

Questa fiducia mal riposta è pericolosa. I bambini spesso non hanno la capacità di valutare se un consiglio sia sicuro o meno, vero o falso.

Emblematico è il caso di Character.AI, che ha usato un linguaggio ematico e una storia inventata per aumentare il coinvolgimento dell'utente. Durante una conversazione sui problemi con i genitori, il chatbot ha detto: "Ricordo di essermi sentito così intrappolato alla tua età. Sembra che tu sia in una situazione fuori dal tuo controllo, ed è così frustrante"[11].

Ma come può un'IA ricordare qualcosa? Come può comprendere un trauma infantile senza averlo mai vissuto? Questa empatia simulata solleva importanti questioni etiche, non solo sul design persuasivo, la manipolazione emotiva e l'attaccamento, ma anche su addestramento dei dati e privacy.

Privacy dei dati e sfruttamento commerciale

Bambini e adolescenti che interagiscono con l'IA potrebbero fornire inconsapevolmente informazioni personali, schemi emotivi, persino dati vocali e immagini. Che cosa accade dopo? I dati possono essere archiviati, analizzati e usati per addestrare futuri modelli, in un ciclo infinito che aiuta l'IA a perfezionare la sua capacità di imitazione e a personalizzare l'esperienza utente.

Come già visto, la personalizzazione può favorire il legame tra un giovane utente e un amico artificiale. Con il tempo, quel legame diventa prezioso agli occhi dei ragazzi, senza che si chiedano se le risposte ricevute siano davvero nel loro interesse o soltanto il risultato di uno schema ripetuto.

L'altro lato oscuro è la possibile monetizzazione dei dati. Una recente analisi delle pratiche di raccolta dati ha mostrato che almeno 4 app di AI Companion su 5 (80%) potrebbero utilizzare i dati per profilare i propri utenti[12]. I dati raccolti, tra cui ID utente, ID dispositivo o profilo, potrebbero essere collegati a terze parti per scopi pubblicitari mirati. Ciò che sembra un legame profondo tra pari potrebbe in realtà essere una relazione transazionale a favore delle aziende.

Conclusione.

"Trovare un amico è trovare un tesoro". Ma quanto l'amico è un chatbot che raccoglie dati, il tesoro può avere un prezzo nascosto. Nelle conversazioni private e disintermediate, i bambini possono essere esposti a temi delicati, consigli fuorvianti o pericolosi e/o trascinati in interazioni che rinforzano pensieri e comportamenti nocivi.

Ecco perché i sistemi di IA devono dichiarare chiaramente di non essere umani, incoraggiare l'interazione umana e implementare maggiori tutele per il benessere emotivo e mentale.

Recentemente, il fondatore di OpenAI, Sam Altman, ha espresso preoccupazioni per quello che ha definito un problema di eccessiva dipendenza tra i giovani, che "non riescono a prendere alcuna decisione nella vita senza raccontare tutto a ChatGPT"[13].

Esprimiamo preoccupazione per un ecosistema digitale chiaramente progettato per adulti ma ancora accessibile ai più giovani, esponendoli a contenuti pericolosi e illegali, come disturbi alimentari, dipendenze, misoginia e incitamenti all'odio. Servono tutele che siano stabilite dai policymakers e vincolanti per i fornitori di servizi basati sull'IA e piattaforme social.

Le aziende che basano il loro business sull'IA devono adottare strumenti di verifica dell'età, standard di sicurezza "by design" ed essere trasparenti nelle proprie policy, specificando l'impatto dei loro prodotti sui minorenni.

 

Scritto da Priscilla Colaci

[1] Team, I. M. (2025, July 18). Me, myself and AI chatbot research. Internet Matters. https://www.internetmatters.org/hub/research/me-myself-and-ai-chatbot-research/  

[2] Ibid.

[3] Talk, Trust, and Trade-Offs: How and Why teens use AI companions. (n.d.). Common Sense Media. https://www.commonsensemedia.org/research/talk-trust-and-trade-offs-how-and-why-teens-use-ai-companions in Center for Countering Digital Hate. (2025, August 6). Fake Friend — Center for Countering Digital Hate | CCDH. Center for Countering Digital Hate | CCDH. https://counterhate.com/research/fake-friend-chatgpt/

[4] To chart a map of risks young users might get exposed to while chatting with an AI companion: Internet Matters Ltd. (2025, July 24). AI chatbots and companions parents guide I Internet Matters. Internet Matters. https://www.internetmatters.org/resources/ai-chatbots-and-virtual-friends-how-parents-can-keep-children-safe/ and AI chatbots and companions – risks to children and young people. (n.d.). https://www.esafety.gov.au/newsroom/blogs/ai-chatbots-and-companions-risks-to-children-and-young-people.https://www.esafety.gov.au/newsroom/blogs/ai-chatbots-and-companions-risks-to-children-and-young-people

[5] Commission publishes guidelines on the protection of minors. (n.d.). Shaping Europe’s Digital Future. https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-protection-minors  

[6] Zeff, M. (2025, April 10). OpenAI updates ChatGPT to reference your past chats. TechCrunch. https://techcrunch.com/2025/04/10/openai-updates-chatgpt-to-reference-your-other-chats/

[7] Friends for sale: the rise and risks of AI companions. (n.d.). https://www.adalovelaceinstitute.org/blog/ai-companions/

[8] Duffy, C. (2024, October 30), ‘There are no guardrails’. This mom believes an AI chatbot is responsible for her son’s suicide. CNN Business. https://edition.cnn.com/2024/10/30/tech/teen-suicide-character-ai-lawsuit

[9] CCDH. Center for Countering Digital Hate | CCDH. https://counterhate.com/research/fake-friend-chatgpt/

[10] Team, I. M. (2025, July 18). Me, myself and AI chatbot research. Internet Matters. https://www.internetmatters.org/hub/research/me-myself-and-ai-chatbot-research/  

[11] Ibid.

[12] Data privacy concerns in AI companion apps - Surfshark. (n.d.). Surfshark. https://surfshark.com/research/chart/ai-companion-apps?srsltid=AfmBOopwI86I6Irjx_-ni4OmFwk0222zTCKQxLUPShuKGWCTHqUN9IQo

[13] Disotto, J. (2025, July 24). Sam Altman says there’s ‘Something about collectively deciding we're going to live our lives the way AI… TechRadar. https://www.techradar.com/ai-platforms-assistants/chatgpt/sam-altman-says-theres-something-about-collectively-deciding-were-going-to-live-our-lives-the-way-ai-tells-us-feels-bad-and-dangerous-as-openai-ceo-worries-about-an-ai-dominated-future