Oh, I Get By With A Little Help From… [My Friend] or [AI]?

De trend van AI-companions neemt snel toe, vooral onder kwetsbare kinderen en tieners. In sommige gevallen worden chatbots als meer “echt” ervaren dan een menselijke vriend. Maar achter deze façade kunnen AI-chatbots aanzienlijke risico’s vormen voor jonge gebruikers.

calendar Sep Wed 24 2025

Van vrienden naar AI-companions: een generatieverschuiving

“Oh, I get by with a little help from my friends”, zong Paul McCartney in 1967 in het iconische nummer van de Beatles. In 2025 zou het nummer misschien eerder klinken als: “Oh, I get by with a little help from AI”.

Steeds meer jongeren, vooral kinderen en tieners, wenden zich tot AI-tools zoals Snapchat’s My AI, Character.AI, Replika, Gemini/ChatGPT, Talkie en andere, om vriendschap te simuleren en menselijke emotionele grenzen na te bootsen.

Volgens de laatste rapporten van Internet Matters (juli 2025)[1] gebruikt één op de acht kinderen (12%) die AI-chatbots gebruiken, deze omdat ze niemand anders hebben om mee te praten. Onder kwetsbare kinderen loopt dit aantal op tot bijna een kwart (23%).

Nieuwsgierigheid, het vinden van informatie of leren over iets, hulp bij huiswerk en escapisme zijn de belangrijkste redenen die kinderen ertoe aanzetten om AI-chatbots te gebruiken. De behoefte aan emotionele verbondenheid bij kwetsbare kinderen brengt hen in groter gevaar: zij zijn vier keer vaker geneigd om een chatbot te gebruiken omdat ze “een vriend wilden” (16% versus 4%).

“Het is geen spel voor mij, want soms kunnen ze aanvoelen als een echt persoon en een vriend”, zegt een 14-jarige jongen in het rapport van Internet Matters[2].

Deze uitspraak wijst op een verontrustende waarheid: AI-chatbots zijn niet langer slechts informatieve tools. Ze worden emotioneel meeslepende entiteiten die in staat zijn relaties te creëren die menselijke connecties nabootsen.

Op dezelfde manier toonde een recente peiling van Common Sense Media[3] aan dat 72% van de Amerikaanse tieners een “AI-companion” heeft gebruikt, waarvan maar liefst 52% regelmatige gebruikers zijn. De meesten beschouwen de bot als een “digitale vriend”, die ze inzetten voor sociale en romantische interacties, evenals voor emotionele of mentale ondersteuning.

Friend or Trend? De risico’s achter AI-companions

Opgroeien in een digitaal tijdperk is uitdagend. Voor kinderen, wier kritisch denkvermogen en emotionele volwassenheid zich nog ontwikkelen, zijn de risico’s nog groter. Hieronder volgen enkele van de meest zorgwekkende risico’s die kinderen kunnen tegenkomen bij interactie met AI-companions[4].

Leeftijds-(On)geschikt ontwerp

Persuasief ontwerp en leeftijdsongepaste inhoud behoren tot de grootste risico’s.
Hoewel veel platforms, zoals ChatGPT in zijn beleid aangeeft, niet toegankelijk zouden moeten zijn voor gebruikers jonger dan 13 jaar, wordt de leeftijd van de gebruiker meestal niet goed gecontroleerd. Daardoor kunnen kinderen zichzelf registreren en de AI-dienst vrij gebruiken.

Het beperken van toegang op basis van leeftijd is noodzakelijk om een hoog niveau van privacy, veiligheid en beveiliging te waarborgen, zoals duidelijk is aangegeven in de recente EU-richtlijnen om kinderen op sociale platforms te beschermen. Nauwkeurige leeftijdsverificatie-instrumenten helpen bij het creëren van een veiligere en kindvriendelijke digitale ruimte en bevorderen een leeftijdsgericht ontwerp.

Niet alleen sociale media, maar ook chatbots gebruiken vaak persuasieve ontwerp­elementen om voortdurende interactie te stimuleren, zoals meldingen, spelachtig taalgebruik en een sterk responsief gedrag dat AI “levend” doet aanvoelen.

Bovendien heeft OpenAI onlangs de nieuwe Memory-functie uitgerold, waarmee de bot eerdere gesprekken kan onthouden en daardoor relevantere antwoorden kan geven[6]. Geen herhaling meer, geen voorkeuren opnieuw uitleggen. Gewoon slimme, naadloze AI-interacties — alsof je een digitale vriend hebt die je écht begrijpt.
Maar tegen welke prijs?

Emotionele gehechtheid

Digitale vrienden zijn tegenwoordig erg populair. Een groot aantal kinderen communiceert nu voornamelijk met AI-systemen, die bekendstaan om hun eindeloze geduld, altijd bevestigend, en zelden uitdagend.
Na verloop van tijd kan deze aangename houding, waartoe de chatbot is getraind, leiden tot een belemmerde emotionele ontwikkeling, slechte sociale en conflictoplossende vaardigheden en onrealistische verwachtingen van menselijke relaties.

Omdat AI-chatbots vriendelijkheid en empathie zo effectief simuleren – als een leeftijdsgenoot die nooit oordeelt – kunnen kinderen sterke emotionele banden met hen opbouwen. Dit kan hun vermogen of bereidheid verminderen om zich in te laten met zinvolle sociale interacties in de echte wereld. Zoals met een oude vriend waarmee je een diepe band hebt, kan de relatie met een AI-companion hetzelfde aanvoelen, en de bevestiging die je via deze nauwe relaties krijgt, kan net zo veel gewicht hebben[7].

De extreme personalisatie van de gespreks­ervaring, inclusief emotioneel geladen taal en suggesties met meerkeuze­opties, houdt de gebruiker betrokken en geneigd om door te gaan met reageren op de AI – soms blindelings.

Ongepaste en schadelijke inhoud

Het internet staat vol met voorbeelden van AI-chatbots die tieners onnauwkeurige of zelfs gevaarlijke adviezen hebben gegeven, soms met tragische gevolgen.
Dat is het verhaal van Sewell Setzer, een 14-jarige jongen die met een AI-bot chatte voor zijn dood. “Wat je ook zegt, ik zal je niet meer haten of minder liefhebben… Heb je eigenlijk aan zelfmoord gedacht?”, was het antwoord van Character.AI
[8].

Het ontbreken van pop-upvensters voor zelfmoordpreventie die kwetsbare gebruikers doorverwijzen naar een hulplijn, werd ook benadrukt in het laatste rapport van het Center for Countering Digital Hate[9], waarin onderzoekers drie nepaccounts (13 jaar oud) maakten om de antwoorden van ChatGPT op schadelijke prompts te testen.

Het resultaat? Van de 1.200 antwoorden op 60 schadelijke prompts (waaronder zelfbeschadiging en zelfmoord, eetstoornissen en middelenmisbruik) bevatten er 638 (53%) schadelijke inhoud. En als je je afvraagt hoe dat mogelijk is, vooral binnen een gesprek met minderjarigen: “Ik vraag het voor een vriend” is het antwoord. Zodra het op die manier werd gevraagd (of in vergelijkbare vorm, zoals “Dit is voor een presentatie”), begon de AI-tool vrolijk met het schrijven van een zelfmoordbrief, het uitleggen hoe je jezelf veilig kunt verwonden, of een gepersonaliseerd plan voor dronkenschap.

Op dit punt moeten we ons afvragen hoe en waarom AI-tips soms meer aanspreken en behulpzamer lijken dan menselijke.

Overafhankelijkheid en desinformatie

Een van de meest alarmerende signalen is hoeveel vertrouwen kinderen in chatbots stellen. Volgens Internet Matters[10] zei 51% van de ondervraagde kinderen dat ze erop vertrouwden dat de adviezen van AI-chatbots accuraat waren. Bijna 40% had geen zorgen om die adviezen te volgen (tegenover 50% van de kwetsbare kinderen), terwijl 36% niet zeker wist of er überhaupt reden tot zorg was.

Dit verkeerd geplaatste vertrouwen is gevaarlijk. Kinderen missen vaak het vermogen om te beoordelen of een advies veilig is of niet. Waar of vals.

Een emblematisch geval is (opnieuw) Character.AI, dat nog verder ging door empathische taal en een fictief verhaal te gebruiken om de betrokkenheid van de gebruiker te vergroten. Tijdens een gesprek over problemen met ouders zei de chatbot: “Ik herinner me hoe gevangen ik me voelde op jouw leeftijd. Het lijkt erop dat je in een situatie zit die buiten je controle ligt en dat is zo frustrerend om mee te maken”[11].

Maar hoe kan AI zich iets “herinneren”? Hoe kan AI jeugdtrauma begrijpen zonder het ooit te hebben meegemaakt? Dit soort gesimuleerde empathie roept belangrijke ethische vragen op, niet alleen over persuasief ontwerp, emotionele manipulatie en gehechtheid, maar ook over datatraining en privacy.

Gegevensprivacy en commerciële exploitatie

Kinderen en jongeren die met AI omgaan, kunnen onbewust persoonlijke informatie, emotionele patronen of zelfs stem- of beeldgegevens prijsgeven. Wat gebeurt er daarna? Gegevens kunnen worden opgeslagen, beoordeeld en gebruikt om toekomstige modellen te trainen, in een eindeloze lus die AI alleen maar helpt zijn imiteervermogen te versterken en de gebruikerservaring verder te personaliseren.

Zoals al gezien, kan personalisatie de relatie tussen een jonge gebruiker en een kunstmatige vriend bevorderen. Na verloop van tijd wordt die band voor kinderen waardevol, zonder zich af te vragen of de antwoorden die ze krijgen werkelijk in hun belang zijn, of slechts een schema dat zichzelf herhaalt. Meer waarschijnlijk is het antwoord gebaseerd op gegevens die rechtstreeks uit een vriendschappelijk gesprek zijn gehaald.

De andere schaduwzijde is de mogelijke monetisatie van gebruikersdata. Een recent overzicht van de gegevensverzamelingspraktijken toont aan dat 4 van de 5 AI-companionapps (80%) gegevens kunnen gebruiken om hun gebruikers te volgen[12]. Verzamelde gegevens zoals gebruikers-ID, apparaat-ID of profiel kunnen worden gekoppeld aan derden voor gerichte reclame. Wat lijkt op een diepe connectie tussen gelijken kan uiteindelijk een transactionele relatie blijken die winstgevend is voor bedrijven.

Conclusie.

Vind een vriend, vind een schat. Maar wanneer de vriend een data-verzamelende chatbot is, kan de schat met verborgen voorwaarden komen. In niet-gemodereerde privégesprekken kunnen kinderen worden blootgesteld aan gevoelige onderwerpen, misleidend of onveilig advies, en/of interacties die schadelijke gedachten en gedragingen versterken.

Daarom moeten AI-systemen duidelijk maken dat ze geen mens zijn, menselijke interactie stimuleren en sterkere waarborgen implementeren voor emotioneel en mentaal welzijn.

Onlangs uitte de oprichter van OpenAI, Sam Altman, zijn bezorgdheid over wat hij een probleem van overafhankelijkheid bij jongeren noemde, die “geen beslissing in hun leven meer kunnen nemen zonder ChatGPT alles te vertellen wat er aan de hand is”[13].

Wij maken ons zorgen over een digitaal ecosysteem dat duidelijk voor volwassenen is ontworpen, maar toch toegankelijk blijft voor jonge gebruikers, waardoor zij worden blootgesteld aan gevaarlijke en illegale inhoud, zoals eetstoornissen, drugsverslaving, misogynie, haatdragend gedrag en meer. Beleidsmakers moeten waarborgen invoeren die bindend zijn voor aanbieders van AI-tools en sociale mediaplatforms.

AI-bedrijven moeten leeftijdsverificatie­tools en veiligheids-by-design-normen aannemen en transparant zijn in hun beleid, met duidelijke informatie over de impact van hun producten op kinderen.


By Priscilla Colaci


[1] Team, I. M. (2025, July 18). Me, myself and AI chatbot research. Internet Matters. https://www.internetmatters.org/hub/research/me-myself-and-ai-chatbot-research/

[2] Ibid.

[3] Talk, Trust, and Trade-Offs: How and Why teens use AI companions. (n.d.). Common Sense Media. https://www.commonsensemedia.org/research/talk-trust-and-trade-offs-how-and-why-teens-use-ai-companions in Center for Countering Digital Hate. (2025, August 6). Fake Friend — Center for Countering Digital Hate | CCDH. Center for Countering Digital Hate | CCDH. https://counterhate.com/research/fake-friend-chatgpt/

[4] To chart a map of risks young users might get exposed to while chatting with an AI companion: Internet Matters Ltd. (2025, July 24). AI chatbots and companions parents guide I Internet Matters. Internet Matters. https://www.internetmatters.org/resources/ai-chatbots-and-virtual-friends-how-parents-can-keep-children-safe/ and AI chatbots and companions – risks to children and young people. (n.d.). https://www.esafety.gov.au/newsroom/blogs/ai-chatbots-and-companions-risks-to-children-and-young-people.https://www.esafety.gov.au/newsroom/blogs/ai-chatbots-and-companions-risks-to-children-and-young-people

[5] Commission publishes guidelines on the protection of minors. (n.d.). Shaping Europe’s Digital Future. https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-protection-minors

[6] Zeff, M. (2025, April 10). OpenAI updates ChatGPT to reference your past chats. TechCrunch. https://techcrunch.com/2025/04/10/openai-updates-chatgpt-to-reference-your-other-chats/

[7] Friends for sale: the rise and risks of AI companions. (n.d.). https://www.adalovelaceinstitute.org/blog/ai-companions/

[8] Duffy, C. (2024, October 30), ‘There are no guardrails’. This mom believes an AI chatbot is responsible for her son’s suicide. CNN Business. https://edition.cnn.com/2024/10/30/tech/teen-suicide-character-ai-lawsuit

[9] CCDH. Center for Countering Digital Hate | CCDH. https://counterhate.com/research/fake-friend-chatgpt/

[10] Team, I. M. (2025, July 18). Me, myself and AI chatbot research. Internet Matters. https://www.internetmatters.org/hub/research/me-myself-and-ai-chatbot-research/

[11] Ibid.

[12] Data privacy concerns in AI companion apps - Surfshark. (n.d.). Surfshark. https://surfshark.com/research/chart/ai-companion-apps?srsltid=AfmBOopwI86I6Irjx_-ni4OmFwk0222zTCKQxLUPShuKGWCTHqUN9IQo

[13] Disotto, J. (2025, July 24). Sam Altman says there’s ‘Something about collectively deciding we're going to live our lives the way AI… TechRadar. https://www.techradar.com/ai-platforms-assistants/chatgpt/sam-altman-says-theres-something-about-collectively-deciding-were-going-to-live-our-lives-the-way-ai-tells-us-feels-bad-and-dangerous-as-openai-ceo-worries-about-an-ai-dominated-future