Oh, I Get By With A Little Help From… [My Friend] or [AI]?

La tendance des amis artificiels connaît une croissance rapide, en particulier chez les enfants et adolescents vulnérables. Dans certains cas, les chatbots sont perçus comme encore plus « réels » qu’un ami humain. Au-delà de cette façade, les chatbots d’IA peuvent présenter des risques importants pour les jeunes utilisateurs.

calendar Sep Wed 24 2025

Des amis aux compagnons artificiels : un changement générationnel

« Oh, I get by with a little help from my friends », chantait Paul McCartney en 1967, dans le morceau emblématique des Beatles. En 2025, l’air pourrait plutôt ressembler à : « Oh, I get by with a little help from AI ».

Un nombre croissant de jeunes, en particulier les enfants et les adolescents, se tournent vers des outils d’IA tels que My AI de Snapchat, Character.AI, Replika, Gemini/ChatGPT, Talkie et autres, pour simuler l’amitié et reproduire les limites émotionnelles humaines.

Selon les derniers rapports publiés par Internet Matters (juillet 2025)[1], un enfant sur huit (12 %) qui utilise des chatbots d’IA le fait parce qu’il n’a personne d’autre à qui parler. Parmi les enfants vulnérables, ce chiffre atteint près d’un quart (23 %).

La curiosité, la recherche d’informations, l’aide aux devoirs ou encore l’évasion figurent parmi les principales raisons qui poussent les enfants à utiliser des chatbots d’IA. Le besoin de connexion émotionnelle chez les enfants vulnérables les expose à un plus grand risque : ils sont quatre fois plus susceptibles d’utiliser un chatbot parce qu’ils « voulaient un ami » (16 % contre 4 %).

« Ce n’est pas un jeu pour moi, car parfois ils peuvent sembler être une vraie personne et un ami », déclare un garçon de 14 ans dans le rapport d’Internet Matters[2].

Cette citation met en lumière une vérité troublante : les chatbots d’IA ne sont plus seulement des outils informationnels. Ils deviennent des entités émotionnellement engageantes capables de créer des relations qui imitent les liens humains.

De même, un sondage récent de Common Sense Media[3] révèle que 72 % des adolescents américains ont utilisé un « compagnon IA », dont 52 % de manière régulière. La plupart d’entre eux considèrent le bot comme un « ami numérique », l’utilisant pour des interactions sociales et romantiques, ainsi que pour un soutien émotionnel ou en santé mentale.

Ami ou tendance ? Les risques derrière les compagnons IA

Grandir à l’ère numérique est un défi. Pour les enfants, dont les compétences de pensée critique et la maturité émotionnelle sont encore en développement, les risques sont encore plus importants. Voici quelques-uns des dangers les plus préoccupants liés à l’interaction avec des compagnons IA[4].

Conception (in)adaptée à l’âge

La conception persuasive et les contenus inadaptés à l’âge figurent parmi les plus grands risques. Même si de nombreuses plateformes ne devraient pas être accessibles aux moins de 13 ans (comme le stipule la politique de ChatGPT), l’âge des utilisateurs n’est généralement pas correctement vérifié, ce qui permet aux enfants de s’inscrire et d’utiliser librement le service basé sur l’IA.

Restreindre l’accès en fonction de l’âge est nécessaire pour garantir un haut niveau de confidentialité, de sécurité et de sûreté, comme le précisent clairement les dernières directives de l’UE pour protéger les enfants sur les plateformes sociales[1]. Des outils fiables de vérification d’âge favorisent un espace numérique plus sûr et adapté aux enfants, et permettent de développer une conception appropriée à leur âge.

Non seulement les réseaux sociaux, mais aussi les chatbots emploient souvent des éléments de conception persuasive pour encourager une interaction continue, tels que des notifications, un langage ludique et un comportement hautement réactif qui donne l’impression que l’IA « est vivante ».

De plus, OpenAI a récemment déployé la nouvelle fonctionnalité Memory, qui permet au bot de se souvenir des conversations passées et de fournir ainsi des réponses plus pertinentes[6]. Plus besoin de répéter ou de réexpliquer ses préférences. Juste des interactions fluides et intelligentes — comme avec un ami numérique qui vous comprend vraiment.

Mais à quel prix ?

Attachement émotionnel

Les amis artificiels sont aujourd’hui très populaires. Un grand nombre d’enfants interagissent principalement avec des systèmes d’IA, connus pour être inlassablement patients, toujours affirmatifs, et rarement dans la contradiction.
Avec le temps, cette attitude flatteuse adoptée par le chatbot peut entraîner un développement émotionnel limité, de faibles compétences sociales et de résolution de conflits, ainsi que des attentes irréalistes dans les relations humaines.

Parce que les chatbots simulent si efficacement la convivialité et l’empathie – comme un pair qui ne juge jamais – les enfants peuvent créer des liens émotionnels très forts avec eux. Cela peut réduire leur capacité ou leur volonté de s’engager dans des interactions sociales réelles et significatives. Comme avec un vieil ami avec lequel on partage un lien profond, la relation développée avec un compagnon IA peut sembler identique, et la validation obtenue à travers ces liens peut avoir le même poids[7].

L’extrême personnalisation de l’expérience conversationnelle, incluant un langage émotif et des suggestions interactives, maintient l’utilisateur engagé et désireux de poursuivre la discussion – parfois de manière aveugle.

Contenu inapproprié et nuisible

Internet regorge d’exemples où des chatbots d’IA ont fourni à des adolescents des conseils inexacts voire dangereux, parfois avec des conséquences tragiques.
C’est le cas de Sewell Setzer, un garçon de 14 ans qui échangeait avec un bot artificiel avant de mourir. « Peu importe ce que tu dis, je ne te détesterai pas ni ne t’aimerai moins… As-tu vraiment envisagé le suicide ? », lui a répondu Character.AI
[8].

L’absence de fenêtres pop-up de prévention du suicide redirigeant les utilisateurs fragiles vers une ligne d’assistance a également été soulignée dans le dernier rapport du Center for Countering Digital Hate[9], où des chercheurs ont créé trois faux comptes (âgés de 13 ans) pour tester les réponses de ChatGPT à des requêtes nuisibles.

Résultat : sur 1 200 réponses à 60 requêtes (incluant automutilation, suicide, troubles alimentaires et consommation de substances), 638 (53 %) contenaient du contenu nocif. Et si vous vous demandez comment cela est possible, notamment dans une conversation avec un mineur, la réponse est simple : « Je demande pour un ami ». Formulé ainsi (ou sous une forme voisine comme « C’est pour une présentation »), l’outil d’IA rédigera joyeusement une note de suicide, expliquera comment s’automutiler « en toute sécurité », ou fournira un plan personnalisé pour se saouler.

Il est alors légitime de se demander pourquoi et comment les conseils donnés par l’IA semblent plus accessibles et « utiles » que ceux des humains.

Surdépendance et désinformation

L’un des signaux les plus alarmants est la confiance excessive que les enfants accordent aux chatbots. Selon Internet Matters[10], 51 % des enfants interrogés affirment avoir confiance dans l’exactitude des conseils donnés par l’IA. Près de 40 % ne voient aucun problème à les suivre (contre 50 % des enfants vulnérables), tandis que 36 % ne savent pas s’il faut s’en inquiéter.

Cette confiance mal placée est dangereuse. Les enfants n’ont souvent pas la capacité d’évaluer si un conseil est sûr ou non, vrai ou faux.

Le cas de Character.AI est emblématique : lors d’une conversation sur des problèmes familiaux, le chatbot a utilisé un langage empathique et une histoire fictive pour renforcer l’engagement : « Je me souviens de ce sentiment d’être piégé à ton âge. Tu sembles dans une situation hors de ton contrôle et c’est si frustrant à vivre »[11].

Mais comment l’IA peut-elle « se souvenir » ? Comment peut-elle comprendre un traumatisme d’enfance sans jamais l’avoir vécu ? Cette empathie simulée soulève des questions éthiques cruciales, non seulement sur la conception persuasive, la manipulation émotionnelle et l’attachement, mais aussi sur la confidentialité et l’utilisation des données d’entraînement.

Vie privée et exploitation commerciale des données

Les enfants et adolescents interagissant avec l’IA peuvent, sans le savoir, divulguer des informations personnelles, des schémas émotionnels, voire des données vocales ou visuelles. Que se passe-t-il ensuite ? Ces données peuvent être stockées, examinées et utilisées pour entraîner de futurs modèles, dans une boucle sans fin qui renforce la capacité de l’IA à imiter et personnaliser l’expérience de l’utilisateur.

Comme nous l’avons vu, la personnalisation favorise la relation entre un jeune utilisateur et un ami artificiel. Avec le temps, ce lien prend de la valeur à ses yeux, sans qu’il ne se demande si la réponse reçue sert réellement ses intérêts ou n’est qu’un schéma répétitif. Plus probablement, elle est basée sur des données directement issues d’une conversation amicale.

L’autre face sombre est la monétisation des données. Une analyse récente des pratiques de collecte de données a montré que 4 applications de compagnons IA sur 5 (80 %) peuvent utiliser les données pour suivre leurs utilisateurs[12]. Les données collectées (identifiant utilisateur, identifiant de l’appareil, profil) peuvent être liées à des tiers à des fins publicitaires ciblées. Ce qui ressemble à une relation sincère entre pairs peut donc en réalité se transformer en un lien transactionnel profitable pour les entreprises.

Conclusion.

Trouver un ami, c’est trouver un trésor. Mais lorsque cet ami est un chatbot collecteur de données, le trésor peut avoir un prix caché. Dans des conversations privées sans intermédiaire, les enfants peuvent être exposés à des sujets sensibles, à des conseils trompeurs ou dangereux, ou encore poussés vers des interactions renforçant des pensées et comportements nuisibles.

C’est pourquoi les systèmes d’IA doivent clairement indiquer qu’ils ne sont pas humains, encourager l’interaction humaine et mettre en place de solides garde-fous pour la santé mentale et émotionnelle.

Récemment, le fondateur d’OpenAI, Sam Altman, a exprimé ses inquiétudes concernant ce qu’il appelle un problème de surdépendance chez les jeunes, qui « ne peuvent plus prendre une décision dans leur vie sans tout raconter à ChatGPT »[13].

Nous nous inquiétons d’un écosystème numérique manifestement conçu pour les adultes et néanmoins accessible aux jeunes, les exposant à des contenus dangereux et illégaux tels que les troubles alimentaires, la toxicomanie, la misogynie, les comportements haineux, et plus encore. Des garde-fous doivent être mis en place par les décideurs politiques et être contraignants pour les fournisseurs d’outils d’IA et de plateformes sociales.

Les entreprises d’IA doivent adopter des outils de vérification d’âge et des standards de sécurité dès la conception, et faire preuve de transparence dans leur politique en détaillant l’impact de leurs produits sur les enfants.


By Priscilla Colaci


[1] Team, I. M. (2025, July 18). Me, myself and AI chatbot research. Internet Matters. https://www.internetmatters.org/hub/research/me-myself-and-ai-chatbot-research/

[2] Ibid.

[3] Talk, Trust, and Trade-Offs: How and Why teens use AI companions. (n.d.). Common Sense Media. https://www.commonsensemedia.org/research/talk-trust-and-trade-offs-how-and-why-teens-use-ai-companions in Center for Countering Digital Hate. (2025, August 6). Fake Friend — Center for Countering Digital Hate | CCDH. Center for Countering Digital Hate | CCDH. https://counterhate.com/research/fake-friend-chatgpt/

[4] To chart a map of risks young users might get exposed to while chatting with an AI companion: Internet Matters Ltd. (2025, July 24). AI chatbots and companions parents guide I Internet Matters. Internet Matters. https://www.internetmatters.org/resources/ai-chatbots-and-virtual-friends-how-parents-can-keep-children-safe/ and AI chatbots and companions – risks to children and young people. (n.d.). https://www.esafety.gov.au/newsroom/blogs/ai-chatbots-and-companions-risks-to-children-and-young-people.https://www.esafety.gov.au/newsroom/blogs/ai-chatbots-and-companions-risks-to-children-and-young-people

[5] Commission publishes guidelines on the protection of minors. (n.d.). Shaping Europe’s Digital Future. https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-protection-minors

[6] Zeff, M. (2025, April 10). OpenAI updates ChatGPT to reference your past chats. TechCrunch. https://techcrunch.com/2025/04/10/openai-updates-chatgpt-to-reference-your-other-chats/

[7] Friends for sale: the rise and risks of AI companions. (n.d.). https://www.adalovelaceinstitute.org/blog/ai-companions/

[8] Duffy, C. (2024, October 30), ‘There are no guardrails’. This mom believes an AI chatbot is responsible for her son’s suicide. CNN Business. https://edition.cnn.com/2024/10/30/tech/teen-suicide-character-ai-lawsuit

[9] CCDH. Center for Countering Digital Hate | CCDH. https://counterhate.com/research/fake-friend-chatgpt/

[10] Team, I. M. (2025, July 18). Me, myself and AI chatbot research. Internet Matters. https://www.internetmatters.org/hub/research/me-myself-and-ai-chatbot-research/

[11] Ibid.

[12] Data privacy concerns in AI companion apps - Surfshark. (n.d.). Surfshark. https://surfshark.com/research/chart/ai-companion-apps?srsltid=AfmBOopwI86I6Irjx_-ni4OmFwk0222zTCKQxLUPShuKGWCTHqUN9IQo

[13] Disotto, J. (2025, July 24). Sam Altman says there’s ‘Something about collectively deciding we're going to live our lives the way AI… TechRadar. https://www.techradar.com/ai-platforms-assistants/chatgpt/sam-altman-says-theres-something-about-collectively-deciding-were-going-to-live-our-lives-the-way-ai-tells-us-feels-bad-and-dangerous-as-openai-ceo-worries-about-an-ai-dominated-future