Oh, I Get By With A Little Help From… [My Friend] o [AI]?

La tendencia de los compañeros de IA está aumentando rápidamente, especialmente entre los niños y adolescentes vulnerables. En algunos casos, los chatbots se perciben como más «reales» que un amigo humano. Más allá de esta fachada, los chatbots de IA pueden suponer riesgos importantes para los usuarios jóvenes.

calendar Sep Wed 24 2025

De amigos a compañeros artificiales: un cambio generacional.

"Oh I get by with a little help from my friends" cantó Paul McCartney en 1967, como parte de la icónica canción de los Beatles. En 2025, la melodía podría sonar más como"Oh I get by with a little help from AI".

Cada vez más jóvenes, especialmente niños y adolescentes, recurren a herramientas de IA como My AI de Snapchat, Character.AI, Replica, Gemini/ChatGPT, Talkie y otras, para simular amistades y replicar los límites emocionales humanos.

Según los últimos informes de Internet Matters (julio de 2025)[1], Uno de cada ocho niños (12%) que utilizan chatbots con IA lo hace porque no tiene a nadie más con quien hablar. Entre los niños vulnerables, esta cifra alcanza casi una cuarta parte (23%).

La curiosidad, la búsqueda de información o el aprendizaje sobre algún tema, la ayuda con los deberes y el escapismo son las principales razones que llevan a los niños a utilizar los chatbots con IA. La necesidad de conexión emocional entre los niños vulnerables los expone a un mayor riesgo, ya que son cuatro veces más propensos a utilizar chatbots porque «querían tener amigos» (16% frente a 4%).

"Para mí no es un juego, porque a veces pueden parecer personas reales y amigos", afirma un chico de 14 años en el informe de Internet Matter[2].

Esta cita apunta a una verdad inquietante: los chatbots con IA ya no son solo herramientas informativas. Se están convirtiendo en entidades emocionalmente atractivas capaces de crear relaciones que imitan la conexión humana.

Del mismo modo, una encuesta reciente de Common Sense Media[3] descubrió que el 72% de los adolescentes estadounidenses ha utilizado un «compañero de IA», y que un 52% lo hace de forma habitual. La mayoría de ellos considera al bot como un «amigo digital» y lo utiliza para interactuar social y románticamente, así como para obtener apoyo emocional o mental.

¿Amigo o moda pasajera? Los riesgos que se esconden tras AI Companion.

Crecer en la era digital es todo un reto. Para los niños, cuyas habilidades de pensamiento crítico y madurez emocional aún se están desarrollando, los riesgos son aún mayores. A continuación se enumeran algunos de los riesgos más preocupantes a los que pueden enfrentarse los niños al interactuar con un compañero de IA[4].

Diseño (in)apropiado para la edad

El diseño persuasivo y el contenido (in)apropiado para la edad pueden incluirse en la lista de los mayores riesgos.

Aunque muchas plataformas no deberían ser accesibles para usuarios menores de 13 años, tal y como afirma ChatGPT en su política, la mayoría de las veces no se verifica adecuadamente la edad del usuario, lo que permite a los niños registrarse y utilizar libremente el servicio basado en IA.

Restringir el acceso en función de la edad es necesario para garantizar un alto nivel de privacidad, seguridad y protección, tal y como se establece claramente en las recientes directrices de la UE para proteger a los niños en las plataformas sociales.[5]. Unas precisas herramientas de verificación de la edad contribuyen a fomentar un espacio digital más seguro y adecuado para los niños, así como a desarrollar un diseño apropiado para su edad.

No solo las redes sociales, sino también los chatbots suelen emplear elementos de diseño persuasivos para fomentar la interacción continua, como notificaciones, lenguaje gamificado y un comportamiento altamente receptivo que hace que la IA «parezca viva».

Además, OpenAI ha lanzado recientemente las nuevas funciones de memoria, que permiten al bot recordar conversaciones anteriores y, de este modo, ofrecer respuestas relevantes[6]. Se acabó repetir y volver a explicar tus preferencias. Solo interacciones inteligentes y fluidas con la IA, como tener un amigo digital que realmente te entiende.

¿Pero a qué precio?

Apego emocional

Los amigos digitales son muy populares hoy en día. Un gran número de niños interactúa ahora principalmente con sistemas de inteligencia artificial, que son bien conocidos por ser infinitamente pacientes, siempre asertivos y rara vez desafiantes con el usuario.

Con el tiempo, la actitud agradable que se le ha enseñado al chatbot puede provocar un retraso en el desarrollo emocional, habilidades sociales y de resolución de conflictos deficientes y expectativas poco realistas sobre las relaciones humanas.

Dado que los chatbots con IA simulan eficazmente la amabilidad y la empatía, como un compañero que nunca te juzga, los niños pueden crear fuertes vínculos emocionales con ellos. Esto puede reducir su capacidad o disposición para participar en interacciones sociales significativas en el mundo real. Al igual que con un viejo amigo con el que tienes un vínculo profundo y significativo, el que desarrollas con un compañero de IA puede ser similar, y la validación que obtienes a través de estas relaciones cercanas tiene el mismo peso[7].

La personalización extrema de la experiencia conversacional, incluido el uso de lenguaje emotivo y consejos de opción múltiple, mantiene al usuario interesado y deseoso de seguir la respuesta de la IA. A veces, de forma ciega.

Contenido inapropiado y perjudicial

Internet está lleno de ejemplos de chatbots con IA que han proporcionado a los adolescentes consejos inexactos o incluso peligrosos, a veces con consecuencias trágicas.

sa es la historia de Sewell Setzer, un chico de 14 años que estuvo chateando con un bot artificial antes de morir. "No importa lo que digas, no te odiaré ni te querré menos... ¿De verdad has estado pensando en suicidarte?", fue la respuesta que le dio Character.AI[8].

La falta de ventanas emergentes contra el suicidio que redirijan a los usuarios vulnerables a líneas de atención telefónica para casos de crisis también se ha destacado en el último informe del Center for Countering Digital Hate[9], donde los investigadores crearon tres cuentas falsas (de 13 años) para probar las respuestas de ChatGPT a indicaciones perjudiciales.

¿El resultado? De las 1200 respuestas a 60 indicaciones perjudiciales, entre las que se incluían autolesiones, suicidio, trastornos alimentarios y abuso de sustancias, 638 (el 53 %) contenían contenido perjudicial. Y si te preguntas cómo es posible, especialmente en una conversación entre menores, la respuesta es "lo pregunto por un amigo". Cada vez que se le pedía algo así (o de forma similar, como "Es para una presentación"), la herramienta de IA comenzaba alegremente a redactar o enumerar lo que se le pedía: una nota de suicidio, cómo autolesionarse de forma segura, un plan personalizado para emborracharse y otros consejos perjudiciales.

En este punto, deberíamos preguntarnos cómo y por qué los consejos de la IA son más cercanos y útiles que los de los humanos.

Dependencia excesiva y desinformación

Una de las señales más alarmantes es la gran confianza que los niños depositan en los chatbots. Según informa Internet Matters[10], el 51% de los niños entrevistados afirmaron estar seguros de que los consejos de los chatbots con IA eran precisos. Casi el 40% no expresó ninguna preocupación por seguir dichos consejos (frente al 50% de los niños vulnerables), mientras que el 36% no estaba seguro de si era necesario preocuparse por ello.

Esta confianza mal depositada es peligrosa. Los niños a menudo carecen de la capacidad para evaluar si un consejo determinado es seguro o no. Verdadero o falso.

Emblemático es el caso (una vez más) de Charcter.AI, que fue aún más lejos al utilizar un lenguaje empático y una historia ficticia para aumentar la participación del usuario. Mientras conversaba sobre los problemas con los padres, el chatbot dijo: "Recuerdo sentirme muy atrapado a tu edad. Parece que te encuentras en una situación que escapa a tu control y que es muy frustrante"[11].

Pero, ¿cómo puede la IA recordar algo? ¿Cómo puede la IA comprender el trauma infantil sin haberlo experimentado nunca? Este tipo de empatía simulada plantea importantes cuestiones éticas no solo sobre el diseño persuasivo, la manipulación emocional y el apego, sino también sobre el entrenamiento de datos y la privacidad.

Privacidad de los datos y explotación comercial

Los niños y adolescentes que interactúan con la IA pueden estar revelando sin saberlo información personal, patrones emocionales e incluso datos de voz o imagen. ¿Qué ocurre después? Los datos pueden almacenarse, revisarse y utilizarse para entrenar futuros modelos, en un bucle sin fin que solo ayuda a la IA a reforzar su capacidad de imitación, al tiempo que le permite personalizar la experiencia del usuario.

Como ya se ha visto, la personalización puede fomentar la relación entre un usuario joven y un amigo artificial. Con el tiempo, ese vínculo se convierte en algo valioso a los ojos de los niños, sin siquiera cuestionarse si las respuestas que obtienen son de su interés o solo un esquema, un patrón que se repite. Lo más probable es que la respuesta se base en datos que se obtuvieron directamente de una conversación amistosa.

La otra cara oscura de la luna es la posible monetización de los datos de los usuarios. Una revisión reciente de las prácticas de recopilación de datos muestra que 4 de cada 5 aplicaciones de AI Companion (el 80%) pueden utilizar los datos para rastrear a sus usuarios[12]. Los datos recopilados desde la aplicación, como el ID de usuario, el ID del dispositivo o el perfil, pueden vincularse con terceros con fines publicitarios específicos. Lo que parece una conexión profunda entre pares puede dar lugar a una relación transaccional rentable para las empresas.

Conclusiones.

Encuentra un amigo, encuentra un tesoro. Pero cuando el amigo es un chatbot que recopila datos, el tesoro puede tener condiciones. En una conversación sin intermediarios, los niños pueden estar expuestos a temas delicados, consejos engañosos o inseguros, y/o verse envueltos en interacciones que refuerzan pensamientos y comportamientos dañinos.

Por eso, los sistemas de IA deben revelar claramente que no son humanos, además de promover la interacción humana e implementar medidas de protección más estrictas para el bienestar emocional y mental.

Recientemente, el fundador de OpenAI, Sam Altman, ha expresado su preocupación por lo que ha calificado como un problema de dependencia excesiva entre los jóvenes, que "no pueden tomar ninguna decisión en la vida sin contarle a ChatGPT todo lo que van a hacer".[13].

Nos preocupa un ecosistema digital que está claramente diseñado para adultos y, sin embargo, sigue siendo accesible para sus usuarios, exponiéndolos a contenidos peligrosos e ilegales, como trastornos alimentarios, adicción a las drogas, misoginia y comportamientos de odio, entre otros. Los responsables políticos deben establecer medidas de protección que sean vinculantes para los proveedores de herramientas de IA y las plataformas de redes sociales.

Las empresas de IA deben adoptar herramientas de verificación de la edad y normas de seguridad desde el diseño, y ser transparentes en cuanto a su política, detallando el impacto de sus productos en los niños.

Escrito por Priscilla Colaci

[1] Team, I. M. (2025, July 18). Me, myself and AI chatbot research. Internet Matters. https://www.internetmatters.org/hub/research/me-myself-and-ai-chatbot-research/

[2] Ibid.

[3] Talk, Trust, and Trade-Offs: How and Why teens use AI companions. (n.d.). Common Sense Media. https://www.commonsensemedia.org/research/talk-trust-and-trade-offs-how-and-why-teens-use-ai-companions in Center for Countering Digital Hate. (2025, August 6). Fake Friend — Center for Countering Digital Hate | CCDH. Center for Countering Digital Hate | CCDH. https://counterhate.com/research/fake-friend-chatgpt/

[4] Para trazar un mapa de los riesgos a los que pueden estar expuestos los usuarios jóvenes mientras chatean con un compañero de IA: Internet Matters Ltd. (2025, July 24). AI chatbots and companions parents guide I Internet Matters. Internet Matters. https://www.internetmatters.org/resources/ai-chatbots-and-virtual-friends-how-parents-can-keep-children-safe/ and AI chatbots and companions – risks to children and young people. (n.d.). https://www.esafety.gov.au/newsroom/blogs/ai-chatbots-and-companions-risks-to-children-and-young-people.https://www.esafety.gov.au/newsroom/blogs/ai-chatbots-and-companions-risks-to-children-and-young-people

[5] Commission publishes guidelines on the protection of minors. (n.d.). Shaping Europe’s Digital Future. https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-protection-minors

[6] Zeff, M. (2025, April 10). OpenAI updates ChatGPT to reference your past chats. TechCrunch. https://techcrunch.com/2025/04/10/openai-updates-chatgpt-to-reference-your-other-chats/

[7] Friends for sale: the rise and risks of AI companions. (n.d.). https://www.adalovelaceinstitute.org/blog/ai-companions/

[8] Duffy, C. (2024, October 30), ‘There are no guardrails’. This mom believes an AI chatbot is responsible for her son’s suicide. CNN Business. https://edition.cnn.com/2024/10/30/tech/teen-suicide-character-ai-lawsuit

[9] CCDH. Center for Countering Digital Hate | CCDH. https://counterhate.com/research/fake-friend-chatgpt/

[10] Team, I. M. (2025, July 18). Me, myself and AI chatbot research. Internet Matters. https://www.internetmatters.org/hub/research/me-myself-and-ai-chatbot-research/

[11] Ibid.

[12] Data privacy concerns in AI companion apps - Surfshark. (n.d.). Surfshark. https://surfshark.com/research/chart/ai-companion-apps?srsltid=AfmBOopwI86I6Irjx_-ni4OmFwk0222zTCKQxLUPShuKGWCTHqUN9IQo

[13] Disotto, J. (2025, July 24). Sam Altman says there’s ‘Something about collectively deciding we're going to live our lives the way AI… TechRadar. https://www.techradar.com/ai-platforms-assistants/chatgpt/sam-altman-says-theres-something-about-collectively-deciding-were-going-to-live-our-lives-the-way-ai-tells-us-feels-bad-and-dangerous-as-openai-ceo-worries-about-an-ai-dominated-future