Un grupo de la Generación Z puso a prueba las cuentas para adolescentes de Instagram. Lo que encontraron fue inesperado
En el mes de abril muchos padres respiraron aliviados tras la decisión adoptada por Meta. Las denominadas como “cuentas para adolescentes” en Instagram, anunciadas un año antes para añadir una capa de restricciones y medidas de protección a los menores de edad que utilicen la plataforma, aumentaban las protecciones prohibiendo hacer directos sin el permiso de los progenitores. Si alguna vez te preguntaste lo bien (o mal) que funcionan estos filtros en la realidad, ya tenemos respuesta, y los resultados son impactantes. Todo mal. Como decíamos, Instagram asegura que sus cuentas para adolescentes están diseñadas para protegerlos del daño desde el primer momento, pero una serie de experimentos recientes sugiere que esa promesa se queda más bien corta, y por bastante. Un grupo de jóvenes de la Generación Z (apoyados por una organización sin ánimo de lucro) y un padre curioso decidieron poner a prueba la plataforma creando perfiles de prueba que simulaban ser menores de edad. Lo que encontraron no fue una burbuja segura, sino un flujo constante de contenido sexual, violento o perturbador, promovido directamente por el algoritmo de recomendaciones. Videos que glorificaban trastornos alimenticios, promovían el consumo de alcohol y drogas, y fomentaban una visión distorsionada de la masculinidad fueron ofrecidos como entretenimiento cotidiano a estas cuentas ficticias, todas creadas bajo las mismas condiciones que tendría un adolescente real. En Applesfera "Somos viudas de Apple". Los ingenieros trabajaban tanto en China que la compañía tuvo que tomar medidas urgentes Fallo estructural. Aunque algunas protecciones básicas funcionaron (como las cuentas privadas por defecto o las restricciones de mensajería), lo fundamental falló: el algoritmo, la pieza central del diseño de la experiencia, continuó exponiendo a los usuarios a material sensible, incluso bajo los ajustes más restrictivos que Meta afirma haber implementado para menores. Contaba el Washington Post que uno de los autores del experimento replicó el mismo y recibió más contenido sobre consumo extremo de alcohol y parafernalia asociada con la cocaína en menos de diez minutos de navegación pasiva. Por ello, el trabajo parece reflejar que la tendencia a empujar al usuario adolescente hacia contenidos extremos no parece fruto del azar, sino del funcionamiento mismo del sistema. Los filtros automáticos que deberían contener el daño son opacos, inconsistentes y, según reconoció el propio Mark Zuckerberg en enero de 2025, claramente defectuosos. La cruda realidad. ¿Y que ha dicho Meta sobre el trabajo? La compañía respondió a las críticas desestimando el informe como sesgado y poco representativo, pero evitó ofrecer evidencia concreta de que su sistema esté funcionando. Argumentó que solo un 0,3% del contenido visto fue clasificado como sensible, sin aclarar por qué ese pequeño porcentaje incluía imágenes y mensajes tan explícitos. Mientras tanto, otras investigaciones independientes, como las realizadas por la fundación británica 5Rights, llegaron a conclusiones similares. El patrón se repite: contenido dañino aparece frente a los ojos de adolescentes a pesar de todas las promesas de protección, y lo hace no por error individual, sino como parte de la dinámica de una plataforma que optimiza la atención por encima del bienestar. Un nuevo marco. La batalla por la seguridad infantil en redes sociales ha abierto un debate profundo sobre de quién es realmente la responsabilidad: ¿los padres, los adolescentes o las plataformas que diseñan las experiencias? Para organizaciones como Accountable Tech, la respuesta es clara: las compañías tecnológicas deben asumir un marco legal que las obligue a proteger a los más jóvenes por diseño. Contaba el Post que en este contexto, leyes como la Kids Online Safety Act, que obligan a tomar medidas razonables para evitar daños autoinfligidos o exposición a contenidos peligrosos, ganaron apoyo mayoritario en el Senado estadounidense, aunque terminaron estancadas en la Cámara. Meta, por su parte, niega haber lanzado sus “Cuentas para adolescentes” como estrategia preventiva ante la regulación, pero la coincidencia temporal (anunciadas justo antes de una votación clave) deja dudas sobre sus verdaderas intenciones. En Xataka Ya nadie quiere pasar tres horas haciendo la compra un sábado. Y por eso los hipermercados van a la baja Generación que no es inmune. Saheb Gulati, el estudiante de secundaria que lideró el experimento, lo resumía con lucidez: los adolescentes no son ingenuos sobre temas como el sexo, las drogas o la salud mental, pero ver este contenido repetidamente, validado y promovido por la plataforma, normaliza conductas que pueden tener efectos reales y peligrosos. En sus palabras, “el algoritmo moldea tu percepción de lo que es aceptable

En el mes de abril muchos padres respiraron aliviados tras la decisión adoptada por Meta. Las denominadas como “cuentas para adolescentes” en Instagram, anunciadas un año antes para añadir una capa de restricciones y medidas de protección a los menores de edad que utilicen la plataforma, aumentaban las protecciones prohibiendo hacer directos sin el permiso de los progenitores. Si alguna vez te preguntaste lo bien (o mal) que funcionan estos filtros en la realidad, ya tenemos respuesta, y los resultados son impactantes.
Todo mal. Como decíamos, Instagram asegura que sus cuentas para adolescentes están diseñadas para protegerlos del daño desde el primer momento, pero una serie de experimentos recientes sugiere que esa promesa se queda más bien corta, y por bastante. Un grupo de jóvenes de la Generación Z (apoyados por una organización sin ánimo de lucro) y un padre curioso decidieron poner a prueba la plataforma creando perfiles de prueba que simulaban ser menores de edad.
Lo que encontraron no fue una burbuja segura, sino un flujo constante de contenido sexual, violento o perturbador, promovido directamente por el algoritmo de recomendaciones. Videos que glorificaban trastornos alimenticios, promovían el consumo de alcohol y drogas, y fomentaban una visión distorsionada de la masculinidad fueron ofrecidos como entretenimiento cotidiano a estas cuentas ficticias, todas creadas bajo las mismas condiciones que tendría un adolescente real.
Fallo estructural. Aunque algunas protecciones básicas funcionaron (como las cuentas privadas por defecto o las restricciones de mensajería), lo fundamental falló: el algoritmo, la pieza central del diseño de la experiencia, continuó exponiendo a los usuarios a material sensible, incluso bajo los ajustes más restrictivos que Meta afirma haber implementado para menores.
Contaba el Washington Post que uno de los autores del experimento replicó el mismo y recibió más contenido sobre consumo extremo de alcohol y parafernalia asociada con la cocaína en menos de diez minutos de navegación pasiva. Por ello, el trabajo parece reflejar que la tendencia a empujar al usuario adolescente hacia contenidos extremos no parece fruto del azar, sino del funcionamiento mismo del sistema. Los filtros automáticos que deberían contener el daño son opacos, inconsistentes y, según reconoció el propio Mark Zuckerberg en enero de 2025, claramente defectuosos.
La cruda realidad. ¿Y que ha dicho Meta sobre el trabajo? La compañía respondió a las críticas desestimando el informe como sesgado y poco representativo, pero evitó ofrecer evidencia concreta de que su sistema esté funcionando. Argumentó que solo un 0,3% del contenido visto fue clasificado como sensible, sin aclarar por qué ese pequeño porcentaje incluía imágenes y mensajes tan explícitos.
Mientras tanto, otras investigaciones independientes, como las realizadas por la fundación británica 5Rights, llegaron a conclusiones similares. El patrón se repite: contenido dañino aparece frente a los ojos de adolescentes a pesar de todas las promesas de protección, y lo hace no por error individual, sino como parte de la dinámica de una plataforma que optimiza la atención por encima del bienestar.
Un nuevo marco. La batalla por la seguridad infantil en redes sociales ha abierto un debate profundo sobre de quién es realmente la responsabilidad: ¿los padres, los adolescentes o las plataformas que diseñan las experiencias? Para organizaciones como Accountable Tech, la respuesta es clara: las compañías tecnológicas deben asumir un marco legal que las obligue a proteger a los más jóvenes por diseño.
Contaba el Post que en este contexto, leyes como la Kids Online Safety Act, que obligan a tomar medidas razonables para evitar daños autoinfligidos o exposición a contenidos peligrosos, ganaron apoyo mayoritario en el Senado estadounidense, aunque terminaron estancadas en la Cámara. Meta, por su parte, niega haber lanzado sus “Cuentas para adolescentes” como estrategia preventiva ante la regulación, pero la coincidencia temporal (anunciadas justo antes de una votación clave) deja dudas sobre sus verdaderas intenciones.
Generación que no es inmune. Saheb Gulati, el estudiante de secundaria que lideró el experimento, lo resumía con lucidez: los adolescentes no son ingenuos sobre temas como el sexo, las drogas o la salud mental, pero ver este contenido repetidamente, validado y promovido por la plataforma, normaliza conductas que pueden tener efectos reales y peligrosos.
En sus palabras, “el algoritmo moldea tu percepción de lo que es aceptable de maneras que no había comprendido antes”. Para él y sus compañeros, el ejercicio no fue solo una denuncia, sino también una lección sobre la necesidad urgente de una alfabetización algorítmica: saber qué se les muestra, por qué, y cómo resistir pasivamente esa manipulación invisible.
Si la puerta digital de entrada a la adolescencia está abierta a la distorsión, la responsabilidad ya no parece solo individual, sino estructural, y muy urgente.
Imagen | Pexels
En Xataka Móvil | Instagram es ahora todavía más estricto con los adolescentes: no podrán hacer directos sin permiso
En Xataka Móvil | Mi primer móvil: 11 smartphones baratos para niños y adolescentes
-
La noticia
Un grupo de la Generación Z puso a prueba las cuentas para adolescentes de Instagram. Lo que encontraron fue inesperado
fue publicada originalmente en
Xataka Móvil
por
Miguel Jorge
.