"Las redes sociales están dañando a nuestros niños y voy a ponerle punto final". Con estas palabras el primer ministro australiano, Anthony Albanese, dio luz verde a una normativa "de vanguardia mundial" que busca limitar el acceso de los menores de 16 años a plataformas como Instagram o TikTok. Sin embargo, esta medida recuerda a la anunciada por el Ejecutivo español el pasado mes de junio dentro del anteproyecto de ley orgánica para la protección de los menores en los entornos digitales para evitar, sobre todo, que los más jóvenes accedan a contenido pornográfico con sólo pulsar un botón de su móvil o tableta. En concreto, también fija en los 16 años el umbral para acceder a estas herramientas y a los 18 a espacios digitales que emplean los llamados mecanismos aleatorios de recompensa.
"Me parecen medidas poco prácticas, útiles y efectivas. Solo dan una respuesta política a una demanda social pero su efectividad es cero", defiende Sylvia Pérez, psicopedagoga y profesora de la Universitat Oberta de Catalunya, que se pregunta qué va a cambiar si ahora ya está prohibido para los menores de 13 y hay menores de 12 en estas plataformas. "Puede servir a las familias y a los educadores como elemento de descarga: ‘no es que yo no te deje sino que está prohibido", sostiene esta experta que, recuerda, no obstante, que las prohibiciones, en muchas ocasiones, generan más ansia que lo contrario.
En la misma línea opina Laura Pérez Altable, doctora en Comunicación e investigadora de la Universitat Pompeu Fabra. "Al final no debe ser una cuestión de prohibir o no, o que sean 16 o 17 años. Lo que se debería hacer son acciones para explicar cómo su presencia en redes sociales afecta a su salud mental o a la privacidad datos". Esta experta aconseja hacer "mucha pedagogía y educación mediática" para jóvenes pero también para adultos.
Además de la edad, ambos Gobiernos coinciden en apelar en sus respectivos planes a la protección del menor, ante la pederastia o el contenido violento y sexual, y también al cuidado de su salud mental por los problemas de adicción, acoso o bullying que pueden generar en usuarios tan vulnerables. Por ejemplo, por dar solo un dato, un estudio de Unicef en España advierte que el 42% de los adolescentes ha recibido mensajes de contenido erótico o sexual a través de las redes sociales.
La mayoría de plataformas establece como edad mínima los 13
Lo que está claro es que con estas normas, Australia y España vuelven a poner encima de la mesa el eterno debate sobre la edad a la que niños y adolescentes deben tener su primer móvil, pero también cuándo deben abrirse un perfil en unas redes sociales que llevan años defendiendo que "no fuimos diseñadas para menores". ¿Cuál debe ser la edad mínima de acceso? La mayoría de las plataformas tienen políticas que prohíben a las personas con menos de 13 años crear cuentas, aunque, y aquí el gran problema, sin establecer prácticamente ningún tipo de filtro ni control. La última en modificar esta cifra ha sido WhatsApp que en 2018 la elevó en la UE de los 13 a los 16, para volver a bajarla este mismo año a los 13.
Las compañías siguen así el baremo legal del Reglamento General de Protección de Datos (RGPD) que deja en manos de los Estados de la UE establecer esa edad mínima entre los 13 y los 16 años. Apelando a esta normativa, el anteproyecto de ley orgánica española que aún se encuentra en un estado primigenio, especifica la necesidad de elevar los años de 14 a 16 para "armonizar" así "el umbral establecido por la mayoría de los países de la UE". "La evolución, no sólo de la tecnología digital, sino también de su uso por los menores, ha sido tan exponencial que puede resultar inapropiada su utilización precoz; dada la madurez que requiere el uso de determinados servicios, plataformas, sistemas y contenidos digitales", explica el texto.
¿13, 14, 16 o 18?
Las expertas consultadas por infoLibre coinciden en que es complejo dar una edad exacta. "Cuando sus padres consideren o cuando haya capacidad crítica en el menor, que se suele dar entre los 12 y los 14", argumenta Pérez que, no obstante, insiste en que el problema no es tanto los años con los que se entra si no "cómo se entra". "Si va a acceder solo y sin supervisión, cuando más tarde mejor: entre los 14 y 16. Si va a acceder con supervisión y ayuda, con 12", detalla.
"Cuanto más se retrase esta incorporación los jóvenes, mejor", reconoce Pérez Altable que apunta, sobre todo, a cuestiones cognitivas. "No es lo mismo un cerebro de un adolescente de 16 años que de un niño más pequeño", indica.
Ante la decisión de Australia de establecer los 16 años, una coalición de más de 140 expertos ya le ha hecho llegar una carta al primer ministro con sus preocupaciones sobre este límite de edad. "El mundo en línea es un lugar donde los niños y los jóvenes acceden a la información, desarrollan habilidades sociales y técnicas, se conectan con familiares y amigos, aprenden sobre el mundo que los rodea y se relajan y juegan", defienden en la misiva en la que también detallan que les preocupa que "una prohibición sea un instrumento demasiado contundente para abordar los riesgos de manera efectiva".
Aunque España y Australia, marcando los 16, no son los únicos países que han movido ficha en este campo. En julio pasado, Puerto Rico decretó los 18 años como la edad mínima para que una persona pueda activar una cuenta en cualquier plataforma, una medida similar a la de Texas (EEUU), o a la de Florida, aunque en este estado se fija en 14.
En la misma línea, Reino Unido, Francia, Italia, Alemania y otros ocho estados de EEUU también cuentan ya con normas para blindar los móviles de los más pequeños para evitar acceder a contenidos pornográficos que van desde las multas británicas, pasando por la aplicación gubernamental francesa o la imposición de un control parental en todas las tarjetas SIM a nombre de un menor. Un camino que también ha comenzado a recorrer España con este anteproyecto que apuesta también por la implementación de sistemas de verificación de edad "eficaces y obligatorios" y un control parental activado por defecto en los dispositivos de los niños.
Uno de cada cuatro niños de entre 7 y 9 años tiene TikTok
Lo que está claro es que este debate existe porque los más jóvenes tienen presencia en estos espacios. Un estudio de 2024 del regulador de medios del Reino Unido, Ofcom, asegura que el 51% de los adolescentes de 13 años usan redes sociales. Es más, el 40% de los niños entre 8 y 17 años reconoce haber dado una edad falsa para acceder a un nuevo sitio o aplicación. Además, también alerta que los pequeños de 5 a 7 años están cada vez más presentes en línea y el 32% lo usan de forma independiente, sin supervisión de ningún adulto.
Cuando sus padres consideren o cuando haya capacidad crítica en el menor, que se suele dar entre los 12 y los 14
Según datos de Qustodio, España es el país donde antes se empieza a tener Instagram: el 65% de los adolescentes entre 13 y 15 años ya acceden a esta red social. Además, casi uno de cada cuatro niños de entre 7 y 9 años tiene TikTok, donde pasan casi una hora y media al día; y uno de cada cinco accede a X, antes Twitter.
No habrá sanciones ni para menores ni para padres, pero sí para las tecnológicas
Pero, más allá del propio número, la gran incógnita es cómo lograr que se aplique y se cumpla. En el caso australiano, y a la espera de que el texto llegue al Parlamento, el Gobierno sí que ha dado más matices del futuro texto. Por un lado, que la ley no excluirá a los menores de 16 años que ya tienen cuentas ni a los que cuentan con el consentimiento de los progenitores. Y, por otro, que no se impondrán sanciones a usuarios ni a padres, sino que serán las empresas dueñas de estas plataformas las que tendrán la responsabilidad de hacer cumplir el límite de edad.
"Las empresas tienen sus propios requisitos de acceso y si hay gente menor de 16 años es un fallo suyo porque han sabido filtrar bien a los usuarios", afirma Pérez Altable que también defiende que padres y profesores deben hacer pedagogía y no hacer dejación de funciones en las tecnológicas. "Cada uno delega en otro: los padres en el colegio, el colegio en el Gobierno y el Gobierno, que se ve incapaz, en las empresas", explica Pérez que compara la situación con el acceso de menores a una discoteca o con la venta de alcohol cuando "les piden el DNI". "Estamos trasladando el modelo del mundo físico al virtual y lo que hay que hacer es trabajar primero en establecer mecanismos de control", indica esta experta.
Y es que una de las grandes incógnitas es saber cómo espera el Ejecutivo de Australia que Facebook, Instagram, Google, YouTube, TikTok, X y otras empresas apliquen este límite cuando hasta ahora no han sabido hacerlo. Según publica The Guardian, Albanese y la ministra de comunicaciones, Michelle Rowland, no descartan la posibilidad de que se use el escaneo biométrico, que las plataformas verifiquen la edad utilizando una base de datos del propio Gobierno o que todos los usuarios, independientemente de su edad, estén sujetos a controles.
¿Están preparadas para asumir esta responsabilidad? "No y tampoco está claro si les interesa", reconoce Pérez Altable que señala que lograrlo tampoco será tarea sencilla: "Es muy difícil verificar la edad del usuario porque tiene muchos riesgos a nivel de privacidad de los usuarios y de sus datos".
Cuando más se retrase esta incorporación los jóvenes, mejor. No es lo mismo un cerebro de un adolescente de 16 años que de un niño más pequeño
Por lo pronto, una de las primeras plataformas en pronunciarse ha sido Meta. El imperio de Mark Zuckerberg propietario de Facebook, Instagram y WhatsApp ha tirado balones fuera y, tras argumentar que ya cuenta con varias herramientas de seguridad para los adolescentes, defiende en un comunicado publicado por CBS News que la solución para este problema es que la verificación de edad se lleve en las tiendas de aplicaciones de Google y Apple ya que "eliminaría muchas de estas preocupaciones" y "simplifica enormemente las cosas para los padres".
"Podría ser una solución", asegura Pérez Altable que explica que podría ayudar ya que los progenitores controlarán y vigilarán desde ahí que apps se descargan sus hijos o no en función de su edad.
Instagram para adolescentes
Lo cierto es que la medida australiana llega a pocas semanas de que Meta dé un nuevo paso en sus medidas para proteger a los más pequeños con lo que han denominado Instagram para adolescentes para menores de 16 años que llegará a los países de la UE a principios de 2025. Según detalla el imperio tecnológico, el objetivo es "colocar automáticamente a los adolescentes en espacios con protección integradas y dejar tranquilos a los padres de que están teniendo experiencias seguras".
¿Cómo? Estos perfiles serán privados por defecto, limitarán quién puede ponerse en contacto con ellos y tendrán restringido el contenido que pueden ver como aquellos que sean "sexualmente sugerente o que hablen del suicidio o de autolesiones". Contarán con recordatorios más estrictos de tiempos límites y necesitarán el permiso de sus progenitores para cambiar cualquiera de las protecciones integradas para que sean menos estrictas.
Para lograr que los menores no mientan sobre su edad, Meta detalla que les exigirá una verificación en más sitios y anuncia que están desarrollando tecnología para encontrar cuentas que pertenezcan a adolescentes y colocarlas automáticamente en "entornos protegidos y apropiados para su edad".
España es el país donde antes se empieza a tener Instagram: el 65 % de los niños entre 13 y 15 años ya acceden a esta red social
"Es una de las vías, quizás no es suficiente", apunta Pérez que afirma que esta opción ayudaría al adolescente a introducirse en el mundo de las redes sociales "con menos riesgo" siempre y cuando sea dentro del propio Instagram y no otra aplicación separada: "Sería como una transición para usuarios entre 14 y 18".
Ver másCómo se blindan los móviles de los menores: una 'app' en Francia, una SIM en Italia o las multas de Reino Unido
No comparte esta opinión Pérez Altable. "Son buenas intenciones pero, ¿de qué vale crear un entorno más amigable con los menores si puede decir que tiene 18 en lugar de 14?". Para esta experta es clave que todas estas medidas deben ir acompañadas de "un filtrado de la edad".
Por qué están las tecnológicas empeñadas en atraer a los menores
Este movimiento de Meta sigue el camino abierto ya hace años de Google con el lanzamiento de YouTube Kids y deja claro el interés de todas las tecnológicas en general por atraer a los más jóvenes a sus plataformas. ¿Por qué? Principalmente, por la publicidad ya que niños y adolescentes son un público vulnerable y fácil de manipular al que quieren llegar sí o sí. "También pasa en la televisión o en el supermercado", recuerda Pérez Altable que señala que es otra forma para "tener a los menores controlados".
Los datos avalan esta teoría. Un estudio de la Escuela de Salud Pública T.H. Chan de Harvard publicado en diciembre de 2023, calcula que Facebook, Instagram, Snapchat, TikTok, X (antes Twitter) y YouTube obtuvieron en conjunto casi 11.000 millones de dólares en ingresos publicitarios solo de usuarios estadounidenses menores de 18 años en 2022: 2.100 millones de usuarios de 12 años o menos y 8.600 millones de dólares de usuarios de entre 13 y 17.
"Las redes sociales están dañando a nuestros niños y voy a ponerle punto final". Con estas palabras el primer ministro australiano, Anthony Albanese, dio luz verde a una normativa "de vanguardia mundial" que busca limitar el acceso de los menores de 16 años a plataformas como Instagram o TikTok. Sin embargo, esta medida recuerda a la anunciada por el Ejecutivo español el pasado mes de junio dentro del anteproyecto de ley orgánica para la protección de los menores en los entornos digitales para evitar, sobre todo, que los más jóvenes accedan a contenido pornográfico con sólo pulsar un botón de su móvil o tableta. En concreto, también fija en los 16 años el umbral para acceder a estas herramientas y a los 18 a espacios digitales que emplean los llamados mecanismos aleatorios de recompensa.