Casualidad o fruto del parón estival, las compañías tecnológicas han aprovechado los meses de julio y agosto para anunciar nuevas medidas de protección para los menores. Motivos de peso para ponerse estrictas tienen, sobre todo después de la digitalización acelerada que ha supuesto la pandemia de coronavirus. "Desde el confinamiento, el tiempo que los menores pasan delante de las pantallas ha venido a incrementar la preocupación por dedicar mayores esfuerzos a su protección", reconoce Silvia Martínez Martínez, directora del Máster Universitario de Social Media: Gestión y Estrategia de la Universitat Oberta de Catalunya (UOC) e investigadora del grupo GAME. Además, según una encuesta entre mil personas de entre 9 y 17 años de EEUU realizada por la firma Thorn, especializada en la protección de niños contra el acoso sexual, uno de cada tres menores tuvo al menos una interacción sexual a través de las plataformas sociales.
Así, Instagram ha hecho privadas por defecto las nuevas cuentas de jóvenes de menos de 16 o 18 años, mientras que TikTok ha anunciado cambios en su privacidad para proteger a los más pequeños. Google también ha comunicado nuevas medidas relacionadas, por ejemplo que padres y sus tutores legales podrán solicitar la retirada de las imágenes que aparecen en los resultados. Y Apple, en la estrategia más polémica, escaneará automáticamente las fotos de los iPhones y iPads en busca de pornografía infantil.
"Todos los usuarios somos vulnerables cuando navegamos por Internet y las redes sociales, pero en el caso de los menores de edad el riesgo es aún mayor. Estamos hablando de un grupo de población que es especialmente vulnerable y que no tiene la alfabetización mediática necesaria para navegar de manera segura", explica Laura Pérez Altable, doctora en comunicación e investigadora de la Universitat Pompeu Fabra. Esta experta se refiere con el concepto "alfabetización mediática" a saber entrar en una y abrirse un perfil, pero también "a saber usarlas de manera adecuada".
Los menores usan cada vez más las plataformas digitales, aunque el Reglamento general de protección de datos de la UE (RGPD o GDPR por sus siglas en inglés) establece como edad mínima los 16 años, o 13 en algunos estados miembros, para que los jóvenes tengan presencia online. Según la misma encuesta de Thorn, las aplicaciones que más usan, al menos una vez al día, los pequeños de entre 9 y 12 años son YouTube (78%), seguido de Facebook (45%), TikTok (41%) e Instagram y Snapchat (40%). La mayoría de estas aplicaciones establecen como edad mínima los 13 o los 14 años.
Pederastia, contenido violento o sexual, bullying y gestión de privacidadbullying
Por ello es importante que las tecnológicas tomen cartas en el asunto para frenar principalmente cuatro problemas relacionados con los más pequeños. El primero, los pederastas y pedófilos. "Durante el confinamiento estricto de marzo de 2020, cuando la cantidad de material que se compartía en redes sociales era mayor, ya se alertó sobre esto", admite Pérez Altable, quien también señala que el mayor problema de este asunto es que "la mayoría de usuarios no sabemos muy bien cómo funcionan estas personas y este desconocimiento es el que impide que podamos proteger de una manera óptima a los menores que tenemos a nuestro alrededor". Esta experta expone, por ejemplo, que un inocente emoticono del triángulo azul significa que a una persona le interesan los niños.
El segundo problema es el contenido violento o sexual al que pueden acceder los jóvenes con una simple búsqueda. Pérez Altable también mete en este contenido que se puede localizar fácilmente "publicaciones de personas con trastornos de conducta alimentaria donde se comparten trucos o experiencias para adelgazar, evidentemente de manera poco saludable". El tercer riesgo es el bullying. El incoveniente es que el acoso digital "tiene lugar 24 horas y 7 días a la semana y de una manera pública", reconoce.
Y el último problema, quizás el riesgo menos visible, es la gestión de la privacidad. "En ocasiones los menores comparten contenido en Internet sin pensar en si dentro de x años les gustará ver ese contenido. En definitiva, están creando su huella digital, es decir, su identidad digital de manera poco consciente", explica Pérez Altable. "Las redes sociales pueden ser muy positivas pero también pueden tener sus riesgos, especialmente para grupos más vulnerables como los menores, en función de su uso o empleo", asegura Martínez Martínez.
Legislación, educación y padres
Ante estos riesgos, las tecnológicas se han puesto manos a la obra estableciendo una serie de medidas y restricciones para que los más jóvenes estén protegidos en sus plataformas. "En un entorno globalizado como el actual, junto a la legislación nacional se hace necesaria la implicación de las compañías para la consecución de estos objetivos de protección a los menores", explica Martínez Martínez, quien también insiste en que "la implementación de automatismos y otras medidas por su parte pueden resultar útiles pero tienen sus limitaciones y es posible que se sorteen los filtros implementados". Tal y como recuerda Pérez Altable, "por muchas prohibiciones que pongan las empresas nunca serán suficientes, porque desgraciadamente las personas acostumbradas a saltarse la ley suelen ser más listas".
Además, señala un segundo factor en esta guerra: los padres y las escuelas. "El papel de padres y tutores es esencial y se debe hacer un acompañamiento, siempre respetando la intimidad del menor", asegura esta experta y apunta que "desde el colegio y el entorno de los menores se debe insistir en que sean conscientes de los peligros que pueden tener las redes sociales". Para esta investigadora de la Universitat Pompeu Fabra, es esencial que los progenitores lleven a cabo pequeñas acciones para educar a sus hijos también a nivel digital: por ejemplo, establecer horarios o intentar no dejar a los niños y adolescentes solos cuando estén navegando en Internet.
"No estoy defendiendo una manera de control invasiva, creo que los menores deben tener intimidad en sus espacios de socialización como son las redes sociales, pero si somos capaces de crear y proporcionarles entornos seguros, podemos estar seguros y dejarles esa parcela íntima", afirma Pérez Altable, que reconoce que "no le podemos dejar todo el control de seguridad a las tecnológicas". "Velar por la seguridad de los menores en Internet y proporcionarles un espacio seguro es responsabilidad de todos", explica esta investigadora.
Repasamos las medidas que han tomado durante las últimas semanas las diferentes plataformas:
"Facebook e Instagram no fueron diseñados para personas menores de 13 años, por lo que estamos creando nuevas formas de evitar que los menores de edad se registren": así de claros se mostraron desde el imperio tecnológico cuando a finales de julio presentaron nuevas medidas para proteger a los adolescentes en la plataforma de fotografías que han comenzado a implementar en EEUU, Australia, Francia, Reino Unido y Japón. Desde la compañía argumentan que habilitar la aplicación para los más jóvenes conlleva "desafíos competitivos" para que la experiencia sea "segura y privada" pero también "divertida". "Queremos que hagan fácilmente nuevos amigos y se mantengan al día con su familia, pero no queremos que se ocupen de mensajes directos no deseados o comentarios de extraños", señalan en una nota.
Por ello, su medida estrella es convertir por defecto en privadas las cuentas de los usuarios de menos de 18 o 16 años, dependiendo del país. "Son la opción correcta", explica Instagram en un comunicado en su blog, aunque dejan abierta una puerta para la excepción: "Reconocemos que algunos creadores jóvenes pueden querer tener cuentas públicas para crear seguidores".
Pérez Altable admite que este sistema "no es infalible" y que a pesar del sistema de inteligencia artificial que van a implementar "nada le asegura al cien por cien que quien está detrás del perfil no sea un menor". Martínez Martínez apunta que saltarse esta restricción es fácil: "Poner una fecha de nacimiento falsa puede ser una vía para saltarse esta limitación". Sin embargo, desde Instagram no dudan en las ventajas de las cuentas privadas puesto que "las personas controlan quién ve, responde o comparte su contenido" y que su contenido no aparece ni en el menú Explorar ni en hashtags.
Asimismo, también anunció la implementación de una nueva tecnología para encontrar cuentas que "han mostrado un comportamiento potencialmente sospechoso" y evitar que interactúen con perfiles de menores. Según explica, con "comportamiento potencialmente sospechoso" se refieren a "cuentas que pertenecen a adultos que pueden haber sido bloqueadas o denunciadas recientemente por un joven".
Estas nuevas medidas llegan unos meses después de que BuzzFeed publicara que la red social estaba trabajando en una aplicación orientada a usuarios de menos de 13 años con la intención de crear un entorno más seguro para los jóvenes. Por ahora, la idea de un Instagram Kids es eso: una idea en la que en Menlo Park está trabajando.
TikTok
Tiktok también ha movido ficha este verano con respecto a su comunidad menor de edad. La plataforma china de moda entre la generación Z anunció nuevas medidas enfocadas a "la protección de los más jóvenes" en el apartado de privacidad. "Estos cambios continúan reafirmando nuestro compromiso, ya que no hay una línea de meta cuando se trata de proteger la seguridad, la privacidad y el bienestar de nuestra comunidad", asegura en un comunicado Alexandra Evans, directora de Políticas Públicas de Seguridad Infantil en Europa que adelanta que la aplicación contará con más novedades en este sentido en los próximos meses.
La plataforma busca no volver a protagonizar titulares relacionados con la protección de los menores, como le pasó durante el año 2019. Cuando comenzaba a despegar su éxito fuera de China, EEUU anunció una multa a TikTok de 5,7 millones de dólares por infringir la privacidad de los niños y adolescentes. Y Reino Unido abrió ese mismo año una investigación para analizar el uso de la información privada, sobre todo la de los más jóvenes, por parte de la aplicación.
Con los nuevos cambios, la configuración de la mensajería directa de los usuarios de entre 16 y 17 años cambiará por defecto a "nadie", por lo que estos menores tendrán que decidir si cambian a la opción de "amigos" o "a todos". Los cambios también afectan a los de 13 a 15 años que quieran subir su primer vídeo a la red social. Antes de publicar el contenido en TikTok, deberán especificar quién quiere que lo vea y que van desde seguidores, pasando por amigos a "solo yo". "A partir de ese vídeo, y en los siguientes, los creadores podrán decidir quién puede ver el contenido antes de publicarlo", apunta en una nota.
Asimismo, las funcionalidades "pegar" y "dúo" estarán deshabilitadas para cuentas de usuarios de menos de 16 años. Lo mismo que la opción de descarga de sus contenidos entre los de 13 y 15 años, aunque para los de 16 y 17 pueden modificar estos ajustes. Y TikTok también ha introducido cambios en el envío de notificaciones, que, a partir de ahora, estarán desactivadas a partir de las 21 horas para los de 13 a 15 y a partir de las 22 horas para los de 16 a 17. "Estas actualizaciones se basan en la configuración de seguridad actual, como el no permitir que se envíen imágenes o vídeos en mensajes y deshabilitar la mensajería para cuentas de menores de 16 años", argumenta la tecnológica china.
Estas medidas se suman a las ya tomadas con anterioridad por TikTok, similares a las que ha anunciado ahora Instagram, como la limitación de la mensajería directa para los menores de 16 o el cambio a privadas de las cuentas de los jóvenes en esta misma franja de edad.
"Aunque nuestras políticas no permiten que los niños de menos de 13 años creen una cuenta de Google estándar, hemos trabajado arduamente para diseñar experiencias de productos enriquecedoras específicamente para ellos, los adolescentes y las familias", expone en un comunicado. La gran novedad es la posibilidad de que los de menos 18 años, o sus padres o tutores, puedan solicitar la retirada de sus imágenes en los resultados.
La compañía presume en esta nota del programa Family Link, con el que permiten "a los padres configurar cuentas supervisadas para sus hijos, establecer límites de tiempo de pantalla y más". "Es un buen sistema", apunta Pérez Altable sobre esta funcionalidad de Google, pero matiza que no tiene claro "si realmente las familias lo utilizan". Esta experta insiste en que los controles parentales como este "funcionan si se utilizan".
Asimismo, Google también establecerá de forma predeterminada la opción más privada disponible para los menores de 13 a 17 años en los perfiles de YouTube. En el apartado de búsqueda, la protección SafeSearh filtrará los resultados explícitos para todos los menores de 13 años, aunque pretenden ampliarlo a los de menos de 18. En el historial de ubicaciones de los usuarios de menos de 18 años permanecerá desactivado. Con respecto al apartado publicitario, el gigante tecnológico evitará que las categorías de anuncios sensibles a la edad se muestren a los jóvenes y bloqueará la segmentación por edad, sexo o intereses para los menores de edad.
Apple
Apple también ha movido ficha con nuevas medidas para proteger a los menores de "los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos" y buscarán con estas nuevas funciones "limitar la propagación del material de abuso sexual infantil". Además de darle más poder a los padres para "desempeñar un papel más informado", implementarán herramientas para escanear los mensajes que envían los más jóvenes en su sistema de mensajería, el iMessage, y también los teléfonos de los adultos para detectar imágenes de abuso sexual infantil. "Este programa es ambicioso y proteger a los niños es una responsabilidad importante. Estos esfuerzos evolucionarán y expandirán con el tiempo", explican en un comunicado desde la compañía californiana.
Ver másLas redes sociales revisan ocho de cada diez denuncias sobre contenidos de odio en menos de 24 horas
No obstante, las críticas no se han hecho esperar. Aunque muchos aplauden a Apple por un sistema que aumentará significativamente la probabilidad de encontrar a adultos que abusen de niños, algunos tachan de "software espía" a esta estrategia de los de Cupertino. "El problema de la medida es que es un retroceso en el derecho a la privacidad de los usuarios", asegura Pérez Altable. Según publica The Verge, algunos expertos también señalan que esta actualización crea un sistema de vigilancia en el propio móvil o tableta creando además una "puerta trasera" que amenaza con socavar las protecciones fundamentales de privacidad de los dispositivos de la manzana mordida.
Más de 90 grupos de derechos humanos e Internet han enviado el pasado 19 de agosto una carta al CEO de Apple, Tim Cook, para instarle a abandonar estas características que llegarán a finales de este año en las actualizaciones de iOS. "Aunque esta funcionalidad está destinada a proteger a los niños y reducir la propagación de material de abuso sexual infantil, nos preocupa que se utilicen para censurar el discurso protegido, amenazar la privacidad y la seguridad de las personas en todo el mundo y tener consecuencias desastrosas para muchos menores", reconocen en esta misiva.
"Es cierto que esta propuesta está amparada por la ley, pero tiene que encontrar un equilibrio entre ayudar a perseguir delitos de pornografía y abuso infantil y mantener la privacidad de los usuarios, lo cual es difícil", admite Pérez Altable, y recuerda que "no deja de ser irónico" que este movimiento parta de una empresa como Apple, "que ha hecho de la seguridad de sus dispositivos su bandera para comercializar sus productos desde siempre". Para Martínez Martínez la clave será "su transparencia y su seguimiento una vez implementada", así se podrá "evaluar tanto la eficacia como el respeto a la privacidad" de esta medida para proteger a los menores que se ha convertido en un dolor de cabeza para la compañía californiana.
Casualidad o fruto del parón estival, las compañías tecnológicas han aprovechado los meses de julio y agosto para anunciar nuevas medidas de protección para los menores. Motivos de peso para ponerse estrictas tienen, sobre todo después de la digitalización acelerada que ha supuesto la pandemia de coronavirus. "Desde el confinamiento, el tiempo que los menores pasan delante de las pantallas ha venido a incrementar la preocupación por dedicar mayores esfuerzos a su protección", reconoce Silvia Martínez Martínez, directora del Máster Universitario de Social Media: Gestión y Estrategia de la Universitat Oberta de Catalunya (UOC) e investigadora del grupo GAME. Además, según una encuesta entre mil personas de entre 9 y 17 años de EEUU realizada por la firma Thorn, especializada en la protección de niños contra el acoso sexual, uno de cada tres menores tuvo al menos una interacción sexual a través de las plataformas sociales.