La trampa de verificación de la edad no solo va solo del acceso a las redes, sino que tiene que ver con el capitalismo de vigilancia (Zuboff), el rastreo continuo y la pérdida de intimidad y privacidad.
Adolfo Plasencia, 9 de marzo de 2025
Debido al paso adelante del Gobierno de Australia, primer país en prohibir desde diciembre de 2025 el acceso a las redes sociales a menores de 16 años, muchos otros como Nueva Zelanda, Malasia, o Indonesia ya han decidido seguir ese mismo criterio. Y también en Europa, donde, con variantes, desde el Reino Unido, Francia, Grecia, Austria, Dinamarca, Italia a España, han anunciado medidas de prohibición del acceso a las redes sociales, que son un lugar de internet que está causando un gran daño social en la salud mental y alteraciones conductuales auto-lesivas que han llevado incluso al suicidio de menores. Dichas alteraciones de conducta, que ya suceden como una epidemia llevó al anterior alcalde de Nueva York a declarar en enero de 2024, a las redes sociales como una toxina medioambiental sobre todo para los adolescentes, aunque no solo para ellos, ya que los lleva hacia adicciones y a la dependencia a gran escala. Nueva York fue la primera gran ciudad estadounidense en tomar esta decisión de declarar la guerra a la conducta de las empresas de redes sociales.
Aquella declaración pionera, refrendada por medios científicos, criticó a plataformas como TikTok, Facebook y YouTube por fomentar una crisis de salud mental juvenil a gran escala. El alcalde Adams además entró entonces en el detalle a partir del daño que las redes sociales estaban causando a los habitantes de Nueva York. Enfatizó que las grandes empresas tecnológicas han diseñado intencionalmente sus plataformas con características adictivas que ponen en peligro la salud mental de niños y adolescentes; hizo una cruda comparación con otros conocidos riesgos para la salud pública, estableciendo paralelismos con amenazas históricas demostradas para la salud pública, como el tabaco y las armas de fuego.
Su objetivo era el de intentar obligar a las empresas de las plataformas tecnológicas a asumir la responsabilidad de su dañino impacto, destacando la preocupación por su tecnología con mecanismos algorítmicos. Lo más grave es que están ya demostrados con datos científicos que estos mecanismos, generan usos compulsivos y trastornos de conducta adictivas, similares a las de los juegos de azar, pero ya diseñadas y comercializadas específicamente y, a sabiendas de los perjuicios, para la conversión en adictos usuarios muy jóvenes, incluso niños y obtener el máximo dinero con ello.
Pero sin salirnos del contexto neoyorkino, este aparente intento de proteger a los más jóvenes de la evidentemente peligrosa, dañina y adictiva algorítmica predictiva de las redes sociales emergen las contradicciones. Adams fue el anterior alcalde demócrata de Nueva York. ¿Está siguiente el nuevo alcalde, el progresista Mamdani, manteniendo esta cruzada de su antecesor contra las redes sociales? Pues sorprendentemente no aparecen referencias, en sus declaraciones ni en sus propuestas. Tal vez tenga que ver el que esas mismas redes sociales impulsaron su ascenso y elección como alcalde de Nueva York. Hay quien dicen que incluso les debe su elección como alcalde. Entonces, si es así, ¿como va a criticarlas al nivel que hizo Adams a pesar de que siguen siendo, –está demostrado con datos–, una “toxina ambiental” para los ciudadanos, y que va en aumento?
Así que solucionar este problema, no es solo cosa de buenos deseos e intenciones por parte de los dirigentes políticos, sino es cosa de ver como llegar a una protección efectiva en el uso de Internet en general y en las redes sociales en particular. O sea, que hay que pasar del qué al cómo y a un cómo que funcione y sea efectivo de forma garantizada. Y, en ese paso, aún vamos a ver emerger muchas más contradicciones, que en algunos casos podrían ser irresolubles. Veamos. Recuerdo que hace muchos años en una conversación para mi libro que iba a publicar el MIT, le hice una pregunta aparentemente sencilla al sabio de la informática Ricardo-Baeza Yates. La pregunta era “¿porqué hasta ahora ningún poder político ha podido adueñarse de Internet? Su sorpresiva respuesta fue: “Por su diversidad”.
Los intentos de una solución en la que los poderes públicos se han centrado, empezando por la pionera Australia y continuando por el resto de países, para conseguir proteger a los niños a los/las adolescentes de los peligros, ha sido poner el foco en legislar un límite de edad de acceso. Y eso pasa necesariamente también por verificar la identidad de usuario ligada a la edad real. Por ejemplo, debe demostrarse que se tienen los 16 años, –en el caso de Australia– para poder acceder allí a redes sociales. Así que el tema de la protección se está asociando con la verificación de identidad. El asunto es de tal escala que el límite de la edad es ya un tema de debate político cada vez más de actualidad en numerosos países. Parece sencillo, pero técnicamente no lo es si se quieren evitar efectos indeseados. Porque la prohibición obliga a que todos los usuarios que accedan lo harán una vez hayan demostrado que no son niños o menores. Y eso es tanto como abordar el tema de la identidad de los usuarios en Internet, y en las redes sociales, que es un tema proteico donde los haya. Y además choca frontalmente con el tema de la diversidad a la que se refería Ricardo Baeza-Yates. Si hay algo múltiple y diverso en internet y en las redes sociales es la identidad del/de las/de los usuarios. Un tema por su escala, es muy muy difícil de abordar –o, tal vez, lo siento– quizá irresoluble. Probablemente, por los múltiples ángulos de la diversidad del problema, con los que tal vez pueda chocar cualquier intento de solución perfecta, como ahora después intentaré explicar.
Pero, además, eso choca con la urgencia. La urgencia con que necesitan obtener soluciones los dirigentes políticos- Cuanto mayor es la magnitud y gravedad del problema, más urgente es para ellos encontrar una solución. Y por eso se están centrando en intentar que alguien les proporcione una solución para verificar la edad ligada a la identidad, durante el acceso a las redes sociales, con soluciones, que visto lo visto a lo que estamos asistiendo en este tema, probablemente tendría que venir de algún tecnosolucionismo de “resultados rápidos”.
Tecnopersonas, identidad, anonimato e internet
«En Internet, nadie sabe que eres un perro» (originalmente, en inglés: «On the Internet, nobody knows you’re a dog”) decía el perro protagonista de una famosa viñeta creada por Peter Steiner, publicada por primera vez en The New Yorker el 5 de julio de 1993 y hoy convertido ya en un dicho popular. Eran tiempos pioneros de internet, y por eso para explicar el extraordinario éxito de la viñeta es buena la frase Bob Mankoff, entonces editor de caricaturas de The New Yorker, que afirmó «La caricatura resonó con nuestra desconfianza ante la fachada simplista que podía adoptar cualquiera con conocimientos básicos de HTML». Michel Canva, afirmó el 31 de julio de 2013 en un artículo en el Washington Post «‘Nadie sabe que eres un perro’», publicado en el XX aniversario de la icónica caricatura de internet, su creador, Peter Steiner, sabe que «el chiste sigue siendo tan relevante como siempre». Pues bien, yo afirmo que en marzo de 2026 cuando publicó este artículo que la afirmación de Steiner no sólo sigue vigente, sino que el problema o, mejor dicho, la trampa de la verificación de la edad en Internet y, por lo tanto, la identidad, mantiene esa afirmación vigente, entre otras cosas, por la evolución del internet hacia las redes sociales, pero también por nuevas razones conceptuales. Veamos.
Una de ellas es que deberíamos para abordar este problema y comprender los detalles debemos entrar en la visión sobre los mundos digitalizados y tecnoentornos que describen, con gran detalle, el filósofo Javier Echeverría y su colega Lola S. Almendros en su libro «Tecnopersonas. Cómo las tecnologías nos transforman», un estupendo libro que considero de obligada lectura, si se quiere entender verdaderamente, en sus aspectos conceptuales y su verdadera dimensión, también el problema de verificación de la edad (y de la identidad) en las redes sociales y por extensión en Internet. Aunque no solo eso. En el libro hay toda una nueva pléyade de apasionantes ideas innovadoras sobre los citados mundos y entornos que describen los autores.
Porque en realidad, el mecanismo que están intentando resolver los gobernantes y países no es solo un tema técnico o informático, que también, sino un nuevo asunto conceptual, puesto que la verificación de la edad y la identidad en las redes tiene que ver, no con esos aspectos humanos de los usuarios de las redes, sino con sus correspondientes tecnopersonas, que definen Echeverría y Almendros en su libro citado, es decir, las tecnopersonas superpuestas a sus identidades en el mundo físico (no olvidemos como se dice en el libro que y, generadas mediante simulaciones digitales ficticias de su identidad que asimilamos automáticamente a esas personas.
No olvidemos que –como se dice en el libro–, que «el término persona procede del etrusco phersu y del nombre de la diosa Perséfone. En el 550 a. C. phersu significaba enmascarado, o la máscara misma. Y el nombre de Perséfone significaba máscara porque en las fiesta de la diosa se utilizaban máscaras». Así que trasladado esto a lo que hoy señalan los citados filósofos en su libro, no es de extrañar que se trate de tecnopersonas ficticias, generadas por algoritmos específicos a partir de múltiples datos generados en la conducta online de usuarios de la vida real, sean aportados, robados o generados artificialmente. Bien entendido que la citada mediación tecnológica que acabo de citar es la que distingue a las personas de las tecnopersonas. Entidades que están radicadas finalmente en La Nube, es decir en forma de ceros y unos, en servidores de alguno o varios de los data centers han creado y gestionan las grandes tecnológicas; lugares en el argot hace tiempo llamábamos un poco irónicamente granjas de servidores.
Antes de pasar a centrar después los aspectos técnicos del problema que da nombre a este artículo, citaré por cuestiones conceptuales, un extracto sintetizado de la definición de tecnopersona del citado libro: «tecnopersona es aquella persona cuya identidad, relaciones, funciones o interacciones están conformadas tecnológicamente en particular por sistemas tecnológicos informatizados». Hay muchos más tipos de tecnopersonas definidas en el libro, pero me centro en esta definición y acepción para seguir centrado en el tema de que trata este articulo. Me refiero a esas tecnopersonas, que percibimos mediante simulaciones visualmente bi-dimensionales en las interfaces informáticas sobre las pantallas digitales.
Dado que, como señalan Echeverría y Almendros, a las personas se le superponen sus tecnopersonas, para que puedan ser percibidas a través de las pantallas, me atrevería a decir que desde el punto de vista tecnológico y conceptual, cuando hablemos a partir de ahora de verificación de la edad (y de la identidad) de menores en Internet, en realidad estaremos hablando de verificarla a través de sus correspondientes tecnopersonas que es en la forma que otros les perciben o son percibidos siempre en las pantallas mediante las diferentes fórmulas digitales: todo vídeo, imagen, mensaje o texto son rastros digitales de sus tecnopersonas mediadas por la tecnología. Pero para percibir «al otro» hay una necesidad esencial: el soporte de un completo sistema tecnológico que es la verdadera fábrica de tecnopersonas con las que nosotros (nuestra propia tecnopersona) podremos interactuar sí, y solo sí, ese sistema tecnológico-informático está funcionan alimentado por electricidad y llega hasta nuestra pantalla. Sin pantallas audiovisuales, dispositivo digital y electricidad, cualquier tecnopersona producto o consecuencia de alguien, no podrá ser percibida por otros.
Sin esta explicación el afirmar que en realidad cuando se intenta verificar la edad de un menor y su identidad se puede hacer, por mediación tecnológica, a través de su tecnopersona. Pero a eso se suman otros factores concurrentes. Uno de ellos es que no toda persona desea hacer un isomorfismo entre su aspecto real y el de su o sus tecnopersona/s en la pantalla. Hay usuarios que desean acceder a internet o a una red social manteniendo el anonimato, porque a eso se refería el citado pionero chiste de Peter Steiner, de 1993. Entonces ya se sabía (aunque no existieran las redes sociales que algunos usuarios prefieren interactuar en Internet sin revelar su identidad real, permitiendo a las personas adoptar personalidades falsas –o tecnopersonas falsas–, o mantenerse en el anonimato mediante alguna de ellas sin isomorfismo alguno con su presencia del mundo físico, incluso.
Cada persona usuaria del mundo físico, pero conectada, puede crear múltiples tecnopersonas distintas, toda una variedad que serán configuradas mediante simulaciones de identidades digitales ficticias, como quién se cubre con sucesivas máscaras. Resulta curioso que la diversidad potencial de múltiples tecnopersonas podría tener concomitancias con otras diversidades de internet que luego mencionaré. No quiero dejar de mencionar que hoy en día también pueden crear múltiples tecnopersonas ficticias, que no tienen equivalente en las personas del mundo físico por los nuevos agentes de IA dotados de agencia propia para hacerlo con tal de cumplir en internet algún objetivo que se les haya programado o solicitado en un prompt (instrucción o pregunta que se le hace a una IA). Aunque lo parezca, esto no es nuevo y de algo parecido ya hablé en 2020 en un artículo, aunque si lo escribiese hoy cambiaría ligeramente su título, adoptando ya la terminología de Echeverría y Almendros. Hoy lo hubiera titulado: «Esta tecnopersona es matemáticamente única pero no existe». Volviendo a los agentes de IA, alguno de ellos han creado miles de cuentas ficticias (que se denominan Enjambres de IA, que aunque no tiene equivalente humano, interactúan simulando que lo son sin que los usuarios humanos las distingan de sus iguales. Son de alguna manera, salvando las distancias, como aquellos robots bizantinos capaces de mentirse entre sí, de los que hablé hace tiempo. Quizá a ese tipo de tecnopersonas se le pueda llamar tecnopersonas de origen también ficticio pero algorítmico.
El uso de tecnopersonas o máscaras digitales no siempre tiene intenciones de carácter punitivo, aunque a veces ocurre que tiene intención positiva. Hay personas que sí desean usarlas para navegar o interactuar por internet manteniendo en anonimato con el fin de preservar su intimidad.
Así que a todo lo anterior hay que sumar que el anonimato en Internet es considerado un derecho fundamental que protege la privacidad, la libertad de expresión y la seguridad de los usuarios, permitiendo la navegación y comunicación sin revelar la identidad real. La Carta de Derechos Digitales (España) reconoce el pseudo-anonimato, permitiendo el uso de alias, pero facilitando que un juez pueda «levantar el anonimato» en casos de delitos, equilibrando seguridad y privacidad. Es esencial para evitar la censura, el rastreo intrusivo y represalias, facilitando el acceso a información sensible o la denuncia de abusos.
El anonimato, según esa visión, se considera un derecho ligado a la protección de datos y a la libertad de expresión, a menudo protegido mediante jurisprudencia o el uso de seudónimos (también en forma de tecnopersonas). La forma de ejercerlo en la práctica es, por ejemplo, hacerlo mediante el uso de redes privadas virtuales (VPN) que crean un túnel cifrado y seguro entre tu dispositivo (ordenador, móvil) e internet, ocultando tu dirección IP y protegiendo datos personales frente a terceros, rastreadores o redes Wi-Fi públicas inseguras. Los VPN son fundamentales para disponer de privacidad online, para ciertos tipos de teletrabajo y para saltar restricciones geográficas, –como ya están haciendo muchos adolescentes avezados en Australia para saltarse la prohibición de su gobierno–. También se puede usar el navegador Tor que es una herramienta gratuita de software libre diseñada para navegar por la red garantizandote la máxima privacidad y anonimato online que funciona redirigiendo el tráfico a través de una red voluntaria de miles de nodos (enrutamiento de cebolla), de nuevo, ocultando la dirección IP (identidad digital real de tu dispositivo ligada a tu conexión y ubicación local), evitando el rastreo y seguimiento y permitiendo el acceso a sitios web bloqueados, proxies (servidor intermediario entre tu dispositivo (ordenador/móvil) e Internet), correos cifrados y navegación en modo incógnito.
El modo de navegación anónima sirve usualmente, por ejemplo, para proteger a periodistas, activistas y ciudadanos ante ciertos abusos de poder; pero también puede ser mal utilizado para delinquir; para acoso, o en diversas actividades ilícitas.
Verificación cierta y segura de edad e identidad en las RRSS y sus consecuencias: la cuadratura del círculo.
Ahora mismo, lo que ha puesto en el foco de la actualidad a nivel mundial, del problema que no es la prohibición de acceso a las redes sociales de menores de 16 años en la que, como he dicho se adelantó Australia. Pero quien piense que se trata solo de menores y los daños ya demostrados en ellos que las propias plataformas causan porque inducen adicción, a sabiendas, y por su propia construcción, objetivos y modelos de negocio, se equivoca. El problema no solo afecta a los menores sino a todos y, además, súmele el lector todo lo leído en este articulo en párrafos anteriores y se harán idea de que la dimensión y también de del reto de la diversidad de los problemas, que es enorme y afecta, lo reitero, no solo a menores sino a todo aquel que entre en internet y/o en las redes sociales. Lo siento por los legisladores y los gobernantes con buenas intenciones, pero resolver el problema de los menores sin causar otros daños también grandemente problemáticos, creo que es imposible con cualquier tecnosolución de «resultados rápidos». Resolver todos los problemas de la verificación de identidad y edad de los usuarios de internet y/o las redes sociales sin además causar otros problemas de largo alcance (a cientos o miles de millones de usuarios) y teniendo en cuenta todo lo que he descrito antes en este artículo, sería como conseguir la cuadratura del circulo. Eso, teniendo en cuenta que hay mucha gente joven, y no tan joven, digitalmente iletrada que actúa como si creyera que el único internet que existe es el de las redes sociales.
Tras tratar los aspectos conceptuales, pondré ahora algún ejemplo para intentar ilustrar al lector sobre aspectos técnicos del problema que nos ocupa y que no son algo menor.
Waydell D. Carvalho, un destacado investigador independiente especializado en sistemas en gobernanza de IA, diseño regulatorio y riesgo sociotécnico, acaba de publicar en el IEEE Spectrum, órgano oficial del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) la famosa asociación mundial de ingenieros, un artículo en cuyo subtítulo ye es toda una declaración anticipatoria: «Verificar la edad de los usuarios (en Internet) socava la protección de datos de todos».
Afirma Carvalho literalmente «Las redes sociales están siguiendo el mismo camino que el alcohol, los juegos de azar y otros pecados sociales; las sociedades están dándose cuenta que ya no son sólo cosa de niños. Los legisladores señalan el uso compulsivo, la exposición a contenidos nocivos y las crecientes preocupaciones sobre la salud mental de los adolescentes». Por eso, muchos proponen fijar una edad mínima, normalmente 13, o 16 años. Y, después, pone el dedo en la llaga sobre los intentos de solución. En los casos en que los reguladores exijan una aplicación real en lugar de reglas simbólicas, las empresas de las plataformas se topan con un problema técnico básico. La única forma de demostrar que alguien tiene la edad suficiente para utilizar un sitio es recopilar datos personales sobre quién es con lo que eso conlleva. Y, claro, «la única forma de demostrar que lo verificaron es conservar los datos indefinidamente. Las leyes de restricción de edad empujan a las plataformas hacia sistemas de verificación intrusivos que a menudo entran en conflicto directo con las leyes modernas de privacidad de datos».
Como bien explica Carvalho, La mayoría de las leyes de restricción de edad en Internet, técnicamente siguen un patrón familiar. Establecen una edad mínima y exigen que las plataformas que gestionan la relación entre los usuarios (en realidad la interacción entre sus tecnopersonas respectivas), que tomen «medidas razonables o «medidas efectivas» para evitar el acceso de menores. Lo que estas leyes rara vez explican es cómo se supone que las plataformas deben saber quién está realmente sobrepasado el límite. A nivel técnico, para dar con una solución, las empresas sólo cuentan con dos herramientas.
La primera es la verificación basada en la identidad. Y ¿como funciona en la práctica ese mecanismo? Pues las empresas, por ejemplo de las plataformas de redes sociales, piden a los usuarios que carguen en su espacio personal en la plataforma de la que se es usuario alguna identificación gubernamental; o vinculen una identidad digital; o proporcionen a la empresa documentos oficiales que demuestren su edad. Eso genera múltiples nuevos problemas. Imaginemos un o una adolescente en esa circunstancia que quiere pasar tiempo en Tik Tok; Instagram, Whatsapp, Snapchat, etc. Eso significaría entregar esos datos críticos, sobre él o ella, a cada una de las plataformas. Aparte de que se da el caso de que, en muchas jurisdicciones, los jóvenes de 16 años no tienen documentos de identidad. En otros, las identificaciones existen, pero no son digitales, no están ampliamente difundidas, o no son confiables. Las dificultades se suman.
El almacenamiento de miles de millones de copias de documentos justificativos de la edad y la identidad, obviamente, generan inmensos riesgos de seguridad y de uso indebido. Y precisamente el modelo de negocio de las plataformas y sus demostrados problemas con la justicia, lo que hace que no sean nada confiables. Hay muchos de los problemas generados que están en fase de litigio como, ya expliqué en anteriores artículos, pero contaré uno nuevo. Meta, la empresa matriz dueña de las redes sociales Facebook, Instagram, WhatsApp, Messenger y Threads, ha tenido que describir pormenorizadamente ante un juez, esta misma semana, en el contexto de un juicio en Nuevo México. En la vista se han revelado que la compañía sabía que su algoritmo sugería cuatro veces más que a los jóvenes, las conexiones a cuentas de menores de edad sobre todo a adultos depredadores, potencialmente peligrosos, proclives a hacerles grooming – o engaño pederasta, acoso y abuso sexual online de adultos–, y sextorsión –una forma de chantaje, en el que habitualmente se amenaza a la víctima con divulgar imágenes íntimas que se han obtenido de ella, si no se accede a lo que el delincuente demanda–. Estas exigencias, pueden ser de muy diversos tipos (sexual, económico). Hace muy poco, en España, hemos conocido un caso sextorsión en el que unos menores, que lo han hecho usando la IA. Y algunos jóvenes han sido detenidos aquí en España por hacerlo incluso con compañeras de aula.
La segunda herramienta es la verificación basada en la inferencia. En este caso, plataformas intentan adivinar la edad usando ingeniería social para verificar basándose en el comportamiento, las señales de los dispositivos o el análisis biométrico, más comúnmente la estimación de la edad facial a partir de selfies o vídeos con tecnologías de reconocimiento facial combinadas con IA. Este método evita la recolección formal de identificaciones oficiales, pero reemplaza la certeza por probabilidad y error con lo cual la fiabilidad deja mucho que desear. Y las empresas de las plataformas, si la herramienta falla, podría arriesgarse a ser demandadas judicialmente.
Aparte de eso hay un tema que tiene que ver con el paso del tiempo. Una vez cumplida los 16 años, la prohibición de los países queda sin efecto, pero los datos críticos de la identidad ya van a almacenarlos y poseerlos las empresas (es casi irrisorio pedirles que los borren) y podrán ser vendidos a brokers de datos (a nueva profesión de éxito), o a empresas de consumo, o al mejor postor. Otro ejemplo de actualidad. El pasado uno de febrero el CEO de Meta, Mark Zuckerberg se ha tenido que defender por primera vez en un juicio con jurado sobre las prácticas de verificación de edad de Instagram. Su testimonio ha formado parte de un juicio histórico sobre adicción a las redes sociales en una corte de Los Ángeles. Naturalmente, como es propio en él, ha echado la culpa a los jóvenes usuarios diciendo que usan mal su tecnología y que «algunos mienten sobre su edad».
En el juicio también se juzgaba a Google-Alphabet, propietaria de YouTube, de diseñar productos que deliberadamente crean adicciones, como las del tabaco, y causan daño a los usuarios. La querellante del juicio ha sido una mujer, de 20 años, identificada como K.G.M., quien afirma que el uso temprano de las redes sociales —antes de los diez años— la volvió adicta a la tecnología y agravó su depresión y sus pensamientos suicidas.
La agencia EFE ha informado sobre el juicio aportando demoledores datos sobre el impacto en la salud mental de los menores de edad. Según la agencia, los abogados de la joven demandante pusieron contra la pared a un impasible Zuckerberg al mostrarle un documento que sugería que, en 2018, unos 4 millones de usuarios registrados en Instagram eran menores de 13 años. Eso es una cantidad enorme; aproximadamente el 30 % de todos los niños que tenían entre 10 y 12 años en el EE.UU. de ese momento. Este juicio es histórico porque es la primera vez que el CEO era juzgado por un jurado y con la presencia de decenas de padres que lo acusan en parte de provocar la muerte de sus hijos. Los Angeles Times tituló su información sobre el juicio «Mark Zuckerberg testifica en un juicio en Los Ángeles sobre las acusaciones de que las redes sociales generan adicción en los niños». Así que aunque el titular de TVE habla de que se trataba de un juicio un juicio sobre las prácticas de verificación de edad de Instagram, está claro que el tema va mucho más allá de juzgar los mecanismos de la trampa de la verificación de la edad en Internet, cuestión que está muy lejos de cerrarse.
Porque la ola de países con la protección de los menores en las redes sociales se extiende, porque la mayoría de ellos tiene el mismo problema.
India, un país con 1.400 millones de habitantes, el más poblado del mundo ahora, no va solo por el camino de la verificación, supuestamente porque son conscientes de la dificultad. Pero, mientras tanto, ya han elegido otras vías de protección, y su gobierno ha aprobado en febrero nuevas normas para redes sociales en India focalizadas en las empresas de las plataformas mucho más que en el usuario y centrándose, ya mismo, en el contenido ilegal generado por IA. Según la BBC las empresas de redes sociales, a partir de ahora, deben conseguir eliminar del acceso público el contenido ilegal en solo tres horas y, además, establecer una eficaz detección automática de contenido ilegal generado por IA. En paralelo, el gobierno indio exige a las plataformas que implementen medidas para evitar que los usuarios publiquen material ilegal con amenazas de sanciones enormes. Y no solo eso, la ley aprobada obliga a invertir a las empresas propietarias de las plataformas en centros de monitoreo para usuarios de la India, disponibles las 24 horas.

Los adolescentes de India menores de 16 años, no acaban de entender la medida del gobierno de su país de prohibirles el acceso a las redes sociales. Imagen: Ashish Vaishnav/SOPA /ZUMA/p.a.
En relación a ello, el pasado día 12 de febrero, India anunció, según Murali Krishnan la corresponsal en Nueva Delhi de la cadena alemana DW, que está a punto de unirse a la creciente lista de países que consideran prohibir las redes sociales a menores de 16 años. Según DW, los adolescentes indios se muestran incrédulos ante la posibilidad de que el gobierno les prohíba a ellos las redes sociales. En su artículo, cuenta lo que le dice en Bhopal, Priya Khullar, de 14 años, que no se imagina la vida sin redes sociales. “Me informo mucho aquí y me mantengo al día con las tendencias de moda y música. Es difícil imaginar una ley que me prohíba plataformas como Instagram y YouTube Shorts para menores de 16 años». En cambio, como sucede con tantos, el padre del adolescente Khullar no está seguro de cuál es la estrategia correcta. «¿Cómo se implementa, –dice–, una prohibición total? No sé qué riesgo es peor: dejar que los niños permanezcan conectados o forzarlos a un aislamiento digital».
India no es un país cualquiera para las plataformas globales. El mercado de India es enorme. Se juegan mucho dinero. En ese país hay mil millones de usuarios conectados a las redes sociales. Y su gobierno es muy asertivo con la legalidad. Las plataformas tienen mucho que perder allí.
Mientras tanto, ¿Además de asistir a juicios como denunciados y acusados los CEOS, sus empresas están intentando solucionar la verificación? Veamos, en un rápido recorrido, ¿Cómo están las principales plataformas intentando la cuadratura del círculo de la verificación en este momento?
TikTok, la red social más adictiva, –la misma de origen chino que dijo Trump que iba prohibir en EE.UU., cosa que no hizo, en cuanto un asesor le advirtió que varios millones de sus seguidores más entusiastas la usaban–, ha elegido la inferencia. Según Wired, la empresa ha confirmado que escanea vídeos públicos para inferir las edades de los usuarios. Google y YouTube, por su parte, también usan la inferencia. Las dos, dependen en gran medida de señales del comportamiento online vinculadas al historial de visualización y la actividad de la cuenta para inferir la edad y luego solicitan una identificación gubernamental, o una tarjeta de crédito, –eso implica casi siempre a un adulto–, cuando consideran que el sistema no está seguro. Una tarjeta de crédito funciona como indicador de la edad adulta, aunque no dice nada sobre quién está usando realmente la cuenta.
Por su parte, el sitio de juegos Roblox, masivamente usado por niños, recientemente, lanzó un nuevo sistema de estimación de edad. Y según Wired ya se sabe que muchos de ellos están pasando en la plataforma por algo horrible. Hay usuarios infames que venden cuentas para niños a depredadores adultos que buscan acceder a las áreas restringidas por edad de la plataforma.
Meta, que tiene a su CEO de tribunal en tribunal en California intentando defenderse de graves acusaciones sobre daños a menores, ha implementado la estimación de la edad facial en su plataforma Instagram en múltiples mercados, utilizando comprobaciones de vídeo-selfies a través de socios externos. Cuando el sistema señala a los usuarios como posiblemente menores de edad, les solicita que graben un breve vídeo-selfie, lo cual tiene muchos peros, ya que lo deja en manos de la voluntad del menor analizado. Después, un sistema de inteligencia artificial estima su edad y, si decide que están por debajo del umbral, restringe o bloquea la cuenta. Esos requerimientos, cuando no funcionan satisfactoriamente, a menudo, desencadenan controles adicionales y clasificaciones erróneas (falsos negativos, etc.) son frecuentes.
En síntesis, y como resumen, para un usuario típico, con estas tecnologías, la edad ya no es una declaración única, sino que se convierte en una prueba recurrente. Y no hay certeza en el resultado. Hay mil circunstancias distintas que impedirán intentar la citada cuadratura del círculo: un teléfono nuevo; uno compartido, un cambio de comportamiento o una señal falsa pueden desencadenar como consecuencia otra verificación. Pasar una vez no finaliza el proceso. Y hay mas dudas ¿con que frecuencia deben las plataformas aplicar la verificación de edad para demostrar que están cumplen la legalidad de la prohibición a menores. ¿Y a quién? ¿A todos los usuarios ‘sospechosos’ de ser menores de 16? ¿A algunos elegidos aleatoriamente? Y cuando: ¿siempre?; ¿periódicamente? ¿En periodos aleatorios? La cantidad de dudas es enorme. Y ¿quién va a vigilar a las plataformas con cientos de millones de usuarios registrados si cumplen la ley?
En la práctica, los falsos positivos son frecuentes. Recuerden que los que están interactuando son las tecnopersonas de los adolescentes, es decir: sus alter ego digitales que ahora pueden ser verdaderas simulaciones ficticias, que tiene un aspecto variable y modifican en tiempo real su apariencia con tecnologías de filtros para modificar dinámicamente sus aspectos, ahora con mucha facilidad con aplicaciones de inteligencia artificial generadoras de imágenes en tiempo real. Hay pruebas que hay casos en que, en las plataformas, se identifican como adultos a menores de edad con rostros juveniles, que comparten dispositivos familiares o que tienen un uso irregular. Preventivamente, se pueden bloquear cuentas, a veces durante días, a quien no lo merece. También persisten los falsos negativos. Además, los adolescentes tienen muchas capacidades para aprender rápidamente cómo evadir controles pidiendo prestados documentos de identidad, cambiando cuentas o utilizando los citados VPN.
Volviendo al informe de IEEE Spectrum. Según el citado Carvalho, la verificación es una trampa para la privacidad, por más razones. Las plataformas deben almacenar datos biométricos inmodificables, imágenes de identificación y registros de verificación el tiempo suficiente para defender sus decisiones ante los reguladores y la ley. Imagine el lector, si un adulto que está cansado de enviar selfies para verificar su edad demostrando una y otra vez, que no es un menor, y, finalmente harto, carga una identificación legal, con lo que el sistema ahora debe proteger también esa identificación almacenada. Y, para la empresa de la plataforma, cada registro retenido se convierte en un posible objetivo de infracción. Imagine el lector mentalmente esa experiencia ampliada a millones de usuarios, y el riesgo contra la privacidad se incorporará definitivamente al funcionamiento de las plataformas, perjudicando a quien le importe defender su privacidad.
Carvalho también se pregunta ¿Es la verificación de edad compatible con la ley de privacidad? Y él mismo señala que es aquí es donde la política emergente de restricción de edad y su verificación choca frontalmente con las leyes de privacidad existentes.
Todos los regímenes modernos de protección de datos se basan en ideas similares: recopilar sólo lo que necesita, utilizarlo sólo para un propósito definido y conservarlo sólo el tiempo necesario. Aquí la aplicación de la edad socava los tres. Para demostrar que siguen las reglas de verificación de edad, las plataformas deben registrar los intentos de verificación, retener evidencia y monitorear a los usuarios a lo largo del tiempo. Cuando los reguladores o los tribunales preguntan si una plataforma tomó medidas razonables, decir «recopilamos menos datos” rara vez es convincente. Para las empresas, defenderse de las acusaciones de no verificar adecuadamente la edad, reemplaza a defenderse de las acusaciones de recopilación inadecuada de datos. No es una elección explícita de los votantes o de los responsables políticos, sino más bien una reacción a la presión de aplicación de la ley, y a cómo las empresas perciben su riesgo económico por un litigio.
Críticas y alternativas de la Electric Frontier Foundation. La solución viable está más en la familia que en las big tech
Para completar los puntos de vista en relación a la verificación de la edad en Internet y las plataformas, me referiré finamente, a alguno de los más críticos, que piensa que la verificación de edad e identidad en las RRSS tiene consecuencias muy negativas y no vale ni intentar la cuadratura del círculo a la que me he referido antes.
Se trata de la prestigiosa Fundación de la Frontera Electrónica, que crearon los pioneros Mitch Kapor, John Gilmore y John Perry Barlow, quienes la fundaron con el objetivo declarado de dedicar sus esfuerzos a conservar derechos de libertad de expresión, como los protegidos por la Primera Enmienda de la Constitución de Estados Unidos, en el contexto de la era digital actual. Su objetivo principal declarado es educar a la prensa, a los legisladores y al público sobre cuestiones como las libertades civiles que están relacionadas con la tecnología, y actuar en ese contexto en defensa de esas libertades.
Pues bien, uno de sus actuales miembros destacados Joe Mullin, analista de políticas en EFF, donde trabaja en patentes, cifrado, responsabilidad de plataformas y libertad de expresión online ha publicado un texto dirigido a quien él considera más relevantes en relación a los problemas que conectan a adolescentes y redes sociales que son, sobre todo, padres, madres y familias. El título no deja lugar a dudas: «El Congreso quiere dejar la crianza de tus hijos en manos de las grandes tecnológicas». Su visión, alineada con la de la EFF, señala que el epicentro de la solución de los acuciantes problemas que muestran los adolescentes por sus usos de las redes sociales, va a depender más de la familia que de las empresas, o incluso de los legisladores.
Sobre los intentos de los legisladores de solucionar estos problemas los describe así: «Los legisladores en Washington vuelven a centrarse en los niños, las pantallas y la salud mental. Pero, según el Congreso, las grandes tecnológicas son, de alguna manera, tanto el problema como la solución. El Comité de Comercio del Senado de EE.UU. celebró hoy una audiencia para «examinar el efecto de la tecnología en la juventud estadounidense». Algunos testigos advirtieron sobre el contenido en línea «adictivo», la salud mental y el exceso de tiempo que los niños pasan frente a las pantallas. En el centro del debate se encuentra un proyecto de ley de los senadores Ted Cruz (republicano por Texas) y Brian Schatz (demócrata por Hawái), llamado Ley para Niños Fuera de las Redes Sociales (KOSMA), que, según afirman, protegerá a los niños y dará mayor poder a los padres».
Pero Mullin desmiente las anunciadas virtudes se esa ley sobre las soluciones que pretende conseguir. Uno de los problemas es la mentalidad de los legisladores, pero también señala ciertas acciones de los padres y las familias. Según Mullin, «los legisladores imaginan el uso de las redes sociales por parte de menores de 13 años como un grupo de niños que mienten sobre su edad y se suben a aplicaciones a escondidas de sus padres, pero se equivocan».
Tiene razón. Estudios muy serios que han analizado este tema concluyen lo contrario: la mayor parte del uso por parte de los menores de 13 años es abierto, con el conocimiento de los padres y, a menudo, con su ayuda directa. Por ejemplo, el amplio estudio nacional publicado el año pasado por la Academic Pediatrics. Dicho estudio mostró cifras contundentes sobre la realidad actual; el 63,8 % de los menores de 13 años tiene una cuenta en redes sociales, pero solo el 5,4 % afirmó ocultarle una a sus padres. Esto significa que aproximadamente el 90 % de los menores de 13 años que utilizan redes sociales no lo ocultan en absoluto. Sus padres lo saben. (En el caso de los niños de trece años o más, la cifra de «cuentas secretas» es casi igual de baja: un 6,9 %).
Sobre la participación de los padres en relación al uso de los menores de las familias, hay más datos convergentes. Otro amplio estudio sobre el uso de Facebook por parte de jóvenes de 10 a 14 años, los investigadores descubrieron que alrededor del 70 % de los padres afirmaron haber ayudado a crear la cuenta de sus hijos, y entre el 82 % y el 95 % sabían de su existencia. De nuevo, no se trataba de niños que se escabullían. Se trataba de familias que tomaban una decisión conjunta con ellos. Y para completar la convergencia de datos hay otro estudio de 2022 realizado por Ofcom, el organismo regulador de medios del Reino Unido, que apunta en la misma dirección. Muestra que hasta dos tercios (el 66%) de los usuarios de redes sociales menores de trece años recibieron ayuda directa de un padre o tutor para acceder a la plataforma.
Así que visto los datos, Mullin señala que «el usuario típico de redes sociales menor de 13 años no es un niño astuto. Es una familia que toma una decisión en conjunto.” Aunque la ley KOSMA tiene un título muy aleccionador, según Mullin, en realidad, las empresas no pueden ser, al tiempo, como señala la ley KOSMA, el problema y la solución. Uno de los ejemplos que indica es el de Sección 103(b) de ese proyecto de ley que es contundente: si una plataforma sabe que un usuario es menor de 13 años, «deberá cancelar cualquier cuenta o perfil existente» que pertenezca a ese usuario. Y «sabe» no solo significa que alguien admite su edad. La realidad de cómo las plataformas cumplirían con la KOSMA es clara: en lugar de arriesgarse a la responsabilidad por cómo deberían haber sabido que un usuario era menor de 13 años, exigirán a todos los usuarios que sean ellos quienes demuestren su edad para asegurarse de bloquear a cualquier persona menor de 13 años. Como conclusión, la ley KOSMA que no incluye excepciones para el consentimiento parental, cuentas familiares, ni el uso educativo o supervisado inducirá que una gran mayoría de las personas vigiladas por esta ley no serán niños que disimulan y andan a escondidas, sino menores que siguen las instrucciones de sus padres, y a los propios padres.
Esa ley no es una solución, porque bajo ella plataformas con algorítmicas radicalmente adictivas como Google (YouTube), Meta (Facebook e Instagram), TikTok, Spotify, X y Discord, etc. serán estas empresas las que tendrán el poder para ser quienes decidan qué cuenta sobrevive, qué cuenta se bloquea, quién debe publicar su identificación y qué familia pierde el acceso por completo. No lo harán porque quieran, sino porque las leyes las amenazan con responsabilidades legales y sanciones económicas si no lo hacen. Y tienen mil formas de vadear esas responsabilidades. Y esa es casi la situación actual. Es decir, esa visión política aplicada en el proyecto de ley cede el control de la vida online de los niños a las grandes tecnológicas.
Finalmente, la EFF señala que no basta con que el Gobierno apruebe leyes que protejan a los consumidores de las empresas que recopilan y monetizan sus datos personales. También es necesario garantizar que las empresas no ignoren estas leyes y las cumplan. La mejor manera de hacerlo es reforzar a los consumidores para que puedan interponer sus propias demandas contra las empresas que violen sus derechos de privacidad.
En conclusión, según la EFF tal como señala su Paper «Privacy First», la solución pasa por unas leyes de privacidad sólidas también ayudaría a solucionar cosas como los daños online, el proteger a niños y adolescentes, apoyar el periodismo, proteger el acceso a la atención médica, fomentar la justicia digital, limitar la recopilación de datos privados para entrenar la IA generativa, evitar la vigilancia de gobiernos extranjeros y fortalecer la competencia y la innovación. Nada menos.
Superar nuestra disonancia cognitiva generalizada
Juzgue el lector, vistos todos estos puntos de vista si es positiva la dirección que llevan las cosas del tecno-mundo en que vivimos. Ya sabemos que –y es un lugar común– el que las plataformas globales inducen conductas adictivas a gran escala como vector principal de sus modelos de negocios que han convertido a las plataformas en verdadero imperios virtuales globales además de empresas con un enorme capital, como expliqué en una industria global de la adicción digital que causa múltiples daños a los menores y no solo a ellos. Es como un curioso metaproceso: las grandes empresas de esa industria adictiva, ganan tanto dinero con su actividad que estas empresas y sus grandes accionistas son dependientes y adictas a esas enormes ganancias. por eso se niegan a cambiar un ápice su modelo de negocio. Mark Zurckeberg, el CEO de Meta, es un vivo ejemplo de ello.
La solución grande sería otra cuadratura del círculo mucho mayor que solucionar el tema de la verificación de la edad, que es un aspecto solo parcial. Y eso pasaría por solucionar el problema general de las casi infalibles trampas cognitivas en las que miles de millones de personas en el mundo online han quedado atrapados en la comodidad nihilista y el conformismo tecnológico. Y también superar la paradoja que representa el cambiar una la situación actual de una sociedad global completamente adictivizada, en mayor o menor grado, en una inmensa dimensión con la conciencia alterada y presa de las micro descargas de dopamina que les inducen individualmente en sus cerebros físicos a través de las interacciones de sus tecnopersonas. Si hay solución, en cualquier caso, esta pasará por superar la disonancia cognitiva que nos atenaza resultado de nuestras propias contradicciones como sociedad y como tecno-individuos. La solución pasará por superar la de las leyes que promulguen unos legisladores, que saben el daño que provocan las redes sociales a nivel social y personal pero que, al tiempo, cada uno de ellos las usan para promover sus candidaturas.
Quizá la posible solución si es que la hay, está más cerca de lo que señala la EFF, es decir, una solución de abajo arriba más que al revés, ya que los propios legisladores y políticos que tienen una enorme dependencia de las redes sociales que usan compulsivamente para apuntalar su vida pública y política. Porque pensar que esta es una ecuación sin solución no es compatible con que tengamos una visión positiva sobre nuestro futuro. En mi caso, me reitero, sigo creyendo en el principio de Tim O’Reilly, que afirma que la tecnología es algo para hacer del mundo un lugar mejor, y no al contrario.
Comparte esta publicación
Suscríbete a nuestro boletín
Recibe toda la actualidad en cultura y ocio, de la ciudad de Valencia
















