España y Europa se enfrentan al reto de proteger a los menores de la violencia digital, que no deja de crecer y que toma diversas formas. Para hacerlo, cuentan con un marco regulatorio diverso, que abarca desde la protección de datos hasta la responsabilidad de las plataformas de proteger a niños, niñas y adolescentes. Sin embargo, este podría no ser suficiente o no estar aplicándose de forma certera, indican los expertos consultados por Maldita.es. Por eso, a regulaciones como la LOPIVI a nivel nacional y la Ley de Servicios Digitales (DSA) a nivel europeo, se suman proyectos de ley que buscan abordar nuevos desafíos en los entornos digitales, como los contenidos sexuales creados con IA.
Cómo mantener a los menores a salvo de la violencia digital y los desafíos de la IA
Este reportaje es el quinto de una investigación internacional llevada a cabo por Maldita.es (España), Scena9 (Rumanía) y Rubryka (Ucrania). El proyecto explora la problemática de la violencia digital y su impacto en menores, así como las diferentes iniciativas que buscan identificar soluciones, prevenir estas situaciones y proteger a las víctimas. Esta investigación se ha desarrollado gracias al apoyo de Journalismfund Europe y a la mentoría y el apoyo de Transitions.
En España hay diversas normativas que protegen a los menores en el entorno digital. Según el caso, podemos acudir a la vía penal, civil o administrativa para denunciar
En España no existe una única ley que proteja a los menores de la violencia digital, sino un conjunto de normas que “abordan el problema desde distintas perspectivas, combinando prevención, sanción y protección directa”, describe a Maldita.es Maitane Valdecantos, abogada experta en derechos digitales.
Una de ellas es la Ley Orgánica de Protección Jurídica del Menor, que “establece las bases para la protección del honor, la intimidad personal y la propia imagen de los menores de dieciocho años”, según Valdecantos. También está el Código Penal, que “ha sido modificado en varias ocasiones para abordar la violencia digital”, por ejemplo, para tipificar la suplantación de identidad en redes sociales y la difusión no consentida de imágenes privadas.
En ese sentido, Valdecantos explica que, aunque no esten tipificados como tal, los contenidos sexuales creados con IA de menores se pueden perseguir penalmente gracias a la ampliación del concepto de pornografía infantil, que también contempla la pornografía virtual, la pornografía técnica y la pseudo pornografía infantil, figuras que permiten abordar estos casos.
En 2021, con la Ley Orgánica de protección integral a la infancia y la adolescencia frente a la violencia (LOPIVI) se introduce el término de violencia digital, y se castiga la difusión de contenidos que inciten el suicidio o la autolesión a los menores, se regula la distribución de material pornográfico y se penalizan los contenidos que faciliten el consumo de sustancias peligrosas a los menores.
En relación a la protección de los datos personales, tenemos la Ley de Protección de Datos Personales y garantía de los derechos digitales (LOPDGDD) y el Reglamento General de Protección de Datos (RGPD), que “ofrecen herramientas clave para combatir la violencia digital contra menores, destacando el derecho al olvido”, señala Valdecantos. Este derecho, cuyo nombre correcto es derecho de supresión, nos permite solicitar la eliminación de nuestros datos personales cuando no son necesarios o si retiramos nuestro consentimiento.
Por tanto, si queremos denunciar que un menor a nuestro cargo está siendo víctima de violencia digital, tenemos tres vías a las que podemos acudir (que son compatibles entre sí y podemos ejercer a la vez):
Vía penal: busca la responsabilidad criminal del autor del delito. Para ello, podemos denunciar ante la Policía Nacional, Guardia Civil o la Oficina del Ministerio Fiscal. Según Valdecantos, está “reservada para los comportamientos más graves” y es la más común debido a “su capacidad para imponer sanciones severas y proteger de manera directa los derechos fundamentales de las víctimas”. Sin embargo, la abogada explica que en los delitos cibernéticos puede ser más complejo identificar a los responsables.
Vía civil: no persigue sanciones penales, sino una resolución judicial que declare que se ha cometido un ilícito, que se detenga el comportamiento y que se compense a las víctimas mediante indemnizaciones, por ejemplo, económicas. Para ello, debemos presentar una demanda en un juzgado. “En el caso de menores, se utiliza sobre todo cuando se atenta contra la privacidad, el honor o la intimidad o la imagen de la víctima”, indica la experta.
Vía administrativa:
Canal Prioritario de la Agencia de Protección de Datos (AEPD): este canal facilita a los menores y sus tutores (o cualquiera que tenga conocimiento de la difusión de estos contenidos) la denuncia rápida y directa de la publicación no autorizada de imágenes, vídeos o audios con contenido sexual o violento que les afecte a ellos o a otros. Se puede hacer a través de su sede electrónica con un certificado o medio de autenticación o de manera presencial con el formulario. No aplica para la difusión de contenido por apps de mensajería instantánea ni correo electrónico.
Hacer una reclamación en la AEPD: si detectamos un uso indebido de datos personales (por ejemplo, alguien colgó el DNI, dirección o información personal de un menor a nuestro cargo en internet), podemos denunciarlo a través del menú "Trámites" en la web de la Agencia, de forma presencial en una oficina autorizada o por correo postal.
En la Unión Europea, la Ley de Servicios Digitales busca regular el espacio digital y proteger a los menores en internet
A nivel europeo, una regulación que busca proteger a los menores en internet es la Ley de Servicios Digitales (DSA), un conjunto de normas para regular el espacio digital que incluye medidas sobre transparencia, moderación de contenidos, desinformación y algoritmos de recomendación. Asha Allen, secretaria general del Center for Democracy and Technology Europe (CDT) señala a Maldita.es que la DSA exige que las plataformas en línea de gran tamaño (aquellas con más de 45 millones de usuarios mensuales, como Instagram y X) “realicen evaluaciones anuales de riesgos sobre cómo sus servicios pueden afectar negativamente a la protección de la salud pública y de los menores, así como a las graves consecuencias negativas para el bienestar físico y mental de las personas”, detalla.
En esa línea, el 14 de julio de 2025 la Comisión Europea publicó sus Directrices sobre la protección de los menores en virtud de la DSA, “para proteger a los niños de riesgos en línea como la captación de menores, el contenido nocivo, las conductas problemáticas y adictivas, así como el ciberacoso y las prácticas comerciales nocivas”. Entre otras cosas, recomienda configurar las cuentas de menores como privadas predeterminadamente, modificar los sistemas de recomendación para que los niños no encuentren contenido dañino, dar a los niños la posibilidad de bloquear a cualquier usuario, y prohibir que las cuentas tomen capturas de contenido publicado por menores. Seguir estas recomendaciones es voluntario, pero la Comisión señala que “servirán de referencia para comprobar si las plataformas en línea que permiten su uso a menores cumplen los estándares necesarios”.
En el caso de la IA, la Unión Europea cuenta con la Ley Europea de Inteligencia Artificial, el primer marco jurídico integral sobre IA en todo el mundo. A pesar de que prohíbe sistemas de IA que considera de riesgo inaceptable e incluye obligaciones para los sistemas que operen en la UE, Allen sostiene que la ley no aborda específicamente los riesgos asociados a su uso para crear contenidos sexuales: “Solo aborda de forma superficial el contenido generado con IA, limitándolo a la categoría de riesgos de transparencia”.
Allen apunta que “los requisitos y obligaciones en torno al contenido generado por IA, incluidos los deepfakes, se centran en la divulgación a los usuarios”, es decir, que los que utilicen estos programas deberán hacer público que el contenido ha sido creado con esta tecnología. Por su parte, los proveedores de estas herramientas deberán asegurar que sus resultados estén marcados como que han sido generados con IA.
A pesar de que las leyes lo piden, no se ha dado con un sistema de verificación de edad eficaz para proteger a los menores del entorno digital
Dentro de las medidas que pide la DSA a las plataformas de gran tamaño para que los entornos digitales sean más seguros para los menores está incorporar herramientas de verificación de edad. El objeti