Mensajes clave[1]
- La Ley de Inteligencia Artificial de la Unión Europea (UE) (Ley de IA) es una de las primeras regulaciones vinculantes sobre inteligencia artificial (IA) en el ámbito mundial. Las autoridades europeas pretendían que sirviese de modelo para la gobernanza mundial de la IA, confiando en el llamado “efecto Bruselas”.
- En un campo tan dinámico y transformador como la IA, la calidad de la regulación es un requisito imprescindible para tener influencia y servir de modelo. En este caso, la calidad incluye contemplar adecuadamente la mayoría de los riesgos críticos asociados al uso, el despliegue y la adopción de la IA.
- Entre esos riesgos se cuenta el uso malicioso, que consiste en el aprovechamiento deliberado de las capacidades de la IA para causar daño. El presente análisis examina a fondo las disposiciones de la Ley de IA contra los riesgos que entraña el uso malicioso.
- Los resultados revelan que la cobertura de los riesgos de uso malicioso en la Ley de IA es desigual: mientras que algunos riesgos se afrontan de manera directa, otros apenas se abordan de manera indirecta a través de otras normativas de la UE o sus Estados miembros, o bien recurriendo a distintas iniciativas internacionales. Al contener lagunas importantes, la Ley de IA menoscaba su propio valor como modelo mundial.
- La dependencia de la regulación nacional o sectorial para hacer frente a esas carencias puede resultar coherente desde el punto de vista interno para evitar solapamientos y un exceso de celo regulador, pero presupone la existencia generalizada de principios comparables que se replicarán a nivel internacional, una premisa que podría ser errónea.
- Por lo tanto, las instituciones europeas deben someter a la Ley de IA a revisiones periódicas para reforzar y completar su cobertura regulatoria. Sin embargo, iniciativas recientes como el Ómnibus Digital apuntan a una restricción de su ámbito de aplicación, con el consiguiente riesgo de perjuicio reputacional. Al mismo tiempo, la UE debería interactuar en el ámbito internacional echando mano de un relato renovado que reconozca las limitaciones de la Ley de IA a la hora de exportarla en su forma actual.
Análisis
Iniciativas de seguridad de la IA frente a la presión competitiva
En el panorama geopolítico actual, la carrera por el dominio de la IA entre Estados y empresas gira en torno al liderazgo y las capacidades tecnológicas, no en torno a la seguridad o la gestión de riesgos. Así lo ponen de manifiesto las políticas, las inversiones y los avances científicos de los principales actores geopolíticos.
Estados Unidos (EEUU) hizo público su plan de acción en IA en el verano de 2025, cuyo fin consiste en situar la IA estadounidense como el estándar en el ámbito mundial y garantizar que los aliados dependan de su tecnología. Este objetivo se intenta cumplir a través de un enfoque regulatorio prácticamente sin intervencionismo, el cual incluye la revocación de la orden ejecutiva de Joe Biden sobre una IA segura y responsable y el impulso a distintas iniciativas destinadas a bloquear la regulación de la IA en los Estados. Esta estrategia ha resultado beneficiosa para el sector privado estadounidense, que incluye muchas de las empresas punteras en IA mundialmente y encabezó la inversión privada en IA en 2024 con casi 110.000 millones de dólares, quintuplicando con creces el total invertido en Europa.
Por su parte, China también aspira al liderazgo mundial en IA en 2030, con avances deliberados en teorías, tecnologías y aplicaciones de IA. Lo consigue mediante una política industrial coordinada para toda la cadena de valor de la inteligencia artificial que incluye energía, talento, datos, algoritmos, hardware y aplicaciones, situando la IA como una herramienta para abordar los desafíos económicos, sociales y de seguridad. Goldman Sachs calcula que los proveedores chinos de IA invertirán 70.000 millones de dólares estadounidenses en centros de datos en 2026, los cuales se sumarán al amplio apoyo estatal para impulsar la capacidad nacional en materia de semiconductores y una infraestructura de computación compartida.
La UE también ha tomado nota de este panorama competitivo. En abril de 2025, puso en marcha el Plan de Acción “Continente de IA” con el fin de movilizar los ámbitos de infraestructura de computación, datos, talento, algoritmos y regulación. La UE ha anunciado 19 factorías de IA, 13 antenas de factorías de IA y, en cooperación con el Banco Europeo de Inversiones (BEI), cinco gigafactorías de IA. Se espera que se debatan y aprueben nuevas iniciativas en torno a la IA a principios de 2026, con la propuesta de la Ley de desarrollo de la computación en la nube y la inteligencia artificial, cuyo objetivo consiste en estimular la capacidad de computación en la nube de la UE, y el Ómnibus Digital, simplificando –y reduciendo– algunos de los elementos de la Ley de IA como parte del impulso reciente de desregulación en la UE.
Estos acontecimientos han captado la atención del público y de autoridades de todo el mundo en los últimos meses. Son un reflejo de un entorno de competencia feroz con rápidos avances. Este contexto suele eclipsar, e incluso anular por completo, las iniciativas e inquietudes en torno a la seguridad y la gestión de riesgos de la IA. Así queda perfectamente ilustrado por la escasa atención dedicada a muchas iniciativas orientadas a la seguridad, a pesar de haberse emprendido casi al mismo tiempo que las iniciativas mencionadas de promoción de la IA. En la UE, el compromiso con la seguridad internacional de la IA lo abandera la Oficina Europea de Inteligencia Artificial. Dicho compromiso incluye la Red Internacional de Institutos de Seguridad de la IA, la labor en torno a seguridad, el reconocimiento mutuo y las normas en el contexto de las asociaciones digitales de la UE con Canadá, la República de Corea y Singapur, o el Consejo de Comercio y Tecnología con la India.
La dinámica de presión competitiva extrema otorga un papel más crítico que nunca a los marcos reguladores de la IA para integrar salvaguardias que puedan evitar la materialización de los riesgos catastróficos asociados a las capacidades y el despliegue rápido de la IA. Aunque las autoridades estén prestando más atención a esa rivalidad y, sobre todo en el caso de la UE, a la competitividad, la comunidad académica de la IA y la sociedad civil siguen centrándose en la confianza, la seguridad y los riesgos.
En este contexto, la Ley de Inteligencia Artificial (Ley de IA) de la UE destaca como una de las primeras normativas vinculantes del mundo en este ámbito. Aunque ya hay otros gobiernos y órganos internacionales que han emitido documentos sobre seguridad de la IA, siempre incluyen principios generales y no vinculantes, con mecanismos endebles de ejecución o supervisión. En cambio, la Ley de IA es muy específica: regula casos de uso concretos en función de su riesgo previsto, en vez de abordar la tecnología en sí.
Más allá de su innovación jurídica, la Ley de IA reviste una gran importancia en el ámbito mundial. Las instituciones europeas pretendían que sirviese de modelo para la gobernanza de la IA. Presuponían que la ventaja de su regulación por su carácter pionero y por el tamaño del mercado de la UE –el llamado “efecto Bruselas”– bastaría para convencer a otras jurisdicciones de que basaran sus normativas en la Ley de IA de la UE. Aunque la influencia no fuese la motivación principal, no cabe duda de que fue un factor que ayudó a aprobar la normativa, puesto que el Consejo de la UE elogió la Ley de IA como un posible “referente mundial por lo que respecta a la regulación de la IA”.
Las reacciones de la comunidad internacional a la Ley de IA han sido dispares. En EEUU, las encuestas de opinión muestran un apoyo del público a la Ley de IA de la UE y normativas similares en su propio país, una postura que contrasta sobremanera con la de la Administración Trump. En cambio, China ha elaborado su propio marco de seguridad de la IA, ha manifestado su apoyo a “marcos jurídicos y éticos integrales” y ha presentado propuestas para su gobernanza mundial. Al mismo tiempo, otros grandes actores digitales del sur global están desarrollando su posición sobre la Ley de IA y la gobernanza de la IA en general. La India, con un sólido ecosistema digital y de inteligencia artificial, ve en la Ley de IA una fuente de inspiración, en especial por lo que respecta a su enfoque basado en riesgos, los requisitos de supervisión humana, las normas de protección de datos y la agilización de la gobernanza de IA a través de una autoridad centralizada. Este punto de vista no se comparte de forma unánime en el sur global. En Sudáfrica, por ejemplo, algunas organizaciones de la sociedad civil han afirmado que les preocupa que se sigan planteamientos europeos de forma acrítica para la regulación digital.
Aun así, para que la Ley de IA triunfe como modelo de gestión de los riesgos, la primera condición es que tenga calidad normativa. En el contexto de la IA, la calidad normativa conlleva la capacidad de abordar a lo largo del tiempo y de manera adecuada los riesgos más críticos que plantean los sistemas de IA, es decir, los relacionados con los posibles perjuicios más graves y las repercusiones más nocivas. Dicho de otro modo, el presente análisis propugna que, para que las autoridades extranjeras atentas a las consideraciones en materia de seguridad de la IA vean la Ley de IA como un referente, la regulación debe abordar y constatar los riesgos pertinentes. De lo contrario, la Ley de IA no logrará tener ninguna influencia a nivel mundial y se verá superada por marcos alternativos que afronten mejor los riesgos conocidos.
En este contexto, este análisis se centra en los riesgos derivados del uso malicioso de la IA, que son las prácticas intencionadas que recurren a la IA para hacer daño. Estos riesgos son un subconjunto de las formas más graves y previsibles de lo que las comunidades de seguridad de la IA tildan como resultados “catastróficos”, desde la desinformación y el fraude a gran escala a la ciberdelincuencia y el desarrollo de armas biológicas. El argumento que se propone es que, si la Ley de IA de la UE pretende lograr su objetivo de servir de referencia mundial para la gestión de riesgos de la IA, debe tener en cuenta de manera adecuada los riesgos derivados de su uso malicioso. De no conseguirlo en su forma actual, es importante que se introduzcan los ajustes normativos correspondientes.
Por lo tanto, el texto se estructura en cuatro partes diferenciadas: en primer lugar, se esboza el marco de uso malicioso que se empleará a lo largo del documento; en segundo lugar, se pondera si la Ley de IA reconoce en sus disposiciones los subriesgos del uso malicioso y sus posibles carencias; en tercer lugar, se examinan los motivos que subyacen al diseño y las limitaciones de la Ley de IA; y, por último, en el artículo se vinculan los problemas que plantean sus conclusiones para el efecto Bruselas pretendido para la Ley de IA.
Discrepancias entre los marcos de riesgos de la IA: Ley de IA frente a los riesgos del uso malicioso
La Ley de IA impone obligaciones a (principalmente) proveedores y distribuidores de sistemas de IA en función de la intensidad de los posibles riesgos derivados de sus casos de uso. Según el texto de la ley, los sistemas de la IA se clasifican en tres categorías de riesgo: aquellos cuyo uso plantea riesgos inaceptables y, por lo tanto, quedan prohibidos; aquellos con casos de uso de alto riesgo, los cuales presentan obligaciones en materia de transparencia, ciberseguridad y gestión de riesgos; y aquellos casos de uso cuyo riesgo reside en la falta de transparencia de los sistemas de IA y su despliegue. No obstante, este planteamiento varía para los modelos de IA de uso general (GPAI), que se consideran un tipo específico de tecnología de IA con obligaciones diferenciadas. En este caso, el texto plantea amplias obligaciones en materia de transparencia a los proveedores de modelos GPAI, que van desde la información para los desarrolladores posteriores de sistemas de IA y la divulgación de los datos empleados con fines formativos. Los requisitos son aún más exhaustivos en el caso de modelos de GPAI con riesgos sistémicos, con una gestión de riesgos y unas obligaciones reforzadas en materia de ciberseguridad.
No obstante, la categorización de riesgos de la Ley de IA no es más que una entre muchas de las elaboradas y aplicadas por la industria, los gobiernos, las organizaciones internacionales, el mundo académico y la sociedad civil. Si bien el enfoque de la Ley de IA basado en la “intensidad del riesgo” puede ser el adecuado para la rápida elaboración y aplicación de políticas, resulta menos idóneo a la hora de evaluar la cobertura de los riesgos más críticos derivados de la IA. En un contexto como este, y habida cuenta de las oportunidades extraordinarias que brinda la IA para que los agentes maliciosos causen daños, el presente análisis gira en torno a los riesgos de ese uso malicioso. Se trata de prácticas deliberadas que emplean las capacidades de la IA para poner en peligro la seguridad de distintos individuos, grupos o la propia sociedad. El elemento definitorio es la intención de causar daño, que distingue el uso malicioso del uso indebido accidental o de otras consecuencias no deseadas de la IA. El uso malicioso también se diferencia de lo que cabría llamar abuso malicioso, el cual aprovecha los puntos débiles de los propios sistemas de IA en lugar de instrumentalizar las capacidades de esos sistemas.
Los riesgos del uso malicioso se pueden dividir a su vez en subriesgos específicos. En aras de la exhaustividad, el presente análisis examina el modo en el que la Ley de IA afronta nueve subriesgos identificados. La categorización pretende ser completa y se basa en los riesgos del uso malicioso ya mencionados en los que hacen hincapié las organizaciones internacionales de seguridad de la IA, los informes sobre políticas, el mundo académico y los incidentes notificados. Los nueve subriesgos resultantes son los siguientes:
- Armas biológicas y amenazas químicas: el uso de la IA para diseñar toxinas o patógenos novedosos (bioterrorismo), llevar a cabo un ataque biológico o proporcionar instrucciones con el fin de reproducir las armas biológicas y químicas existentes. Incluye riesgos de doble uso en los que se puede reutilizar el descubrimiento de fármacos por IA o las propias IA médicas con fines maliciosos.
- IA con intenciones maliciosas: la creación e implantación de sistemas autónomos con fines destructivos (por ejemplo, ChaosGPT). Son sistemas que se pueden desplegar sin más o destinar a objetivos nocivos, con capacidad de adaptarse sin supervisión humana.
- IA de desinformación y persuasión: IA empleada para generar contenido falso o engañoso a gran escala o con fines de persuasión personalizada (incluso desinformación personalizada) mediante la explotación de puntos vulnerables cognitivos. Estos usos hacen mella en la democracia y en la confianza pública y pueden incluir operaciones encubiertas de injerencia extranjera.
- Contenido falso y abusivo: IA generativa empleada para crear contenido que perjudique a individuos. Se incluyen aquí las imágenes íntimas sin consentimiento, los materiales de abuso sexual infantil generados por IA, el fraude por suplantación de voz, el chantaje, la extorsión, el daño a la reputación y el abuso psicológico.
- Fraude, estafas e ingeniería social: sistemas de IA (por ejemplo, WormGPT o FraudGPT) empleados para llevar a cabo phishing o suplantaciones, así como chatbots frau