El Reglamento UE 2024/1689, que ha entrado en vigor el 1 de agosto, marca un hito significativo en la normativa europea sobre Inteligencia Artificial (IA) al establecer un marco de regulación integral, pionero a nivel mundial para el uso de la IA.
Este Reglamento será directamente aplicable dos años después de su entrada en vigor, aunque ciertas disposiciones, como las relativas a los sistemas de IA prohibidos y de propósito general, tendrán unos periodos más cortos, de seis y doce meses respectivamente.
La publicación del Reglamento de Inteligencia Artificial (RIA) en el Diario Oficial de la Unión Europea (DOUE) el 12 de julio ha puesto fin a un largo proceso legislativo para consensuar una norma sin precedentes, por su contenido y alcance.
Objetivo
El Reglamento de IA de la UE, de conformidad con los valores de la Unión Europea, tiene como fin promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea, un marco normativo centrado en la seguridad, la ética y la protección de los derechos fundamentales.
El reglamento tiene como objetivo garantizar que la IA se desarrolle y utilice de manera ética, segura y que respete los derechos fundamentales de las personas, incluidos aspectos como la privacidad, la no discriminación y la protección de los datos personales.
Este reglamento es uno de los primeros intentos globales de regular de manera exhaustiva el uso de la IA y se centra en varios aspectos cruciales, incluyendo la ética y el uso de tecnologías biométricas.
Elena Marcos Bueno es Licenciada en Ciencias de la Información en la rama de Periodismo por la Universidad Complutense de Madrid.
Máster en Comunicación Digital y Marketing por la Universidad Camilo José Cela.
Premio al Talento Digital 2021.
LinkedIn top Voice Consultoría 2024 y Comunicación 2023.
Actualmente cursando máster en Inteligencia Artificial.
Posee más de 20 años de experiencia en consultoría en el área de tecnología y desde 2023 es Directora de Comunicación en el Bufete Mas y Calvet.
Miembro de la Junta Directiva de PETEC y vocal de comunicación. Experta en Cultura organizacional, estrategia y comunicaci’on corporativa y digital.
Foco en Ética y Derechos Fundamentales
El Reglamento de IA de la UE tiene un fuerte enfoque en la ética, con el objetivo de establecer una regulación que asegure que los sistemas de IA respeten los derechos y libertades fundamentales de las personas.
Los principales puntos de la regulación en torno a la ética incluyen:
1. Clasificación de riesgos: El reglamento adopta un enfoque basado en el riesgo, dividiendo los sistemas de IA en cuatro categorías de riesgo:
– Riesgo inaceptable: Incluye sistemas que se consideran una amenaza para los derechos fundamentales y están prohibidos, como la vigilancia biométrica masiva en tiempo real y los sistemas que manipulan el comportamiento humano de manera dañina.
– Alto riesgo: Estos sistemas, que incluyen tecnologías como los sistemas de identificación biométrica remota, se someten a regulaciones estrictas debido a su impacto potencial sobre los derechos fundamentales. Deben cumplir con requisitos estrictos en cuanto a transparencia, precisión y rendición de cuentas.
– Riesgo limitado: Sistemas que deben cumplir con requisitos mínimos de transparencia, por ejemplo, chatbots que deben indicar a los usuarios que están interactuando con una IA.
– Riesgo mínimo o nulo: Como aplicaciones de IA comunes (juegos o filtros de imágenes), donde las regulaciones son más laxas.
2. Derechos Fundamentales: El reglamento coloca los derechos fundamentales en el centro del desarrollo y uso de la IA. Esto incluye el respeto a la dignidad humana, la privacidad, la igualdad y la no discriminación.
Las tecnologías de IA que puedan vulnerar estos derechos están sometidas a controles estrictos o incluso prohibiciones.
3. Supervisión y transparencia: Se introducen requisitos para que los sistemas de IA sean transparentes y comprensibles. Esto significa que los desarrolladores deben informar claramente cuando los usuarios están interactuando con una IA y proporcionar explicaciones sobre cómo funcionan los sistemas automatizados, especialmente aquellos en áreas sensibles como la justicia, el empleo, y la educación.
4. Responsabilidad y rendición de cuentas: Los desarrolladores y usuarios de sistemas de IA de alto riesgo están obligados a demostrar que sus sistemas son seguros, precisos y respetuosos con los derechos humanos. Esto incluye auditorías regulares y la obligación de implementar medidas correctivas en caso de errores.
Foco en el uso de la IA biométrica
Uno de los temas más controvertidos del reglamento es la regulación del uso de tecnologías biométricas, en particular la “identificación biométrica remota”, como el reconocimiento facial en espacios públicos.
1. Prohibiciones y excepciones: El uso de identificación biométrica remota en tiempo real en espacios públicos está prohibido en la mayoría de los casos debido a preocupaciones sobre la privacidad y la vigilancia masiva. Sin embargo, se permiten excepciones bajo circunstancias muy específicas, como investigaciones criminales graves o amenazas de terrorismo, pero incluso en estos casos se deben cumplir estrictas garantías legales.
2. Regulación del reconocimiento facial: El reglamento también regula de manera estricta el uso de tecnologías de reconocimiento facial, requiriendo que se sometan a rigurosos controles antes de ser implementados. Estos controles incluyen pruebas de precisión, la minimización de sesgos y la supervisión humana en su uso.
3. Prevención del sesgo algorítmico: Se exige que los desarrolladores de sistemas de identificación biométrica adopten medidas para evitar el sesgo algorítmico. Esto incluye la obligación de garantizar que los sistemas sean entrenados con datos diversos y representativos, para evitar discriminación basada en factores como el origen étnico, el género o la edad.
Impacto y relevancia ética
El enfoque del Reglamento de IA de la UE en la ética y la regulación de la biometría subraya la importancia de que el desarrollo tecnológico no se realice a expensas de los derechos fundamentales. La regulación busca crear un equilibrio entre la innovación y la protección de las personas, imponiendo controles estrictos sobre los usos de la IA que podrían tener un impacto negativo en la sociedad.
El reglamento también sienta un precedente global para otros países y regiones que buscan desarrollar sus propias normativas en torno a la IA, consolidando a la UE como un líder en la regulación ética de la tecnología.
Régimen sancionador
Las sanciones por incumplimiento pueden llegar hasta los 35 millones de euros o el 7% del volumen de negocios anual global.
Innovación y apoyo
El RIA promueve la innovación mediante la creación de un marco normativo armonizado y el financiamiento de proyectos de IA.
Supervisión y gobernanza
Se establece un sistema de gobernanza y supervisión para garantizar el cumplimiento del reglamento.
Transparencia y accesibilidad
Los sistemas de IA deben ser transparentes y sus decisiones se deben explicar con facilidad a los usuarios.
Fomento de la confianza
El RIA busca aumentar la confianza en la IA, asegurando que sea fiable y respetuosa con los derechos humanos.
Cooperación internacional
El reglamento fomenta la cooperación y coordinación entre los Estados miembros y otros actores relevantes.
Impacto global
Aunque el RIA se aplica dentro de la UE, se espera que tenga un impacto global debido a su alcance y las sanciones impuestas.
El RIA también se aplica a proveedores fuera de la UE cuyos sistemas de IA se utilicen en Europa.
Desafíos futuros
El reglamento está diseñado para adaptarse a los avances tecnológicos y desafíos futuros en el campo de la IA.
La implementación exitosa del RIA requerirá abordar una serie de desafíos técnicos, legales y éticos. La capacidad de la UE para equilibrar la protección de los derechos fundamentales con el fomento de la innovación será crucial para el éxito a largo plazo de este marco regulatorio.