El auge de la Inteligencia Artificial y la normativa de la Unión Europea - TRBL Services

Compatibilità
Salva(0)
Condividi

La inteligencia artificial sigue avanzando a pasos agigantados, es un hecho indiscutible. Según el Informe IA 2025 – Inteligencia Artificial en España y el mundo, elaborado por Ditrendia, el mercado de la IA seguirá creciendo durante los próximos años llegando a tener una tasa de crecimiento anual compuesta (CAGR) del 36,6%. Si hablamos de cifras, pasará de los 184.000 millones de dólares en 2024 hasta los 826.700 millones en 2030.

Si hablamos de Europa, la inversión en TI crecerá casi un 9% en 2025, llegando hasta 1,28 millones de dólares. Estos datos, publicados por Gartner a finales de 2024, indican que el gasto en inteligencia artificial aumentará en el Viejo Continente de 78.000 millones de dólares en 2024 a 94.000 millones en 2025.

Fuente: iStock

Arun Chandrasekaran, analista en Gartner, publicó un artículo con 3 predicciones sobre la inteligencia artificial:

  • En 2027, más del 50 % de los modelos de IA generativa utilizados por las empresas serán específicos de su sector o de un departamento concreto, partiendo de aproximadamente el 1 % en 2023.
  • En 2026, el 75 % de las empresas utilizarán la IA generativa para crear datos sintéticos de clientes, partiendo de menos del 5 % en 2023.
  • En 2028, el 30 % de la IA generativa implementada se optimizará utilizando métodos computacionales de ahorro de energía, impulsados por las iniciativas de sostenibilidad.

Los riesgos de la inteligencia artificial y la necesidad de regulación

Estos datos, sin duda, nos hacen ver que la inteligencia artificial va a seguir creciendo en los próximos años y estará cada vez más presente en nuestra vida diaria. 

Sin embargo, son varios los riesgos asociados a esta tecnología en auge, destacando: 

  • Manipulación de la información, ya que no siempre conocemos de dónde viene la información que nos proporciona una IA. 
  • Privacidad de los datos personales y su seguridad, al recopilar mucha información. 
  • Sesgos algorítmicos, ya que la información puede no ser precisa, según el entrenamiento que haya recibido la IA. 
  • Ética y responsabilidad en su uso.

Como conclusión, diremos que la inteligencia artificial nos abre un mundo de posibilidades a la hora de optimizar procesos; sin embargo, no debemos ignorar los riesgos que esta tecnología entraña y son precisamente esos riesgos los que precisan de un marco regulatorio.

Marco regulatorio de la Unión Europea

En abril de 2021, la Comisión Europea propuso regular el uso de la inteligencia artificial en la Unión Europea, y el Parlamento y Consejo Europeos dieron luz verde al Reglamento de Inteligencia Artificial en diciembre de 2023. En este Reglamento se abordan los principales riesgos para la salud, la seguridad y los derechos fundamentales de los ciudadanos, a la vez que proporciona requisitos y obligaciones en su uso a desarrolladores e implementadores. 

El 1 de agosto de 2024 entró en vigor este Reglamento, el primero a nivel mundial, que regula el uso de la inteligencia artificial basado en los riesgos:

  • Riesgo mínimo o nulo: este riesgo se aplica a la mayoría de los sistemas de inteligencia artificial y no están cubiertos por la regulación por lo que se pueden usar libremente. En esta categoría entrarían, por ejemplo, los filtros de correo electrónico o los sistemas de recomendación.
  • Riesgo limitado: aplica a aquellos sistemas que están sujetos a obligaciones de transparencia y a informar al usuario de que el contenido está creado mediante inteligencia artificial. Un ejemplo serían aquellos sistemas que interactúan con personas, como los chatbots.
  • Riesgo alto: los sistemas catalogados con un riesgo alto deben cumplir con unos requisitos muy estrictos para funcionar en la UE, entre los que se incluyen distintas pruebas y supervisión humana. Afecta a aquellos sistemas que, por ejemplo, realicen perfiles personales, se utilicen para contratar empleados, realicen diagnósticos médicos o estén relacionados con infraestructuras críticas como el transporte.
  • Riesgo inaceptable: son aquellos sistemas de inteligencia artificial prohibidos en la Unión Europea por el riesgo que suponen para la seguridad y los derechos de los usuarios. En esta categoría nos encontramos, por ejemplo, con sistemas que infieran emociones en centros educativos o de trabajo y todos los incluidos en el artículo 5 del Reglamento, como los sistemas de vigilancia masiva no regulados o los de identificación biométrica en lugares públicos. 

Esta normativa, según la Comisión Europea, afecta a todas las partes involucradas en el desarrollo, uso, importación, distribución o fabricación de sistemas de inteligencia artificial. Engloba a agentes, empresas y organismos públicos y privados tanto si pertenecen a la UE o no, si su sistema de IA se va a introducir en países de la Unión Europea o puede afectar a personas perteneciente a los Estados miembros.

Las autoridades nacionales de cada Estado miembro serán responsables de supervisar y hacer cumplir las directrices, A nivel europeo, se ha creado el Comité Europeo de Inteligencia Artificial, compuesto por representantes de todos los Estados miembros y encargado de regular esta normativa y favorecer la cooperación entre los países miembros de la UE. El Comité Europeo contará con la ayuda de dos órganos consultivos: la Comisión Técnica Científica y el Foro Consultivo.

Como podemos ver en este artículo de la Comisión Europea, el incumplimiento de la normativa puede acarrear graves multas para las empresas:

  • hasta 35 millones de euros o el 7% del volumen de negocios anual total a escala mundial del ejercicio financiero anterior, si este importe fuera superior, por las infracciones por incumplimiento o prácticas prohibidas en relación con los requisitos sobre los datos;
  • hasta 15 millones de euros o el 3% del volumen de negocios anual total a escala mundial del ejercicio financiero anterior por el incumplimiento de cualquier otro requisito u obligación del Reglamento;
  • hasta 7,5 millones de euros o el 1,5% del volumen de negocios total anual a escala mundial del ejercicio anterior por el suministro de información incorrecta, incompleta o engañosa a los organismos notificados y a las autoridades nacionales competentes en respuesta a una solicitud;
  • en cada categoría de infracción, el umbral sería el menor de los dos importes para las pymes y el más elevado para las demás empresas.

A principios de febrero, la Comisión publicó las Directrices sobre prácticas de inteligencia artificial (IA) prohibidas, según se definen en la Ley de IA. Estas directrices han sido aprobadas pero aún no se han adoptado formalmente e incluyen una descripción general de las prácticas de IA prohibidas por los riesgos que suponen para los derechos y la seguridad de los ciudadanos. Se trata de una información muy valiosa pero cuya interpretación autorizada corresponde al Tribunal de Justicia de la Unión Europea

Estas directrices, que se pueden descargar aquí, incluyen, por ejemplo:

  • Las prohibiciones, indicadas anteriormente en las descripciones de los riesgos, enmarcadas en el artículo 5 de la Ley y sus bases legales.
  • El alcance de prácticas relacionadas con la “comercialización”, la “puesta en servicio” o el “uso” de un sistema de IA.
  • Las exclusiones de aplicación, como puede ser lo referido a seguridad nacional, defensa o I+D.

La Ley de Inteligencia Artificial de la Unión Europea es la primera del mundo y estamos seguros de que sentará las bases de próximas normativas relacionadas con la inteligencia artificial. Con el objetivo de potenciar la excelencia y la innovación, la Ley de Inteligencia Artificial protege los derechos humanos lo que supone una garantía ante el ascenso imparable de esta nueva tecnología.  

Recapiti
TRBL