Hoy entrevisto a Rafael Ansón, Socio del Bufete Mas y Calvet, para hablar sobre Inteligencia Artificial desde una perspectiva ética y legal, con enfoque en el nuevo reglamento de la Unión Europea.
Los desafíos de la IA están estrechamente relacionados con la protección de la privacidad y la seguridad de los datos, la prevención de sesgos y discriminación, la gestión sostenible de los recursos necesarios para el uso de la IA, y especialmente, la gestión del impacto que pueda tener en el mercado laboral.
Estas son algunas de las conclusiones del Informe Ascendant Madurez Digital 2024 de Minsait, titulado “IA, radiografía de una revolución en marcha”. Otro de los grandes retos es acelerar la innovación y el escalado ágil y flexible de esta herramienta, con el fin de no perder el tren de la competitividad.
¿Podría explicar brevemente en qué consiste este nuevo reglamento y cuál es su objetivo principal?
Rafael Ansón: No es fácil resumir el contenido y objetivos del Reglamento sobre la Inteligencia Artificial (RIA) que, por cierto, a fecha de hoy, aún no se ha publicado en el Diario Oficial. Podríamos sintetizarlos de la siguiente manera: el RIA trata de regular el diseño, implantación y uso de sistemas de Inteligencia Artificial (AI) en la Unión Europea.
Sus objetivos son promover la IA centrada en el ser humano, su fiabilidad y garantizar un alto nivel de protección de la salud, seguridad y derechos humanos, incluyendo la democracia, el Estado de Derecho y el medio ambiente, así como el apoyo de la investigación. El Reglamento excluye de su ámbito determinadas cuestiones de seguridad nacional.
Además, la aparición de modelos de IA de uso general (especialmente Chat GPT en diciembre de 2022), ha sido objeto de regulación, lo cual ha alargado la tramitación de la norma, pero ha sido muy oportuno incorporar un marco regulatorio de IA general.
¿Qué riesgos abordan las nuevas normas sobre la Inteligencia Artificial?
Rafael Ansón: Me alegro de que me formule la pregunta de esta manera, pues el enfoque de la regulación de la IA en el Reglamento se basa en los riesgos, no en el contenido y estructura de la tecnología subyacente a la IA.
El Reglamento diferencia cuatro sistemas de IA: los de riesgo inaceptable (es decir, prohibidos), alto riesgo, riesgo limitado y riesgo mínimo.
Los sistemas prohibidos son aquellos que se consideren una clara amenaza para la seguridad, los medios de vida y los derechos de las personas (manipulación subliminal de las personas, abuso de las personas vulnerables, clasificación social, categorización biométrica, reconocimiento facial en tiempo real, etc.)
Los sistemas de alto riesgo se refieren, por ejemplo, a la gestión de las infraestructuras críticas, la educación, sistema de empleo, gestión de migrantes, administración de justicia y procesos democráticos, etc. En estos casos, los sistemas deben cumplir unos requisitos cualificados para que puedan ser utilizados por los empresarios y ciudadanos.
Y, por último, los sistemas de riesgo limitado o mínimo no requieren especiales requisitos para su utilización.
¿Cuáles son los aspectos éticos más importantes que este reglamento acomete?
El reglamento aborda aspectos éticos importantes como la equidad y la no discriminación en los algoritmos de IA, la transparencia en la toma de decisiones automatizadas y la responsabilidad de los desarrolladores en caso de daños causados por sistemas de IA. También establece normas para la supervisión y evaluación continua de los sistemas de IA para garantizar su conformidad con los principios éticos.
¿Cuáles son las principales diferencias entre las políticas de la UE y Estados Unidos en cuanto a la regulación de la IA?
Rafael Ansón: Es muy interesante comparar el enfoque y contenido de las recientísimas normas que regulan la IA en Europa y Estados Unidos. Sin duda la IA se caracteriza por su internacionalidad. Lo que está ocurriendo ahora en los laboratorios de investigación de IA de California o Japón, nos afectará en breve a nosotros.
Hasta ahora hemos hablado de nuestro Reglamento europeo sobre la IA. Pero antes, en Estados Unidos, el 30 de octubre de 2023, se publicó la Orden Ejecutiva del Presidente Biden sobre la IA. Esta norma tiene fuerza de ley y establece un plan de acción del gobierno a medio plazo para controlar el desarrollo de la IA y de las consecuencias de todo tipo que pueda tener en la sociedad.
Su enfoque, por tanto, es algo diferente al de Europa, pues el Reglamento regula la intervención de todos los actores del ciclo de vida de la IA en función del riesgo que genere el sistema de IA.
¿Cree que estas diferencias en la regulación podrían generar tensiones en el ámbito internacional?
Rafael Ansón: Efectivamente, al tratarse de enfoques diferentes, uno más restrictivo que el otro, la inversión en el desarrollo de IA se canalizará a través del entorno económico y legal más favorable. En este sentido, son indicativas las declaraciones de varios Presidentes de Estados miembros de la UE en las que advertían de las consecuencias de un Reglamento que no apoyara decididamente la inversión en sistemas de IA, pues acabaría aumentando la distancia que existe entre la industria tecnológica europea y la norteamericana.
¿Existe ya alguna regulación que impida el uso pernicioso de deepfakes (videos generados por IA sin consentimiento de las personas afectadas)?
Rafael Ansón: La simulación de videos y grabaciones es una nueva realidad que entraña un riesgo. La posibilidad de generar un video sintético en el que aparece una persona diciendo con su voz manipulada cosas que nunca diría o mostrándose en una actitud íntima que nunca difundiría (los denominados deepfakes), es un peligro real.
En nuestro país, el Grupo SUMAR presentó el 6 de octubre de 2023 una proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces de personas generadas por medio de la Inteligencia Artificial. Me pareció un intento reseñable, si bien la propuesta de regulación, dada la dificultad del tema, parecía poco eficaz. Lamentablemente, el pasado 12 de marzo se retiró este texto. En cualquier caso, el RIA contiene unas disposiciones relativas a esta problemática, que, cuando se apruebe definitivamente el texto, entrarán en vigor, probablemente el año próximo.
También quiero referirme en este aspecto a los problemas que generan los deepfakes en relación a las pruebas e informes periciales. Es otra cuestión relevante que debemos resolver para poder utilizar fotografías, audios y videos como prueba en juicio.
Por la experiencia que tiene en grupos de trabajo sobre los riesgos del desarrollo y utilización de IA, ¿qué recomendaría a las empresas que usan sistemas de IA?
Rafael Ansón: En primer lugar, las empresas o instituciones que están invirtiendo en sistemas de IA son conscientes de las oportunidades de progreso y expansión que tienen, pero también, de los peligros que puede suponer para sus trabajadores y terceros.
Estas empresas tienen que diseñar modelos de gestión de riesgos y de gobernanza para que la inversión y uso de la IA se haga diligente y adecuadamente. En estos modelos conviene constituir un comité de carácter transversal que cubra diferentes aspectos como el negocio, privacidad, compliance, financiación, RRHH y, sobre todo, la ética. Este comité abordará de manera integral todos los aspectos del sistema de IA, desde sus inicios hasta la revisión periódica de su utilización.
Otro aspecto importante es la formación de todo el personal para que utilice adecuada y éticamente la IA.
En segundo lugar, pienso que existe un problema práctico en muchas empresas que no invierten en IA (pues son de tamaño pequeño o mediano) y no tienen identificados los sistemas de IA que utilizan sus empleados (p. ej. Chat GPT, Copilot, etc.). Esta ignorancia genera un riesgo importante en relación a la privacidad, propiedad intelectual, sesgo, falta de fiabilidad, etc., que se agrava, fundamentalmente, por la imposibilidad que genera esa ignorancia para prevenir los riesgos asociados al uso de estas nuevas tecnologías.
¿Qué consecuencias piensa Ud., que va a tener la IA en el empleo?
Rafael Ansón: Se ha comentado mucho el impacto negativo que va a tener la IA en el empleo, sobre todo los puestos de trabajo con un contenido repetitivo, que aportan poco a la cadena de valor. Comparto esta opinión, pero también pienso, como ha ocurrido en la historia económica desde principios del s. XIX, que la IA como factor innovador generará nuevos puestos de trabajo. En este sentido soy optimista e intuyo que el balance será más positivo que negativo.
Lo que más me preocupa en este punto se refiere al impacto que la IA tendrá sobre el valor de la experiencia en el mundo laboral. Es previsible que el valor añadido que tiene un trabajador con años de experiencia pueda ser compensado con la capacidad de procesamiento de datos de la IA. En consecuencia, nos podemos encontrar en un escenario en el que el trabajador con poca experiencia pero que sepa usar la IA se encuentre en condiciones similares al trabajador que aporte mucha experiencia.
Por último, en relación a la búsqueda de trabajo, es un hecho que se está utilizando la IA en los procesos de selección. En este nuevo escenario, sería conveniente avanzar en transparencia para conocer los detalles de los algoritmos por si pudiera existir algún sesgo que supusiera una discriminación injusta.
Según McKinsey la IA creará 133 millones de nuevos empleos para el 2030. El dato que ofrece la consultora desafía la idea de que la IA destruirá millones de puestos de trabajo. Sí ocurre con aquellos puesto de trabajo más repetitivos, como bien comentaba Rafael Ansón en esta entrevista.
El informe demuestra que el aprendizaje automático y la tecnología de la IA tienen el potencial de generar nuevas oportunidades de carrera en diferentes ámbitos como informática y retail.
Para las personas que buscan empleo y para aquellos profesionales que quieran cambiar de puesto de trabajo, el adquirir habilidades en IA les abrirá nuevos caminos.
Según la consultora americana especializada en estudios de mercado, Gran View Research, se espera que el tamaño del mercado global de la IA crezca un 37% cada año desde 2023 hasta 2030.
La postura de la Unión Europea, con su Reglamento de IA basado en un enfoque que prioriza la seguridad, la ética y la protección de los derechos fundamentales, parece tener sentido ante tal crecimiento, pero probablemente impactará en la competitividad y en la innovación, que EEUU, al tener una postura menos intervencionista, domina.
Los desafíos de la IA residen en la capacidad de equilibrar su potencial transformador con la responsabilidad ética y la garantía de que su desarrollo beneficie a la sociedad en su conjunto.
Entrevista por Elena Marcos