La Responsabilidad Civil por los daños causados por la Inteligencia Artificial (IA): necesidad de normativa aplicable - Dictum Abogados

Compatibilità
Salva(0)
Condividi

La era de las Inteligencias Artificiales

En la era actual donde el exceso de información nos golpea incesantemente, y parece que todo nuestro mundo se transforma bajo la influencia de robots e Inteligencia Artificial, una auténtica revolución tecnológica que nos invita a convivir con sistemas tales como Perplexity, notebookLM, gamma, ChatGPT…

Además de otros tipos de sistemas o productos como los servicio al cliente a través de chatbots en línea, reconocimiento automático de voz (ASR) o el denominado speech to text, teléfonos móviles inteligentes y hasta robots que intervienen en cirugías como parte del equipo médico, asistentes que se han convertido en casi imprescindibles para nuestras vidas, No podemos obviar que el manejo de estas herramientas y, ante todo, el uso inadecuado de las mismas, puede tener consecuencias y acarrear en ciertos casos un riesgo que conlleva una responsabilidad que conviene tener presente.

Por esta razón, los Estados se han dado cuenta que la normativa vigente no podría hacer frente por mucho tiempo a este tipo de tecnologías que evolucionan diariamente y es por ello por lo que han dado comienzo a un proceso legislativo para dictar normas especialmente creadas para las mismas y tratar de ir regulando el ámbito tecnológico.

Por desgracia nuestro ordenamiento español todavía no cuenta con una normativa específica relativa a IA o cualquier tecnología emergente, por lo que debemos acudir a propuestas, informes, trabajos e incluso resoluciones extranjeras como las de la Unión Europea, siendo muy pocos los países que han iniciado el desarrollo legislativo de estos sistemas. Por ser, en términos jurídicos, el más cercano al Ordenamiento Español la normativa a considerar será muchas veces la de la Unión Europea, siendo la pionera en normativa sobre IA.

Teniendo en cuenta que antes que una normativa individualizada de cada país conviene más una legislación uniforme lograda a través de tratados o reglamentos europeos, este es el marco regulatorio más actual y que más se acerca a una respuesta sobre la problemática tanto a nivel extranjero, es decir, los terceros estados fuera de la UE -muchos países no tienen consolidada aún una normativa sobre IA, menos todavía referente a la responsabilidad civil de estos sistemas- como a nivel interno, para cada uno de los estados miembros de la UE.

Los sistemas de IA pueden actuar de manera autónoma e impredecible, lo que dificulta determinar si las acciones de sus creadores causaron daños de manera directa. La legislación actual tampoco reconoce a los sistemas de IA como entidades jurídicas, por lo que la responsabilidad debe recaer necesariamente sobre sus creadores y operadores humanos, y las empresas que los emplean.

Así, las empresas deben implementar prácticas responsables al desarrollar y utilizar IA, priorizando consideraciones éticas y cumpliendo con las regulaciones vigentes.

La UE, pionera en la legislación de los sistemas de IA

En tal sentido, la Unión Europea ha propuesto directivas para adaptar las normas de entre la innovación y la protección de los derechos fundamentales de los ciudadanos europeos, siendo que su objetivo principal es lograr es una mayor seguridad jurídica y respeto de los mismos, así como seguir promoviendo el desarrollo de sistemas inteligentes.

Así, la IA, como ciencia que trata de estudiar el comportamiento inteligente a partir de modelos matemáticos, encuentra en el Informe con recomendaciones destinadas a la Comisión Europea de 2020, la mejor aproximación actual a una conceptualización de la misma cuando la define como «todo sistema basado en programas informáticos o incorporado en dispositivos físicos que muestra un comportamiento que simula la inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno y la adopción de medidas, y pasar a la acción, con cierto grado de autonomía, para lograr objetivos específicos».

En sentido negativo, prescindiendo del concepto preciso de inteligencia, palabra en la que caben diferentes categorías, hoy en día aún no podemos identificar los sistemas que emplean la inteligencia de las máquinas con la de los humanos, ante la ausencia de conciencia y voluntad de la IA.

Existe un debate sobre si los robots y sistemas de IA deberían tener una personalidad jurídica propia, lo que implicaría que podrían ser responsables de sus acciones de manera similar a las personas jurídicas como las empresas.

Estos puntos reflejan la necesidad de un marco legal claro y adaptado a las particularidades de la IA para gestionar adecuadamente la responsabilidad civil derivada de su uso.

Desgraciadamente, la gran mayoría de ordenamientos jurídicos carecen de regulación en esta materia. No existe una “regulación específica” para sistemas que puedan realizar tareas sin ningún control o de forma autónoma, por este motivo se ha planteado adaptar las normas vigentes a estos supuestos.

Es en este contexto, de necesitar una regulación especializada para la IA y robótica, es cuando surge como premisa lo que autores denominan el Proyecto Robolaw; la finalidad de este proyecto, llamado «Regulación de las tecnologías emergentes en Europa: Robótica frente a la ley y la ética», surge de la necesidad de suplir las lagunas jurídicas que estaba dejando la implementación en diversos sectores cada vez más frecuente de IA. Este proyecto cumple con ser uno de los precedentes más importantes -no solo a nivel europeo, sino también como referente para terceros estados- que se encarga de poner énfasis en una legislación para las nuevas tecnologías.

La Resolución «Propuesta de reglamento en materia de responsabilidad civil por el uso de inteligencia artificial, del Parlamento Europeo, de 20 de octubre de 2020» , que ha sido objeto de actualizaciones posteriores, supone uno de los más recientes avances en el proceso de regulación de la robótica y la inteligencia artificial; constituye una de las soluciones más novedosas en este ámbito a nivel mundial pues incluye una normativa especializada sobre la responsabilidad civil cuando sea ocasionado un daño por algún sistema inteligente.

La Resolución como solución a la problemática apoya una Propuesta de cuando establece como objetivo principal que «para aprovechar eficazmente las ventajas e impedir posibles malos usos de los sistemas de IA. […] Es fundamental una legislación uniforme, basada en principios y preparada para el futuro en toda la Unión para todos los sistemas de IA…; parece necesario contar con un marco jurídico horizontal y armonizado basado en principios comunes con el fin de garantizar la seguridad jurídica, establecer una igualdad de normas en toda la Unión y proteger eficazmente nuestros valores europeos y los derechos de los ciudadanos».

Así, se parte de la premisa de que cualquier marco jurídico en materia de responsabilidad civil orientado al futuro debe dotar de seguridad jurídica e infundir confianza en la seguridad, fiabilidad y coherencia de los productos y servicios, incluidas las tecnologías digitales.

En otro orden, especial referencia merece el Primer Informe Internacional sobre la Seguridad de la IA, liderado por el renombrado experto en IA Yoshua Bengio y respaldado por las ideas de casi 1.000 expertos globales, examina los riesgos críticos de la IA, enfatiza la urgencia de la colaboración internacional y describe las principales prioridades de investigación para abordar desafíos como el uso malintencionado, los impactos sistémicos y el desarrollo seguro de tecnologías avanzadas de IA.

Categorías clave de riesgos de la IA

El informe identifica tres categorías principales de riesgos de la IA que requieren atención urgente:

  • Riesgos de uso malicioso, que abarcan amenazas potenciales como ciberataques y contenido dañino generado por IA
  • Fallos del sistema, que incluyen problemas relacionados con sesgos, fiabilidad y posible pérdida de control
  • Riesgos sistémicos, que cubren impactos sociales más amplios como la disrupción laboral, preocupaciones sobre la privacidad y efectos ambientales

Estas categorías de riesgos destacan los desafíos multifacéticos que plantean los sistemas avanzados de IA, que van desde amenazas inmediatas a la seguridad hasta implicaciones sociales a largo plazo. La evaluación integral de estos riesgos sirve como una base crucial para que los responsables políticos e investigadores desarrollen estrategias específicas para mitigar posibles daños y garantizar un desarrollo responsable de la IA.

Desafíos en la Gestión de Riesgos

Una de las principales preocupaciones es el potencial de la IA de propósito general para crear nuevos riesgos extremos que son difíciles de anticipar y mitigar. Estos desafíos incluyen:

  • Desplazamiento masivo de empleos debido a la automatización por IA, lo que podría llevar a inestabilidad económica y disturbios sociales
  • Aumento de las capacidades para el terrorismo y otras actividades maliciosas, habilitadas por tecnologías avanzadas de IA
  • La posibilidad de que los sistemas de IA «se descontrolen» o se comporten de maneras impredecibles que podrían tener consecuencias de gran alcance

Los expertos enfatizan que las apuestas son excepcionalmente altas, con el potencial de que la IA impacte diversos aspectos de la sociedad, subrayando la necesidad de medidas proactivas y cooperación internacional para abordar estos desafíos, ya que el rápido avance de las tecnologías de IA supera los marcos regulatorios y protocolos de seguridad actuales.

La responsabilidad civil por los daños causados por la IA: casos

Centrémonos en un caso concreto, cual es responsabilidad Extracontractual en lo que se refiere a los daños causados por la IA durante el uso de un coche autónomo. si este causa un accidente, que origina unos daños y perjuicios; en este sentido, especial atención merece el criterio de imputación en los vehículos conectados y autónomos; y aquí radica el dilema, la verdadera incógnita, en determinar quién será el responsable de los daños ocasionados por un sistema inteligente y, por ende, concretar qué sujeto deberá hacer frente al pago de la indemnización por el perjuicio ocasionado: ¿será el fabricante o productor, el propietario del coche, el usuario del mismo, el vendedor o el desarrollador del software, del propio algoritmo de IA, la Compañía Aseguradora del vehículo o la máquina en sí misma? ¿Quizá cabría asumir una responsabilidad solidaria? ¿Serán los sistemas de IA los verdaderos responsables de estos daños ocasionados?

En estos supuestos, donde un sistema de conducción autónoma total basada en IA causa un accidente, ¿quién responde por ese daño?, ¿cómo determinamos la acción u omisión imputable?… Y en lo que se refiere a las dificultades de establecer la relación de causalidad, ¿sería en cualquier caso necesario reconocer una personalidad jurídica a los robots, y hacerlos responsables de los daños que podrían causar o tendremos que encontrar el origen de la anomalía para imputar a una persona física? Y más inquietante si cabe, ¿debe al final la víctima del daño soportarlo por no haber sido posible encontrar un responsable?

Se puede afirmar que existe una línea roja que separa el actual sistema del riesgo de la conducción de vehículos a motor y el vehículo autónomo comunicado que no requiere la intervención del ser humano para circular. La cuestión es trascendente en esta actividad considerada de alto riesgo, ya que todo el marco regulatorio del automóvil y su aseguramiento de responsabilidad civil se basa en la posibilidad de control del conductor que gobierna el vehículo, aun cuando el vehículo disponga de múltiples dispositivos tecnológicos que hacen más cómoda la conducción, pero requieren siempre la presencia del conductor que es el que , en definitiva, toma las decisiones propias de quien tiene el gobierno del automóvil.

Tal línea roja no aparecerá mientras que, de una u otra forma, sea necesaria la mínima intervención del conductor, lo cual hace pensar que, a corto plazo, viviremos un período transitorio en el que el vehículo, a pesar de contar con múltiples dispositivos tecnológicos, siga siendo gobernado por el ser humano. Es muy previsible que este período transitorio o mixto de conducción cuasi autónoma, será aprovechado para adaptar las ciudades y las vías públicas para el uso de los vehículos autónomos comunicados. Mientras transcurra ese período, tanto el marco legal que regula la circulación del automóvil, como las soluciones aseguradoras, seguirán siendo análogas a las actuales, aunque con pequeñas adaptaciones.

La autonomía de un robot es la capacidad de tomar decisiones y aplicarlas en el mundo exterior, con independencia de todo control o influencia externos, siendo que esa autonomía es puramente tecnológica y es mayor en función del grado de sofisticación con que se haya diseñado el robot para interactuar con su entorno.

La Ley de 35/2015, de 22 de septiembre, que modifica el Texto Refundido de la Ley sobre responsabilidad civil y seguro en la circulación de vehículos a motor, aprobado por el Real Decreto Legislativo 8/2004, de 29 de octubre, establece en su art. 1.1. lo siguiente: «El conductor de vehículos a motor es legalmente responsable, en virtud del riesgo creado por la conducción de estos, de los daños causados a las personas o en los bienes con motivo de la circulación. En el caso de daños a las personas, de esta responsabilidad sólo quedará exonerado cuando pruebe que los daños fueron debidos a la culpa exclusiva del perjudicado o a fuerza mayor extraña a la conducción o al funcionamiento del vehículo; «no se considerarán casos de fuerza mayor los defectos del vehículo ni la rotura o fallo de alguna de sus piezas o mecanismos».

La no equiparación legal a los supuestos de fuerza mayor, como causa de exoneración de responsabilidad, de los defectos del vehículo, ni la rotura o fallo de alguna de sus piezas o mecanismos, impide su invocación por parte del conductor del vehículo que será el responsable, en virtud del riesgo creado por la conducción del mismo, de los daños causados a las personas o en los bienes con motivo de la circulación.

Finalizado el período transitorio, cuando el automóvil sea plenamente autónomo y no dependa del ser humano para ningún proceso de control de la conducción, precisamente en ese momento, tanto el marco legal como los distintos seguros relacionados con la circulación de vehículos a motor (daños propios, obligatorio y voluntario de responsabilidad civil, accidentes, riesgos extraordinarios, etc.), cambiarán necesariamente para adaptarse a las necesidades de los nuevos escenarios de riesgos.

Respecto del requisito del daño, como elemento esencial de la responsabilidad civil, debe tener las siguientes características, debe ser real, es decir, que pueda probarse su existencia, evaluable económicamente y constituir una lesión física o mental, o bien daño material o inmaterial, incluso cuando hayan sido causados por incitación al odio, sesgo, discriminación o estigmatización, tales como pérdidas financieras o económicas, pérdida de empleo o de oportunidades educativas, restricción indebida de la libertad de elección o de expresión, pérdida de la privacidad y cualquier infracción del régimen jurídico aplicable que sea perjudicial para una persona.

Un problema particularmente preocupante es la posibilidad de aplicar el régimen de responsabilidad civil sin daño en los supuestos del principio de cautela o precaución formulado en el artículo 191, apartado 2, del Tratado de Funcionamiento de la Unión Europea, que faculta a las instituciones a adoptar medidas de protección sin tener que esperar a que se demuestre plenamente la realidad y gravedad de tales riesgos cuando subsistan dudas sobre la existencia o alcance de las amenazas para la salud de las personas. 

Íntimamente relacionado con la reparación del daño está el posible establecimiento de un régimen de seguro obligatorio de responsabilidad civil para las nuevas tecnologías que utilizan los sistemas de IA, como ya se aplica en España a más de ochocientas actividades. Ante el posible déficit o falta de respuesta del mercado asegurador, dicho sistema podría completarse con un fondo que garantizara la reparación de daños en los casos de ausencia de una cobertura de seguro.

¿Cuál es la responsabilidad civil por los daños causados por la IA?

En definitiva, y en resumen, ¿cuál es la responsabilidad civil de la IA? Resulta incuestionable que un nuevo régimen de Responsabilidad Civil que abarque supuestos de IA y robótica es inminente.

Se parte de una responsabilidad basada en la culpa, criterio predominante en los ordenamientos jurídicos de los países de la UE. En nuestro caso rige el criterio general del art.1902 CC, que reproduce el patrón clásico de la responsabilidad por culpa. Pero, en nuestro sistema también existe una sólida tradición de objetivación de la responsabilidad cuando la actividad desarrollada crea un riesgo evidente que excede el actuar corriente, como sucede, como hemos indicado, en la conducción de vehículos a motor. Evidentemente, la posibilidad de incluir la responsabilidad civil causada por la IA como objetiva (lo que parece claro en los casos de IA de alto riesgo) requerirá de una previsión legal específica y la asunción de la necesidad de concertar seguros obligatorios.

Así, en el caso de un sistema de IA de alto riesgo (el que funciona de forma autónoma) se abogaría por un sistema de responsabilidad objetiva del operador, y, en cambio, cuando el sistema de IA no sea de alto riesgo la responsabilidad se basará en la culpa, por lo que operador no será responsable siempre y cuando pueda demostrar que no tuvo culpa o negligencia en el daño causado.

El desarrollo tecnológico y la gran presencia social y económica que tienen los robots y la IA aumentará en muy poco tiempo, lo que obliga a establecer nuevas normas jurídicas. El debate surge cuando nos preguntamos si es adecuada la aplicación de las leyes existentes -las que llamamos tradicionales- a los cambios tecnológicos estructurales que estamos experimentando, esto es, si los principios de nuestro Derecho son suficientes para afrontar la responsabilidad que surge de la utilización de sistemas dotados con IA, o si por el contrario debería ser necesaria una legislación completamente nueva para estas situaciones.

Mirando al futuro, y tal y como plantea la iniciativa de la Comisión Europea, evitar la

Recapiti
Dictum Abogados