Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial

El pasado 14 de junio de 2023 el Parlamento Europeo aprobó la Ley de Inteligencia Artificial, previa incorporación de una serie de enmiendas. Comienza una fase de conversaciones entre el Parlamento Europeo, el Consejo y la Comisión para ultimar detalles del texto definitivo que se espera aprobar antes de que concluya el año.

¿Qué es la Inteligencia Artificial?

A pesar de que no existe una definición consensuada sobre el concepto de inteligencia artificial (“IA”), la Ley de Inteligencia Artificial entiende que es “un sistema basado en máquinas diseñado para funcionar con diversos niveles de autonomía y capaz, para objetivos explícitos o implícitos, de generar información de salida —como predicciones, recomendaciones o decisiones— que influya en entornos reales o virtuales”.

Esta definición más amplia y neutra que en versiones anteriores busca poder acoger futuros avances tecnológicos y digitales. Así, se entenderían incluidas sencillas técnicas estadísticas, coches automatizados, sistemas de identificación biométrica, juguetes activados por voz o sistemas de reconocimiento de emociones, entre otros muchos. En consecuencia, el ámbito de aplicación objetivo de la norma será muy amplio. 

¿Cuál es el propósito de la Ley de Inteligencia Artificial?

La Ley de Inteligencia Artificial tiene como objetivo establecer normas armonizadas para la introducción, puesta en servicio y uso de sistemas de IA (“Sistemas de IA”).

¿A quiénes aplica?

La Ley será aplicable a:

  1. Los proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA en la Unión Europea, con independencia de si dichos proveedores están o no establecidos en la Unión.
  2. Los usuarios de sistemas de IA que se encuentren en la Unión Europea.
  3. Los proveedores y usuarios de sistemas de IA que se encuentren en un tercer país, cuando la información de salida generada por el sistema se utilice en la Unión Europea.

Considerando la amplitud de la definición de IA y el conjunto de sujetos a los que afectará la Ley, nos encontramos ante una norma que tendrá una aplicación muy generalizada.

¿Cuáles son los niveles de riesgo de la IA y las obligaciones que se derivan?

La Ley de Inteligencia Artificial establece obligaciones para proveedores y usuarios en función del riesgo de la IA:

1. Riesgo inaceptable. Se trata de sistemas de IA que se consideran una amenaza para las personales ya que podrían violar derechos fundamentales. Se establece un listado tasado que se actualizará periódicamente e incluye sistemas que impliquen la manipulación del comportamiento de personas o aprovecharse de grupos vulnerables específicos.

2. IA de alto riesgo. Sistemas de IA que podrían implicar un alto riesgo para los derechos y libertades de las personas. Por ello, son sistemas permitidos en el mercado europeo con requisitos obligatorios e implementación de un sistema de análisis de riesgos para identificar y evaluar los riesgos como proceso continuo. Algunas de estas obligaciones son: disponer de una persona que supervise el funcionamiento para mitigar posibles riesgos, inscripción en una base de datos europea, o la superación de un test y obtención de certificación para operar. El listado de sistemas incluidos en esta categoría está también listado y se actualizará periódicamente. Ejemplos: sistemas de IA destinados a evaluar la solvencia de las personas, o destinados a la contratación y a tomar decisiones sobre las relaciones laborales, entre otros.

En materia de protección de datos, el implementador de un sistema de IA de alto riesgo debe llevar a cabo una evaluación de impacto relativa a la protección de datos, a efectos de mitigar los riesgos detectados para los derechos fundamentales antes de su puesta en funcionamiento.

3. IA de riesgo limitado. Sistemas de IA que no implican un alto riesgo para los derechos de las personas. Para su uso se establecen obligaciones de transparencia en su uso de manera que el usuario sea consciente de que está interactuando con la IA. Ejemplos: chatbots o sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo.

4. IA de riesgo mínimo. El resto de sistemas de IA no tendría regulación específica. Sin embargo, se promueve la adhesión a códigos de conducta voluntarios como herramienta de autorregulación.

La IA generativa, como ChatGPT, tendrá que cumplir requisitos de transparencia tales como identificar que el contenido ha sido generado por IA o publicar resúmenes de datos protegidos por derechos de autor utilizados para su entrenamiento.

Por tanto, cualquier empresa que utilice IA deberá analizar qué tipo de IA está empleando y cumplir con la regulación de la Ley de IA cuando entre en vigor.

¿Cuáles podrían ser las sanciones por incumplimiento?

Se establece un sistema de sanciones para los incumplimientos de las disposiciones de la Ley de Inteligencia Artificial que podrán ser multas u otras medidas administrativas, dependiendo de la gravedad del incumplimiento. Las multas más graves podrán ser de hasta 30.000.000€ o hasta el 6% del volumen de negocio total mundial del ejercicio financiero anterior.

La encargada de imponer dichas sanciones será la autoridad nacional de supervisión.

¿Qué se ha hecho en España hasta ahora en materia de IA?

  • Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial, aprobado mediante el Real Decreto 729/2023, de 22 de agosto. Esta nueva Agencia debe impulsar la creación de entornos de prueba que faciliten el despliegue responsable de sistemas de Inteligencia artificial. Está previsto que inicie su actividad en el plazo máximo de 3 meses y tendrá su sede en La Coruña. La Agencia llevará a cabo tareas de supervisión, asesoramiento, concienciación y formación a entidades de derecho público y privado para la adecuada implementación de la normativa nacional y europea sobre inteligencia artificial y para el adecuado uso y desarrollo de los sistemas de IA y los algoritmos. También tiene asignadas funciones de inspección, comprobación y sanción.
  • Sandbox. El Ministerio de Asuntos Económicos y Transformación Digital publicó en junio de 2023 el borrador del Real Decreto que establece un sandbox de Inteligencia Artificial que tiene como objetivo crear un entorno controlado de pruebas para facilitar la implementación de los principios que regirán el diseño, validación y seguimiento de los sistemas de inteligencia artificial. La puesta en marcha del sandbox se tramitará con urgencia teniendo en cuenta la necesidad de ser aprobado antes que la Ley de Inteligencia Artificial entre en vigor.

Suscríbete a Insights

Company Legal Partners, S.L.P., como responsable del tratamiento, tratará sus datos con la finalidad de remitir Insights que elabore en relación con sus áreas de práctica. La base legal del tratamiento es el consentimiento otorgado que otorga al momento de remitir del formulario para suscribirse a los Insights. No está prevista la comunicación a terceros, salvo que ello sea imprescindible para el desarrollo y ejecución de las finalidades del tratamiento. Tiene derecho a acceder, rectificar y suprimir los datos, así como otros derechos, como se explican de forma detalla en nuestra “Política de Privacidad ”.

Más
Circular 4ºT 2024 Datos y Nuevas Tecnologías. El último trimestre de 2024 ha traído importantes novedades en materia de nuevas tecnologías y datos, materias que tienen un impacto cada vez mayor en las empresas. En la circular trimestral analizamos resoluciones recientes de la Agencia Española de Protección de Datos, sentencias relevantes y las últimas novedades legislativas que marcarán el futuro del sector. Destacamos especialmente el Reglamento General de los Productos y el Data Act.