Nueva ley de Inteligencia Artificial y su impacto

La Inteligencia Artificial lleva años siendo parte de nuestro día a día. Desde hace décadas la IA está entre nosotros en asistentes de voz, smartphones, sistemas predictivos, recomendaciones musicales además de hacerlo ya en campos como el sanitario, transportes, medios de comunicación, industrial y financiero, entre muchos otros.

La Eurocámara acaba de aprobar una ley histórica para regular la inteligencia artificial. Su objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. El Reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

Más allá de la ciencia ficción

 

En el año 2001, el director de cine Steven Spielberg dirigió la película I.A. Inteligencia Artificial, lo que supuso para muchos su primera relación con esta tecnología. Esta película, ambientada a mediados del siglo XXI, presenta a humanoides, robots avanzados, que son capaces de imitar sensaciones y emociones humanas y su utilización en esa sociedad ficticia. 

Sin desvelar la trama, esta película puso sobre la mesa algunas de las posibilidades que ofrece la Inteligencia Artificial. No era la primera ficción en la que se traslucía en qué consistía esta tecnología. Más allá de las diferencias entre realidad y ciencia ficción, sí es cierto que la Inteligencia Artificial ofrece multitud de posibilidades pero, ¿hasta dónde podemos llegar con la IA y hasta dónde no?

¿Sabemos si existe una regulación para saber qué podemos y qué no podemos hacer con esa magia denominada Inteligencia Artificial? Pues como tal, ésta es inexistente, y por ello, el pasado mes de diciembre, el Consejo y el Parlamento Europeo alcanzaron un acuerdo provisional sobre el que es el primer Reglamento de Inteligencia Artificial (IA). Esta ley tiene su origen en la  propuesta de la Comisión Europea del 2021 para crear primer marco regulador de la UE para la IA. 

Novedades de la ley de inteligencia artificial

Las últimas novedades son relativas a este mes de marzo cuando el Parlamento Europeo ha aprobado la ley de Inteligencia artificial convirtiendo a la UE en pionera en regulación con 523 votos a favor y solo 46 en contra.

La Inteligencia Artificial lleva años siendo parte de nuestro día a día. Desde hace décadas la IA está entre nosotros en asistentes de voz, smartphones, sistemas predictivos, recomendaciones musicales además de hacerlo ya en campos como el sanitario, transportes, medios de comunicación, industrial y financiero, entre muchos otros.

La Eurocámara acaba de aprobar una ley histórica para regular la inteligencia artificial. Su objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. El Reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

Tal y como se recoge en el documento consultado, la ley de inteligencia artificial tiene dos objetivos claros:

  • Garantizar que los sistemas de Inteligencia Artificial utilizados en la Unión Europea e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos.
  • Estimular la inversión y la innovación en el ámbito de la IA en Europa. El acuerdo establece que el Reglamento de Inteligencia Artificial debe aplicarse dos años después de su entrada en vigor.

 

Se trata, por tanto de la primera propuesta legislativa en materia de Inteligencia Artificial en el mundo, de modo que puede establecerse como un referente mundial para regular la IA en otras jurisdicciones. La ley regulará la IA en base a sus riesgos. Cuanto mayor sea el riesgo, más estrictas serán las normas.

 

¿Qué dice el reglamento?

El acuerdo provisional incide en la definición de sistema de IA, apostando por el enfoque propuesto por la OCDE, con el objetivo de establecer unos criterios claros que distingan los sistemas de IA de otros softwares más sencillos.

Por otro lado, se aclara que el Reglamento no se aplicará a ámbitos fuera del ámbito de aplicación del Derecho de la UE y no afectará a las competencias de los Estados miembros en materia de seguridad nacional. Tampoco se aplicará a los sistemas utilizados exclusivamente con fines militares o de defensa; así como a los empleados con fines de investigación e innovación. 

El uso de sistemas de identificación biométrica (RBI) por parte de las fuerzas y cuerpos de seguridad está prohibido en principio, salvo en situaciones exhaustivamente enumeradas y estrictamente definidas. Como excepciones podríamos encontrar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista.

 

Sistemas de IA de alto riesgo y prácticas prohibidas

En el citado acuerdo se ha detallado una serie de criterios encaminados a la protección de cada persona, y que son los que determinan cuándo los sistemas de IA pueden causar daños a las personas y a la sociedad. Así, aquellas prácticas que entrañen riesgos altos estarán supeditadas a una serie de requisitos y obligaciones para poder acceder al mercado de la UE.

En el caso de que sean sistemas con riesgos considerados inaceptables, su uso quedará totalmente prohibido. Se enmarcan en estos casos, por ejemplo, la manipulación cognitiva conductual o el rastreo indiscriminado de imágenes faciales sacadas de internet, entre otros.

Protección de los derechos fundamentales

El reglamento establece la evaluación del impacto que tiene cualquier nuevo sistema de IA en los derechos fundamentales antes de ser introducido en el mercado. Además, en el caso de los modelos funcionales, entendidos como sistemas de gran magnitud que pueden desarrollar diferentes tareas (generación de vídeo, texto, imágenes, etc.), deberán cumplir obligaciones más específicas en materia de transparencia.

Prohibe específicamente aquellas aplicaciones que amenacen los derechos de los ciudadanos como los sistemas de categorización biométrica basados en características sensibles y la extracción no selectiva de imágenes faciales de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial.

Además, hace hincapié en la obligación de los usuarios de un sistema de reconocimiento de emociones de informar a las personas físicas a las que se exponga un sistema de este tipo, prohibiendo claramente el reconocimiento de emociones en el lugar de  trabajo y en la escuela, el scoring social, la actuación policial predictiva, en definitiva donde la IA pueda manipular el comportamiento humano o explotar las vulnerabilidades de las personas.

 

Transparencia

Los sistemas y modelos de IA de propósito general (GPAI deben cumplir ciertos requisitos de transparencia, «incluido el cumplimiento de la legislación de la UE sobre derechos de autor y la publicación de resúmenes detallados de los contenidos utilizados para la formación». Los modelos GPAI más potentes que puedan implicar riesgos deberán cumplir con requisitos adicionales, como la realización de evaluaciones de los modelos, la evaluación y mitigación de los riesgos sistémicos y la notificación de incidentes.

Con el objetivo de garantizar el cumplimiento de la nueva normativa, se va a crear la Oficina de la IA en la Comisión. Se encargará de supervisar que los Estados miembros aplican las nuevas normativas, supervisar los modelos de IA más avanzados y contribuir a fomentar las normas y prácticas de ensayo. Además los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.