Descubre las claves esenciales del nuevo Reglamento Europeo de Inteligencia Artificial y cómo impactarán en el futuro de la tecnología. 

​​

¿Existe una regulación que nos indique qué podemos y qué no podemos hacer con la Inteligencia Artificial? Pues como tal, ésta es inexistente, y por ello, el pasado mes de diciembre, el Consejo y el Parlamento Europeo alcanzaron un acuerdo provisional sobre el que es el primer Reglamento de Inteligencia Artificial (IA). Esta ley tiene su origen en la propuesta de la Comisión Europea del 2021 para crear primer marco regulador de la UE para la IA.

Reglamento Europeo de Inteligencia Articial

 

¿QUÉ ES EL REGLAMENTO EUROPEO DE LA INTELIGENCIA ARTIFICIAL? 

La Eurocámara acaba de aprobar una ley histórica para regular la Inteligencia Artificial. Su objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. El Reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

¿CUÁL ES SU PRINCIPAL OBJETIVO?

El Reglamento Europeo de Inteligencia Artificial tiene dos grandes objetivos:

  • Garantizar que los sistemas de Inteligencia Artificial utilizados en la Unión Europea e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos.
  • Estimular la inversión y la innovación en el ámbito de la IA en Europa. El acuerdo establece que el Reglamento de Inteligencia Artificial debe aplicarse dos años después de su entrada en vigor.

Se trata, por tanto, de la primera propuesta legislativa en materia de Inteligencia Artificial en el mundo, de modo que puede establecerse como un referente mundial para regular la IA en otras jurisdicciones. La ley regulará la IA en base a sus riesgos. Cuanto mayor sea el riesgo, más estrictas serán las normas.

CLASIFICACIÓN DE RIESGO Y PRÁCTICAS PROHIBIDAS

Los sistemas de IA se clasifican en función del nivel de riesgo mediante ciertos requisitos y restricciones, pudiendo ser: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo. Además, se prohíben los sistemas IA que amenacen a la seguridad, derechos fundamentales y a la democracia.

Requisitos para Sistemas de Riesgo

En el acuerdo se ha detallado una serie de criterios encaminados a la protección de cada persona, y que son los que determinan cuándo los sistemas de IA pueden causar daños a las personas y a la sociedad.

Prohibición de Prácticas Inaceptables

En el caso de que sean sistemas con riesgos considerados inaceptables, su uso quedará totalmente prohibido. Se enmarcan en estos casos, por ejemplo, la manipulación cognitiva conductual o el rastreo indiscriminado de imágenes faciales sacadas de internet, entre otros.

Reglamento Europeo de Inteligencia Artificial

OBJETIVO DE PROTECIÓN DE LOS DERECHOS FUNDAMENTALES

El reglamento establece la evaluación del impacto que tiene cualquier nuevo sistema de IA en los derechos fundamentales antes de ser introducido en el mercado. Además, en el caso de los modelos funcionales, entendidos como sistemas de gran magnitud que pueden desarrollar diferentes tareas (generación de vídeo, texto, imágenes, etc.), deberán cumplir obligaciones más específicas en materia de transparencia.

Prohibiciones Específicas de Reglamento Europeo de Inteligencia Artificial

Prohíbe específicamente aquellas aplicaciones que amenacen los derechos de los ciudadanos como los sistemas de categorización biométrica basados en características sensibles y la extracción no selectiva de imágenes faciales de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial.

Además, hace hincapié en la obligación de los usuarios de un sistema de reconocimiento de emociones de informar a las personas físicas a las que se exponga un sistema de este tipo, prohibiendo claramente el reconocimiento de emociones en el lugar de trabajo y en la escuela, el scoring social, la actuación policial predictiva, en definitiva, donde la IA pueda manipular el comportamiento humano o explotar las vulnerabilidades de las personas.

 

OBJETIVO DE TRANSPARENCIA

Los sistemas y modelos de IA de propósito general (GPAI deben cumplir ciertos requisitos de transparencia, «incluido el cumplimiento de la legislación de la UE sobre derechos de autor y la publicación de resúmenes detallados de los contenidos utilizados para la formación». Los modelos GPAI más potentes que puedan implicar riesgos deberán cumplir con requisitos adicionales, como la realización de evaluaciones de los modelos, la evaluación y mitigación de los riesgos sistémicos y la notificación de incidentes.

Con el objetivo de garantizar el cumplimiento de la nueva normativa, se va a crear la Oficina de la IA en la Comisión. Se encargará de supervisar que los Estados miembros aplican las nuevas normativas, supervisar los modelos de IA más avanzados y contribuir a fomentar las normas y prácticas de ensayo. Además, los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.

 

LIMITACIONES DEL REGLAMENTO EUROPEO DE INTELIGENCIA ARTIFICIAL (RIA)

El Reglamento no se aplicará a ámbitos fuera del ámbito de aplicación del Derecho de la UE y no afectará a las competencias de los Estados miembros en materia de seguridad nacional. Tampoco se aplicará a los sistemas utilizados exclusivamente con fines militares o de defensa; así como a los empleados con fines de investigación e innovación. 

El uso de sistemas de identificación biométrica (RBI) por parte de las fuerzas y cuerpos de seguridad está prohibido en principio, salvo en situaciones exhaustivamente enumeradas y estrictamente definidas. Como excepciones podríamos encontrar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista.