4U Abogados

La UE propone regular la Inteligencia Artificial

Europa da los primeros pasos hacia la regulación de la Inteligencia Artificial. Para ello, la Comisión Europea, hace unos días, ha presentado una propuesta con el fin de establecer un nuevo marco regulatorio común para los estados miembros basado en fomentar la excelencia y promover la confianza en dicha tecnología. Además, pretende garantizar el suficiente nivel de seguridad y, para ello, establece ciertos niveles de riesgo.

Fuentes de la Comisión Europea (2019), IPOL (2020) estiman que, con datos de 2016, la inversión en Inteligencia Artificial se fijaba en Europa entre 2.400 y 3.200 millones de euros, muy lejos de otros continentes; como América del Norte, cuya inversión se estimaba entre 12.100 y 18.600 millones de euros o Asia, que se estimaba entre 6.500 y 8.700 millones.      

Con el objetivo de no quedarse atrás y competir con sus homólogos, la Unión Europea busca desplegar un extenso conjunto de medidas para para abordar las oportunidades y desafíos de la IA, articulada en los pilares básicos de confianza en la tecnología y en el potencial impacto en los ciudadanos, en la sociedad y en la economía. Estas nuevas normas persiguen garantizar un ambiente óptimo para que los investigadores, desarrolladores y empresas puedan trabajar, destinando 20.000 millones de euros al año para potenciar las inversiones privadas y públicas en tecnología de inteligencia artificial.

No obstante, una de las novedades más destacadas es introducción de estadios o niveles de riesgo. Esto es debido a que la acción de determinados sistemas de IA puede generar riesgos relacionados con la seguridad del usuario y los derechos fundamentales, lo cual produce inseguridad jurídica para las empresas y una falta de confianza de las tecnologías de IA por parte de empresas y ciudadanos; lo que sumado a las respuestas reguladoras dispares por parte de las autoridades nacionales, podría fragmentar el mercado interior.

 Los niveles anunciados por la comisión son los siguientes:

  • Riesgo inaceptable. Los definen como el conjunto muy limitado de usos especialmente dañinos de la IA que contravienen los valores de la UE porque violan los derechos fundamentales. La Comisión pone como ejemplo la puntuación social por parte de los gobiernos, el uso de técnicas subliminales o, en algunos casos, los sistemas de identificación biométrica remota en vivo.

 

  • Riesgo alto . Se consideran de alto riesgo un número limitado de sistemas de IA que generan un impacto adverso en la seguridad de las personas o sus derechos fundamentales (protegidos por la Carta de los Derechos Fundamentales de la UE).

 

  • Riesgo limitado. En este nivel encontramos ciertos sistemas de IA a los que se imponen requisitos de transparencia específicos, por ejemplo, cuando existe un riesgo claro de manipulación (por ejemplo, mediante el uso de chatbots). Los usuarios deben saber que están interactuando con una máquina.

 

  • Riesgo mínimo. Todos los demás sistemas de IA se pueden desarrollar y utilizar sujetos a la legislación existente sin obligaciones legales adicionales. Por tanto, la gran mayoría de los sistemas de IA que se utilizan actualmente en la UE entran en esta categoría.

 

En cualquier caso, la Comisión Europea reconoce la importancia de establecer un marco normativo de la IA y su relevancia en sectores imprescindibles como la salud, el transporte o la ciberseguridad. Por tanto, el objetivo es redactar un Reglamento Europeo; el cual, una vez que se apruebe, aplicará las nuevas normas de forma directa en todos los Estados miembros. No obstante, su aprobación se prolongará en el tiempo, pues aún debe ser negociado y aprobado por los Gobiernos de la UE y por la Eurocámara.

Scroll al inicio