Ayer el Parlamento Europeo aprobó
el Reglamento, acordado en las negociaciones con los Estados miembros en
diciembre de 2023, siendo respaldado por la Eurocámara con 523 votos
a favor, 46 en contra y 49 abstenciones.
Una decisión que celebro como un gran avance en un tema que preocupa de modo muy sensible a todos los europeos y por supuesto a los españoles.
La Nota de prensa ofrecida dice:
"Su objetivo
es proteger los derechos fundamentales, la democracia, el Estado de derecho y
la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo,
impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del
sector. El Reglamento fija una serie de obligaciones para la IA en función de
sus riesgos potenciales y su nivel de impacto.
Aplicaciones prohibidas
Las nuevas
normas prohíben ciertas aplicaciones de inteligencia artificial que atentan
contra los derechos de la ciudadanía, como los sistemas de categorización
biométrica basados en características sensibles y la captura indiscriminada de
imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear
bases de datos de reconocimiento facial. También se prohibirán el
reconocimiento de emociones en el lugar de trabajo y en las escuelas, los
sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se
base únicamente en el perfil de una persona o en la evaluación de sus
características) y la IA que manipule el comportamiento humano o explote las
vulnerabilidades de las personas.
Exenciones de las fuerzas de seguridad
El uso de
sistemas de identificación biométrica por parte de las fuerzas de seguridad
queda prohibido a
priori, salvo en situaciones muy concretas y bien definidas. Los
sistemas de identificación biométrica «en tiempo real» solo se podrán emplear
si se cumplen una serie de salvaguardias estrictas; por ejemplo, su uso se
limita a un período y lugar específicos y cuenta con una autorización judicial
o administrativa previa. Entre estos casos pueden figurar la búsqueda selectiva
de una persona desaparecida o la prevención de un atentado terrorista. Recurrir
a estos sistemas a
posteriori se considera un uso de alto riesgo, que requiere
autorización judicial al estar vinculado a un delito penal.
También se
prevén obligaciones claras para otros sistemas de IA de alto riesgo (debido a
que pueden ser muy perjudiciales para la salud, la seguridad, los derechos
fundamentales, el medio ambiente, la democracia y el Estado de derecho).
Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras
críticas, la educación y la formación profesional, el empleo, los servicios
públicos y privados esenciales (por ejemplo, la sanidad o la banca),
determinados sistemas de las fuerzas de seguridad, la migración y la gestión
aduanera, la justicia y los procesos democráticos (como influir en las
elecciones). Estos sistemas deben evaluar y reducir los riesgos, mantener
registros de uso, ser transparentes y precisos y contar con supervisión humana.
Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los
sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos
que afecten a sus derechos.
Requisitos de transparencia
Los sistemas
de IA de uso general y los modelos en los que se basan deben cumplir ciertos
requisitos de transparencia, respetar la legislación de la UE sobre derechos de
autor y publicar resúmenes detallados del contenido usado para entrenar sus
modelos. Los modelos más potentes que podrían plantear riesgos sistémicos
deberán cumplir requisitos adicionales, como realizar evaluaciones de los
modelos, analizar y mitigar los riesgos sistémicos e informar sobre los
incidentes.
Además, las
imágenes, contenidos de audio o de vídeo artificiales o manipulados
(«ultrafalsificaciones») deberán etiquetarse claramente como tales.
Medidas de apoyo a la innovación y a las pymes
Habrá que
poner a disposición de las pymes y de las empresas emergentes espacios
controlados de pruebas y ensayos en condiciones reales a nivel nacional para
que puedan desarrollar y entrenar la IA innovadora antes de su
comercialización.
Declaraciones de los ponentes
Durante el
debate en el pleno el martes, el coponente de la comisión de Mercado Interior Brando Benifei (S&D, Italia) dijo:
«Finalmente tenemos la primera ley vinculante del mundo sobre inteligencia
artificial, para reducir riesgos, crear oportunidades, combatir la
discriminación y aportar transparencia. Gracias al Parlamento, se prohibirán en
Europa prácticas inaceptables de IA y se protegerán los derechos de los
trabajadores y los ciudadanos. La nueva Oficina de IA ayudará a las empresas a
respetar las normas antes de que entren en vigor. Nos aseguramos de que los
seres humanos y los valores europeos estén en el centro mismo del desarrollo de
la IA».
El coponente
de la comisión de Libertades Civiles Dragos Tudorache (Renew, Rumanía) agregó:
«La UE ofrece resultados. Hemos vinculado el concepto de inteligencia
artificial a los valores fundamentales que constituyen la base de nuestras
sociedades. Sin embargo, hay mucho trabajo por delante que va más allá de la
propia Ley de IA. La IA nos empujará a repensar el contrato social en el
corazón de nuestras democracias, nuestros modelos educativos, los mercados
laborales y la forma en que llevamos a cabo la guerra. La Ley de IA es un punto
de partida para un nuevo modelo de gobernanza construido en torno a la
tecnología. Ahora debemos centrarnos en la aplicación práctica de la
legislación».
Próximos pasos
El
Reglamento aún está sujeto a una última comprobación jurídica-lingüística. Su
aprobación definitiva (mediante el llamado procedimiento de corrección de errores) está prevista para
antes del final de la legislatura. La ley también debe ser adoptada formalmente
por el Consejo.
Entrará en
vigor veinte días después de su publicación en el Diario Oficial y será de plena aplicación
veinticuatro meses después de su entrada en vigor, con excepción de: las
prohibiciones de prácticas (se aplicarán seis meses después de la fecha de
entrada en vigor); los códigos de buenas prácticas (nueve meses después); las
normas sobre la IA de uso general, incluida la gobernanza (doce meses después),
y las obligaciones para los sistemas de alto riesgo (treinta y seis meses después).
Conferencia sobre el Futuro de Europa
La Ley de
Inteligencia Artificial responde directamente a las propuestas de los
ciudadanos de la Conferencia sobre el Futuro de Europa, más
concretamente a la propuesta 12(10), relativa a la mejora de la competitividad
de la UE en sectores estratégicos, la propuesta 33(5), sobre una sociedad
segura y fiable, incluida la lucha contra la desinformación y la garantía de
que las personas tengan el control final, la propuesta 35 sobre la promoción de
la innovación digital, (3) la garantía de la supervisión humana y (8) un uso
fiable y responsable de la IA, el establecimiento de salvaguardias y la
garantía de transparencia, y la propuesta 37(3), sobre el uso de la IA y las
herramientas digitales para mejorar el acceso de los ciudadanos a la
información, incluidas las personas con discapacidad."