En concreto, la normativa está diseñada para garantizar que la IA desarrollada y utilizada en la Unión Europea (UE) sea "fiable", por lo que contempla diversas salvaguardias para proteger los derechos fundamentales de las personas.
"El reglamento tiene por objeto establecer un mercado interior armonizado para la IA en la UE, fomentando la adopción de esta tecnología y creando un entorno propicio para la innovación y la inversión", ha remarcado la Comisión Europea.
En ese sentido, la normativa establece diferentes niveles de riesgo sobre los sistemas de inteligencia artificial, que van desde el 'mínimo' hasta el 'inaceptable'.
En la categoría de riesgo mínimo se encuentran la mayoría de los sistemas de IA, como los de recomendación basados en esta tecnología y los filtros de correo no deseado.
"Estos sistemas no se enfrentan a obligaciones en virtud de la Ley de IA debido a su riesgo mínimo para los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales", detalla la Comisión Europea.
Tras ello se encuentran los sistemas con "riesgo específico de transparencia", en los que se encuadran, por ejemplo, los chatbots, que deberán revelar "claramente" a los usuarios que están interactuando con una máquina.
"Determinados contenidos generados por IA, incluidas las ultrafalsificaciones, deben etiquetarse como tales, y los usuarios deben ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de manera que los contenidos sintéticos de audio, vídeo, texto e imágenes estén marcados en un formato legible por máquina y detectables como generados o manipulados artificialmente", destaca la Comisión Europea.
Por otro lado, los sistemas de inteligencia artificial considerados de "alto riesgo" estarán obligados a cumplir requisitos estrictos, como la "alta calidad" de sus conjuntos de datos, el registro de la actividad, la documentación detallada, una información clara para el usuario, la supervisión humana y un alto nivel de solidez, precisión y ciberseguridad.
Entre los sistemas de IA de alto riesgo se incluyen, por ejemplo, los utilizados para la contratación de personal o para evaluar si alguien tiene derecho a obtener un préstamo, entre otras cuestiones.
Asimismo, la IA de "riesgo inaceptable" --que estará prohibida-- es aquella que se considere una clara amenaza para los derechos fundamentales de las personas.
"Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios, como los juguetes que utilizan asistencia vocal que fomentan el comportamiento peligroso de los menores, los sistemas que permiten la 'puntuación social' por parte de gobiernos o empresas y determinadas aplicaciones de la actuación policial predictiva", ha indicado la Comisión Europea.
También estarán prohibidos algunos usos de sistemas biométricos, por ejemplo, los de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar a las personas o la identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con limitadas excepciones).
La Comisión Europea ha subrayado que se impondrán multas a las empresas que no cumplan las normas, unas sanciones que podrían ascender hasta el 7% de su volumen de negocios anual mundial por infracciones de aplicaciones prohibidas de IA, hasta el 3% en el caso de incumplir otras obligaciones y hasta el 1,5% por el suministro de información incorrecta.
PLAZOS
En este contexto, los Estados miembros de la UE tienen de plazo hasta el 2 de agosto de 2025 para designar a las autoridades nacionales competentes, que supervisarán la aplicación de las normas aplicables a los sistemas de IA y llevarán a cabo actividades de vigilancia del mercado.
Sin embargo, las prohibiciones de los sistemas de inteligencia artificial que se consideren que presentan un "riesgo inaceptable" se aplicarán ya al cabo de seis meses, mientras que las normas para los denominados modelos de IA de uso general se aplicarán dentro de 12 meses.
En este contexto, el Ministerio para la Transformación Digital y de la Función Pública de España ha celebrado la entrada en vigor de la normativa europea sobre IA.
"¡Hoy entra en vigor la Ley de Inteligencia Artificial en Europa! Un marco pionero que asegura el desarrollo de una IA ética y responsable, a la vez que impulsamos las ganancias de productividad que suponen las tecnologías de vanguardia", ha valorado la cartera que dirige José Luis Escrivá en un mensaje publicado en la red social X.