El nuevo reglamento europeo sobre inteligencia artificial, conocido como la Ley de IA, ha sido publicado en el Diario Oficial de la Unión Europea y se convertirá en ley en 20 días. Este reglamento, presentado por la Comisión, el Consejo y el Parlamento Europeo, es la primera ley global que aborda de manera integral la inteligencia artificial.
Hoja de ruta de la IA
Enero de 2025
La Ley de IA se basa en un sistema de clasificación de riesgos dividido en cuatro niveles: mínimo, limitado, alto e inaceptable. Cuanto mayor es el riesgo, mayores son las responsabilidades y restricciones para quienes desarrollan o utilizan estos sistemas, prohibiendo tecnologías que manipulan el comportamiento humano, la vigilancia biométrica masiva, el reconocimiento de emociones en el trabajo o en la escuela, sistemas de puntuación social y la policía predictiva.
En enero de 2025, seis meses después de su entrada en vigor, estas tecnologías prohibidas serán bloqueadas. Las excepciones permiten la identificación biométrica solo para confirmar la identidad de una persona, aunque esto deja espacio para el uso de vigilancia digital por parte de los estados para fines policiales, según lo estipulado en el artículo 5 de la ley.
Tres meses después, se implementarán los códigos de conducta, comprometiendo a desarrolladores, empresas y asociaciones a adherirse a los principios de la Ley de IA, promoviendo la sostenibilidad, la formación y la ética en la tecnología. El Pacto de IA ya cuenta con 400 empresas que han mostrado interés en cumplir anticipadamente con las normas de la UE.
Agosto de 2025
En agosto de 2025, los modelos generales de IA, como GPT-4 y LaMDA, deberán cumplir con estrictas obligaciones de etiquetado y transparencia. Estos modelos deberán marcar contenidos generados por IA y notificar a los usuarios cuando interactúan con chatbots. Se clasifican según la potencia de cálculo, entre otros parámetros, y se actualizarán regularmente para evitar la obsolescencia de la norma.
Agosto de 2026
En agosto de 2026, la ley se aplicará a los sistemas de IA de alto riesgo, enumerados en el anexo 3. Esto incluye sistemas de identificación y categorización biométrica, aplicaciones de seguridad, software educativo, algoritmos utilizados en la administración pública y por fuerzas del orden. La Comisión proporcionará directrices sobre estos sistemas y podrá actualizar la lista de algoritmos de alto riesgo.
2027 de la IA
Finalmente, en agosto de 2027, la Ley de IA será plenamente efectiva en todas sus partes, incluyendo la regulación del uso de vigilancia biométrica para situaciones específicas como búsqueda de víctimas de delitos y personas desaparecidas, y amenazas terroristas.
Las infracciones de la ley pueden resultar en multas de hasta 35 millones de euros o el 7% de la facturación global en caso de usos prohibidos. Los sistemas de alto riesgo no conformes pueden enfrentar multas de hasta 15 millones de euros o el 3% de la facturación global, y las infracciones menores pueden resultar en sanciones de hasta 7.5 millones de euros o el 1% del volumen de negocios global.