La Ley de Inteligencia Artificial (IA) de la UE busca establecer normas para el desarrollo y uso de sistemas de IA para garantizar un uso seguro y ético. Aunque afecta principalmente a proveedores de IA, puede tener implicaciones para otras empresas.
La ley entra entró en vigor oficialmente en agosto de 2024, pero no todas sus disposiciones son aplicables inmediatamente. Las principales obligaciones tienen como foco a las empresas proveedoras de Sistemas de IA de Riesgo Inaceptable (manipulan el comportamiento humano o explotan vulnerabilidades) y de Riesgo Alto.
A partir de febrero de 2025, se prohibirán las siguientes prácticas:
.
A partir del 2 de agosto de 2025, las empresas deberán mantener registros detallados sobre el desarrollo y funcionamiento de sus sistemas de IA.
Esto afectará principalmente aquellas empresas clasificadas como proveedores de sistemas de IA de alto riesgo, es decir, que requieren cumplir con estrictas obligaciones, como aquellos utilizados en sectores críticos (salud, educación, seguridad). Esta categoría incluye aquellas empresas que implementen IA para decisiones automatizadas que afecten a personas, como sistemas de crédito, contratación o vigilancia (salud, finanzas, transporte y logística, agricultura, ciberseguridad).
La Ley considera dos tipos de Sistemas que no suponen un alto riesgo:
.
El Future of Life Institute ha desarrollado un Comprobador de Cumplimiento de la Ley de IA para ayudar a las PYME a comprender mejor si pueden tener alguna obligación legal.
Por ejemplo, para una empresa fabricante de maquinaria que cumple con estas dos situaciones, es probable que quede fuera del ámbito de aplicación de la Ley: