La Inteligencia Artificial (IA) ofrece nuevos beneficios a la sociedad y a las empresas con el objetivo de remodelar los lugares de trabajo y las industrias. La iniciativa para aprovechar el potencial transformador de la IA y la automatización está en marcha. Sin embargo, en medio de la proliferación de la IA en los negocios y la vida diaria, surgen preocupaciones sobre el uso ético y los riesgos. En el estudio Confianza en la inteligencia artificial, tres de cada cinco personas expresan desconfianza sobre los sistemas de IA, lo que lleva al 71% a esperar medidas regulatorias.

En respuesta, la Unión Europea (UE) ha logrado avances significativos con un acuerdo provisional sobre la innovadora Ley de Inteligencia Artificial (Ley de IA), que se prevé establecerá un nuevo estándar global para la regulación de la IA. La Ley de IA, que está prevista para convertirse en ley en 2024, y la mayoría de los sistemas de IA deberán cumplirlos para 2026, los cuales adoptan un enfoque basado en el riesgo para salvaguardar los derechos fundamentales, la democracia, el estado de derecho y la sostenibilidad ambiental.

La Ley de IA de la UE tiene como objetivo lograr un equilibrio, fomentando la adopción de la IA y al mismo tiempo defendiendo los derechos de las personas a un uso responsable, ético y confiable de la IA. Este documento explora el impacto potencial de la Ley de IA en las organizaciones, profundizando en su estructura, obligaciones, cronogramas de cumplimiento y sugiriendo un plan de acción para que las organizaciones lo consideren.

Download PDF

Decodificando la Ley de Inteligencia Artificial de la UE

Descubrí el impacto potencial de la Ley de IA en tu organización.



Descargar PDF (1.8 MB) ⤓



Descripción general de la Ley de IA de la UE


La IA encierra una promesa de ampliar el horizonte de lo que se puede lograr y de impactar al mundo en nuestro beneficio, pero gestionar los riesgos de la IA y sus posibles consecuencias negativas conocidas y desconocidas será fundamental. La Ley de IA estará finalizada en 2024 y tiene como objetivo garantizar que los sistemas de IA sean seguros, respeten los derechos fundamentales, fomenten la inversión en IA, mejoren la gobernanza y fomenten un mercado único armonizado de la UE para la IA.




Se prevé que la definición de la Ley de IA sea amplia e incluya diversas tecnologías y sistemas. Como resultado, es probable que las organizaciones se vean significativamente afectadas por la ley. Se espera que la mayoría de las obligaciones entren en vigor a principios de 2026. Sin embargo, los sistemas de IA prohibidos deberán eliminarse gradualmente seis meses después de que la Ley de IA entre en vigor. Se espera que las normas que rigen la IA de uso general se apliquen a principios de 2025.1




La Ley de IA aplica un enfoque basado en el riesgo, dividiendo los sistemas de IA en diferentes niveles de riesgo: riesgo inaceptable, alto, limitado y mínimo.2


Los sistemas de IA de alto riesgo están permitidos, pero sujetos a las obligaciones más estrictas. Estas obligaciones afectarán no solo a los usuarios sino también a "proveedores" de sistemas de IA. El término "proveedor" en la Ley de IA abarca organismos en desarrollo de sistemas de IA, incluidas organizaciones que desarrollan sistemas de IA para uso estrictamente interno. Es importante saber que una organización puede ser tanto usuario como proveedor.


Es probable que los proveedores deban garantizar el cumplimiento de estándares estrictos relacionados con la gestión de riesgos, la calidad de los datos, la transparencia, la supervisión humana y la solidez.


Los usuarios son responsables de operar estos sistemas de IA dentro de los límites legales de la Ley de IA y de acuerdo con las instrucciones específicas del proveedor. Esto incluye obligaciones sobre el propósito previsto y los casos de uso, el manejo de datos, la supervisión y el seguimiento humanos.




Se han agregado nuevas disposiciones para abordar los avances recientes en los modelos de IA de propósito general (GPAI), incluidos los grandes modelos de IA generativa.3 Estos modelos pueden usarse para una variedad de tareas y pueden integrarse en una gran cantidad de sistemas de IA, incluidos sistemas de alto riesgo y se están convirtiendo cada vez más en la base de muchos sistemas de IA en la UE. Para tener en cuenta la amplia gama de tareas que los sistemas de IA pueden realizar y la rápida expansión de sus capacidades, se acordó que los sistemas GPAI y los modelos en los que se basan deben cumplir requisitos de transparencia. Además, los modelos GPAI de alto impacto, que poseen complejidad, capacidades y rendimiento avanzados, enfrentarán obligaciones más estrictas. Este enfoque ayudará a mitigar los riesgos sistémicos que puedan surgir debido al uso generalizado de estos modelos.4




Siguen aplicándose las leyes vigentes de la Unión, por ejemplo, sobre datos personales, seguridad de los productos, protección del consumidor, política social y legislación y prácticas laborales nacionales, así como los actos legislativos sectoriales de la Unión relacionados con la seguridad de los productos. El cumplimiento de la Ley de IA no eximirá a las organizaciones de sus obligaciones legales preexistentes en estas áreas.




Las organizaciones deben tomarse el tiempo para crear un mapa de los sistemas de IA que desarrollan y utilizan y categorizar sus niveles de riesgo según se define en la Ley de IA. Si alguno de sus sistemas de IA cae en la categoría de riesgo limitado, alto o inaceptable, deberán evaluar el impacto de la Ley de IA en su organización. Es imperativo comprender este impacto (y cómo responder) lo antes posible.



Contactos

Contáctenos

1 Comisión Europea. (12 de diciembre de 2023). Inteligencia artificial: preguntas y respuestas.

2 Consejo Europeo. (9 de diciembre de 2023). Triálogo sobre la Ley de Inteligencia Artificial: Conferencia de prensa - Parte 4.

3 Parlamento Europeo. (Marzo de 2023). Inteligencia artificial de propósito general.

4 Comisión Europea. (12 de diciembre de 2023). Inteligencia artificial: preguntas y respuestas.