Con el impulso de la Ley de Inteligencia Artificial (IA) por parte de las Instituciones Europeas, se inicia una regulación que afecta no sólo a las actividades de negocio sino también al control sobre la generación y empleo correcto de esta tecnología. El texto europeo motiva su existencia por el riesgo de su uso poco legal, responsable y ético, materia que encaja en las labores de supervisión de una función de compliance moderna y robusta.
La Ley de IA determina actividades que presentan un riesgo inaceptable en cuanto a su utilización y otras que, si bien resultan aceptables, requieren de la adopción de diversas consideraciones según el nivel de riesgo detectado (enfoque de riesgo), teniendo siempre en consideración los derechos fundamentales, la seguridad y la salud, como elementos relevantes susceptibles de ser protegidos. Dar cumplimiento a este régimen supone una labor de supervisión que ya se plantean las organizaciones, dado que la IA es una realidad palpable.
En esta sesión del KPMG Compliance Think Tank se han tratado, entre otras, las siguientes materias:
- Situación jurídica actual de la Ley de IA y previsiones de futuro (visión comparada).
- Ética e Inteligencia Artificial (y su estrecha conexión con ESG)
- Sistemas de IA y The Theory of Mind (ToM)
- Derechos potencialmente afectados por el empleo inadecuado de los sistemas de IA
- Sistemas de IA de riegos inaceptable, de riesgo alto y de riesgo bajo o mínimo. Régimen específico para cada uno de ellos
- Autorregulación
- Modalidades de empleo de sistemas de IA en procesos empresariales.
- Diseño legal y tecnología confiable (diligencia proactiva).
- Hoja de ruta para compliance.
Las explicaciones han estado a cargo de:
- Alain Casanovas, socio responsable de Compliance en KPMG España
- Noemí Brito, socia responsable de IP & LOTS en KPMG Abogados