La Inteligencia Artificial (IA) promete transformar nuestras vidas, ayudándonos a ser más eficientes, productivos, saludables e innovadores. Esta apasionante tecnología ya se está utilizando en los sectores público y privado, aprovechando el poder de los datos para mejorar las previsiones, crear mejores productos y servicios, reducir costos y liberar a los trabajadores del trabajo administrativo rutinario.

Sin embargo, como en cualquier tecnología emergente, existen riesgos. El uso extendido y no regulado de esta tecnología suscita preocupación por su impacto en los derechos humanos y la intimidad personal. Esto es especialmente cierto para la IA generativa (GenAI), que utiliza algoritmos de aprendizaje profundo y potentes modelos básicos que se entrenan con cantidades masivas de datos sin etiquetar para producir resultados producidos por la inteligencia artificial.

Este artículo investiga las implicaciones para la privacidad de la adopción generalizada de la IA. Su objetivo es descubrir lo que esto significa para las empresas y describe los pasos clave que las organizaciones pueden tomar para utilizar la IA de manera responsable. Al mantenerse informadas sobre las implicaciones de la adopción de la IA para la privacidad y tomar medidas proactivas para mitigar los riesgos, las empresas pueden aprovechar el poder de esta tecnología y al mismo tiempo salvaguardar la privacidad de las personas.

Download PDF

Privacy in the new world of AI

Cómo generar confianza en la IA a través de la privacidad..



Descargar PDF (1.9 MB) ⤓



Explore los cinco pasos clave que pueden ayudar a las empresas a generar confianza en la IA


Los legisladores, formuladores de políticas y reguladores insisten constantemente en alinear los sistemas de IA con estándares reconocidos. Por lo tanto, es esencial identificar qué marcos regulatorios se aplican a su negocio, determinar cuáles decide cumplir y planificar cómo se implementará su IA. Cree una línea de base para el uso de la IA que satisfaga distintos regímenes y optimice su desarrollo de IA o sus actividades comerciales relacionadas con la IA en consecuencia.




Evaluar el impacto en la intimidad y abordar los problemas de cumplimiento en la fase de idea — y en todo el ciclo de vida del IAA — mediante una evaluación sistemática del impacto sobre la intimidad (PIA) o una evaluación del impacto sobre la protección de datos (DPIA). La privacidad por diseño, como se describe en el estándar ISO 31700 de privacidad por diseño y el marco de evaluación de privacidad por diseño de KPMG, puede ayudar a las organizaciones a incorporar la privacidad en los sistemas de inteligencia artificial.


Incluso si cree que su sistema solo utiliza datos anonimizados o no personales, pueden surgir riesgos de privacidad, incluida la reidentificación a partir de conjuntos de datos de entrenamiento e incluso modelos de inteligencia artificial y los impactos posteriores de los datos no personales utilizados para entrenar modelos que impactan a individuos y comunidades. Una evaluación sólida también incluirá modelos de amenazas a la seguridad y la privacidad a lo largo del ciclo de vida de la IA y consultas con las partes interesadas cuando corresponda. Considere cuestiones de privacidad más amplias, como la justicia de los datos (la justicia con la que se trata a las personas en la forma en que utilizan sus datos) y la soberanía de los datos indígenas (los derechos de los pueblos indígenas a gobernar los datos sobre sus comunidades, pueblos, tierras y recursos).




Evaluar los riesgos de privacidad asociados con el desarrollo de soluciones internas de IA o el uso de modelos públicos que se entrenan con datos públicos. Asegúrese de que estos modelos cumplan con los estándares, regulaciones, mejores prácticas y códigos de conducta éticos y de IA recientemente desarrollados para hacer operativos los requisitos (por ejemplo, NIST, ISO, orientación regulatoria). Esto se aplica ya sea que usted sea el desarrollador o un cliente que desarrolla o adquiere e integra un sistema de inteligencia artificial.


Si es un cliente, solicite al desarrollador documentación que respalde su PIA y las evaluaciones de riesgos de privacidad de la IA relacionadas y también realice sus propios modelos privados. Si no pueden proporcionar esta documentación, considere otro proveedor. En muchas jurisdicciones, incluidos el Reino Unido y la UE, una PIA/DPIA ya es un requisito legal y una base que debería incorporar consideraciones de IA. La PIA / DPIA debe abordar las consideraciones iniciales de utilización y diseño del AI (por ejemplo, declaración de problemas, zonas de exclusión aérea, etc.). Centrarse en la articulación de la necesidad y proporcionalidad para la recolección de datos, así como el consentimiento.




Si usted es un desarrollador de sistemas de IA o un tercero/proveedor de IA, debe asegurarles a los clientes y reguladores que ha tomado el cuidado necesario para construir una IA confiable. Una forma de hacerlo es a través de una auditoría contra las normas reconocidas, los marcos reglamentarios y las mejores prácticas, incluida una evaluación de impacto algorítmica.

Por ejemplo, probar el sistema de IA utilizando scripts de prueba que pueden abordar escenarios del mundo real para obtener comentarios de los usuarios y ayudar a garantizar su efectividad, confiabilidad, equidad y aceptación general antes de la implementación. Esto incluye explicar qué datos se utilizaron, cómo se aplicaron al usuario final y cómo el usuario final puede impugnar o cuestionar el uso de la IA con fines de toma de decisiones automatizada para evitar resultados sesgados.




Esté preparado para responder preguntas y gestionar las preferencias de las personas afectadas por su desarrollo o uso de sistemas de IA. Las organizaciones que quieran utilizar la IA para la toma de decisiones automatizada deberían poder explicar en un lenguaje sencillo cómo la IA puede afectar a sus usuarios finales..


La explicabilidad es la capacidad de articular por qué un sistema de IA llegó a una decisión, recomendación o predicción particular. Esté preparado para responder preguntas y gestionar las preferencias de las personas afectadas por su desarrollo o uso de sistemas de IA. Considere la posibilidad de desarrollar flujos de trabajo documentados para identificar y explicar qué datos se utilizaron, cómo se aplicaron al usuario final y cómo el usuario final puede impugnar o cuestionar el uso de la IA con fines de toma de decisiones.



Contáctenos