La inteligencia artificial (IA) promete transformar la vida de las personas, ayudándoles a ser más eficientes, productivas, saludables e innovadoras. Esta emocionante tecnología ya se está utilizando en los sectores público y privado, aprovechando el poder de la información para mejorar las predicciones, crear nuevos productos y servicios, reducir costos y liberar al talento de labores administrativas o rutinarias.
Sin embargo, como con cualquier tecnología emergente, existen riesgos. Su uso generalizado y no regulado suscita preocupación por su impacto en los derechos humanos y la privacidad personal. Esto es especialmente cierto en el caso de la inteligencia artificial generativa (IAGen), que utiliza algoritmos de aprendizaje profundo y poderosos modelos básicos, que se entrenan con cantidades masivas de datos sin etiquetar para obtener resultados producidos por la IA.
Este estudio analiza la adopción generalizada de la IA, así como sus implicaciones en la privacidad. Su objetivo es descubrir lo que esto significa para las empresas, describiendo los pasos clave que estas pueden seguir para hacer uso de esta tecnología de manera responsable. Al mantenerse informadas sobre estas implicaciones y tomar medidas proactivas para mitigar los riesgos, las organizaciones podrán aprovechar su poder, al tiempo que protegen la privacidad de las personas.
Explore los cinco pasos clave que pueden ayudar a las empresas a generar confianza en la IA
Los legisladores, responsables políticos y reguladores insisten constantemente en alinear los sistemas de IA con estándares reconocidos, por lo que resulta esencial identificar aquellos marcos normativos que aplican a su negocio, determinar cuáles deben cumplirse y planear cómo se implementará esta tecnología en su modelo de negocio. Cree una línea de base para el uso de la IA que satisfaga las distintas normativas y que optimice el desarrollo y las actividades comerciales relacionadas.
Evalúe el impacto en la privacidad y aborde los problemas de cumplimiento en la etapa de planeación (y a lo largo del ciclo de vida de la IA) a través de una evaluación sistemática del impacto en la privacidad (PIA, por sus siglas en inglés), o bien, mediante una evaluación del impacto en la protección de datos (DPIA, por sus siglas en inglés). La privacidad por diseño, tal y como se describe en la norma ISO 31700, y el Marco de evaluación de la privacidad desde el diseño de KPMG pueden ayudar a las organizaciones a integrar este aspecto en los sistemas de IA.
Incluso, si considera que su sistema solo utiliza datos anónimos o no personales, pueden surgir riesgos para la privacidad, incluida la reidentificación a partir de conjuntos de datos de entrenamiento o de modelos de IA, así como impactos derivados de los datos no personales que son utilizados para entrenar modelos y que pueden afectar a individuos y comunidades. Una evaluación sólida también incluirá modelos de amenazas a la seguridad y la privacidad a lo largo del ciclo de vida de la IA, además de consultas con las partes interesadas según corresponda.
Además, valore cuestiones de privacidad más amplias, como la justicia de datos (la imparcialidad con la que se trata a las personas en la forma en que se utilizan sus datos) y la soberanía de los datos indígenas (los derechos de los pueblos indígenas a gobernar y aquellos sobre sus comunidades, pueblos, tierras y recursos).
Analice los riesgos de privacidad asociados con el desarrollo de soluciones de IA internas o del uso de modelos abiertos que se entrenan con datos públicos. Adicionalmente, asegúrese de que estos modelos se adhieran a las normas éticas y de IA desarrolladas, así como a regulaciones, mejores prácticas y códigos de conducta, para hacer operativos los requisitos; por ejemplo, los del National Institute of Standards and Techology (NIST), las normas ISO y la orientación regulatoria. Esto aplica tanto si usted es el desarrollador como si es un cliente que desarrolla, adquiere o integra un sistema de IA.
En caso de ser cliente, pida al desarrollador la documentación que respalde sus evaluaciones de impacto de PIA y DPIA de IA relacionadas, y realice sus propios modelos privados. Si no pueden proporcionar esta documentación, considere otro proveedor.
En muchas jurisdicciones, incluidos el Reino Unido y la Unión Europea, las evaluaciones PIA o DPIA ya son un requisito legal y una línea base que debería incorporar las consideraciones de la IA; estas deben abordar el uso inicial de la IA y las consideraciones de diseño (por ejemplo, el planteamiento del problema, las zonas prohibidas, entre otras). Enfóquese en la articulación de la necesidad y la proporcionalidad para la recolección de datos, así como en el consentimiento.
Si es un desarrollador de sistemas de IA, un tercero o un proveedor, debe asegurar a clientes y reguladores que ha tomado las precauciones necesarias para construir una IA confiable. Una forma de hacerlo es a través de una auditoría a sus normas, marcos normativos y mejores prácticas reconocidas, incluyendo una evaluación de impacto algorítmico.
Por ejemplo, puede probar el sistema de IA mediante guiones que aborden escenarios del mundo real para obtener comentarios de los usuarios y ayudar a garantizar su eficacia, fiabilidad, imparcialidad y aceptación general antes de su implementación. Esto incluye explicar qué datos se utilizaron, cómo se aplicaron al usuario final y la manera en que dichos usuarios pueden cuestionar el uso de la IA para efectos de la toma de decisiones automatizada, a fin de evitar resultados sesgados.
Prepárese para responder preguntas y administrar las preferencias de las personas afectadas por el desarrollo o uso de sistemas de IA. Las compañías que busquen utilizar la IA para la toma de decisiones automatizada deben ser capaces de explicar, en un lenguaje sencillo, cómo la IA puede afectar a sus usuarios finales.
Una IA explicable se traduce en la capacidad de describir por qué un sistema de IA llegó a una decisión determinada, una recomendación o una predicción en particular. Las organizaciones deben estar preparadas para responder preguntas y administrar las preferencias de las personas afectadas por el desarrollo o uso de dichos sistemas. Incluso considere la posibilidad de desarrollar flujos de trabajo documentados para identificar y explicar qué datos se utilizaron, cómo se aplicaron al usuario final y cómo este puede cuestionar o impugnar el uso de la IA para efectos de la toma de decisiones.
Contenido relacionado
Contáctenos
Contáctenos
- Encontrar ubicación de oficinas kpmg.findOfficeLocations
- kpmg.emailUs
- Redes sociales @ KPMG kpmg.socialMedia