La inclusión y los derechos humanos ahora también abarcan el ámbito digital y tecnológico, en el cual destaca la inteligencia artificial (IA). Esta herramienta ha transformado nuestra interacción, comunicación, tareas y decisiones en múltiples sectores, y, aunque es valiosa, presenta desafíos no abordados que podrían generar problemas en el futuro.

La IA utiliza algoritmos para emular la inteligencia humana mediante clasificaciones y predicciones, y aprendiendo de los datos en tiempo real; sin embargo, los prejuicios humanos que se repliquen en esta tecnología al momento de su programación pueden distorsionar los resultados, produciendo sesgos de aprendizaje automático con impactos sociales negativos, como la perpetuación de estereotipos y discriminación.

A continuación, presentamos algunos ejemplos:

  • Los modelos de IA son entrenados con información que refleja nuestro lenguaje y comportamiento; si los datos contienen sesgos, la IA podría aprender a replicarlos. Por ejemplo, si el conjunto de datos favorece a los hombres en posiciones de liderazgo, podría subrepresentar a las mujeres, perpetuando estereotipos de género
  • El sesgo de representación también ocurre cuando los algoritmos de IA subrepresentan a ciertos grupos sociales en sus datos de entrenamiento, lo que puede degradar su rendimiento o perpetuar estereotipos negativos. Por ejemplo, la escasez de información positiva sobre personas afrodescendientes puede provocar que el modelo refuerce conductas racistas
  • Existe un sesgo de confirmación cuando el sistema tiende a reforzar creencias o ideologías preexistentes. Esto ocurre si el modelo está expuesto predominantemente a información que confirma determinados prejuicios y que le obliga a ignorar perspectivas que muestren lo contrario. Si una IA se entrena principalmente con artículos que sostienen ideas preconcebidas contra la comunidad LGBT+, por ejemplo, esta generará respuestas que los refuercen
  • Otro tipo de sesgo surge de las decisiones de diseño en los modelos de IA, incluyendo cómo se ponderan los datos y cómo se optimizan ciertos resultados. Una empresa puede tomar decisiones sobre qué métricas utilizar para evaluar la precisión de un modelo que pueda favorecer respuestas que mantengan el statu quo en lugar de desafiar lo establecido para construir nuevas oportunidades

Hoy más que nunca, debemos reconocer que la lucha por el pleno goce y ejercicio de los derechos humanos de todas las personas ha traspasado la frontera del mundo tangible, escalando a nuevos espacios como lo son la virtualidad y la tecnología.

Es nuestra responsabilidad como individuos que exploran este tipo de herramientas el cuestionar las visiones culturales o ideológicas que cada IA pueda propagar, analizando su impacto social para exigir que se construyan mejores modelos que se adapten a todas las realidades.

Debemos comprometernos con desmantelar conductas y sistemas que perpetúen desigualdades, así como enfocar nuestros esfuerzos en desarrollar una IA ética, confiable y centrada en valores humanos. Al reconocer y reducir los sesgos no solo elevamos la calidad de nuestras tecnologías, sino que también promovemos una innovación tecnológica que respeta y refleja la diversidad.

Asimismo, nos corresponde abrir el camino hacia un futuro donde la IA y otras tecnologías emergentes se desarrollen y desplieguen de manera que respeten y promuevan los derechos humanos, asegurando que cada persona tenga la oportunidad de prosperar en un mundo digital inclusivo, justo y respetuoso con todas las identidades.

#FutureIsInclusive

Nota: las ideas y opiniones expresadas en este escrito son de quienes firman el artículo y no necesariamente representan las ideas y opiniones de KPMG en México.

Prohibida la reproducción parcial o total sin la autorización expresa y por escrito de KPMG.

###

La información aquí contenida es de naturaleza general y no tiene el propósito de abordar las circunstancias de ningún individuo o entidad en particular. Aunque procuramos proveer información correcta y oportuna, no puede haber garantía de que dicha información sea correcta en la fecha en que se reciba o que continuará siendo correcta en el futuro. Nadie debe tomar medidas con base en dicha información sin la debida asesoría profesional después de un estudio detallado de la situación en particular.

Contáctenos

Contenido relacionado