A medida que pasa el tiempo, más empresas han implementado y/o aumentado el uso de la Inteligencia artificial (IA) lo que ha llevado al cuestionamiento sobre hasta qué punto el prejuicio humano se ha abierto camino para reflejarse en los sistemas de Inteligencia Artificial.
En el mundo real se ha evidenciado que cuando los datos y algoritmos incorporados en los modelos de IA son discriminatorios, se presentan sesgos o errores que no sólo generan duda sobre su confiabilidad, sino que amplifican los efectos negativos de su implementación. Si bien muchas empresas son conscientes de dichos sesgos y se encuentran motivadas para el reto que implica la parcialidad de la IA, para garantizar equidad y mejores resultados, la eliminación de los prejuicios en la IA, ésta lejos de ser sencilla.
El sesgo en la Inteligencia Artificial, hace referencia a sistemas de IA que generan resultados sesgados que no reflejan la realidad, sino que perpetúan los prejuicios o sesgos de los seres humanos en una sociedad.
Dichos sesgos pueden existir en los datos de entrenamiento inicial del sistema de IA, en su algoritmo o en las predicciones que genera. Cuando esos prejuicios no se abordan ni se eliminan de los sistemas IA, obstaculizan la capacidad de las personas para participar económica y socialmente y afectan a las empresas que resultan perjudicadas con los resultados distorsionados brindados por la IA, y crean desconfianza en grupos poblacionales como: mujeres, personas de color, con discapacidad, comunidad LGBTQ+, entre otros.
Algunas consecuencias de los sesgos de la IA son:
- En salud: Los datos infrarrepresentados relativos a mujeres o grupos minoría pueden generar sesgos en los algoritmos de predicción de la IA, estos se han observado principalmente en diagnósticos asistidos por ordenador que arrojan resultados imprecisos para pacientes de raza negra en comparación con pacientes de raza blanca;
- En el ámbito laboral: Perpetuidad de desigualdades de género y raza en los procesos de selección de personal de algunas empresas, los algoritmos de IA han mostrado la preferencia por los candidatos de género masculino debido a la prevalencia de datos históricos sesgados hacia los hombres en ciertos cargos;
- Sistemas de reconocimiento facial presentan una mayor tasa de error para mujeres y personas de color en comparación con hombres de raza blanca, lo que puede generar graves implicaciones en seguridad;
- Algunos sistemas de IA están tomando decisiones sensibles sin dar explicaciones, vulnerando derechos humanos fundamentales;
Por lo anterior, es necesario que se identifiquen y mitiguen los sesgos asegurando que la IA se use equitativa y justamente. Para esto se requiere:
- Mejoramiento en calidad y diversidad de datos de entrenamiento;
- Aumento de transparencia en creación y desarrollo de algoritmos;
- Fomento de cultura de responsabilidad en los profesionales desarrolladores de IA.

