La "equidad" es un concepto complicado de abordar en el mundo de los negocios, pero frente a eso, la Inteligencia Artificial (IA) constituye un arma afilada que podría usarse para niveles de bondad sin precedentes a medida que las empresas buscan liberarse de la discriminación.
Pero retrocedamos un poco: siempre que miras los datos, rápidamente descubres que las decisiones humanas son intrínsecamente injustas. Eso no quiere decir correcto o incorrecto, porque a menudo es subjetivo, aunque literalmente injusto. Esto se debe a que el mundo en el que vivimos está desequilibrado; y los datos que reflejan ese mundo se vuelven sesgados en su naturaleza.
¿Deberían los ricos pagar impuestos más altos? Muchos dirían que “sí”, que es justo. ¿Le cobrarías más a ese mismo rico por un trozo de pan? La idea de un gasto proporcional a los ingresos ya se vuelve inconsistente, y tal vez eso sea injusto en sí mismo.
Ahora aplica esa noción a la IA: un sistema en el que los datos se introducen en una máquina para que ese algoritmo derive las decisiones resultantes para que los humanos actúen con mayor precisión de la que podrían lograr ellos mismos. Si los datos que se alimentan están contaminados por sesgos históricos, eso es lo que se utilizará para tomar decisiones futuras. Ese ciclo no sólo continuará, sino que se exacerbará hasta un grado sin precedentes.
Implementación
Tomemos los patrones de contratación, por ejemplo. El género y la raza son los parámetros clásicos que la mayoría de las empresas buscan equilibrar y hacer "justos". Pero los datos y sesgos históricos desvían el objetivo previsto de la IA, por lo que se debe tomar una decisión humana sobre qué información introducir en el algoritmo.
Sin orientación hacia la equidad, el Aprendizaje Automático (Machine Learning, ML) aún puede descubrir a los mejores candidatos, pero no hay garantía de que se adhiera a una cuota o aborde la discriminación si solo se basa en pruebas discriminatorias para tomar sus decisiones.
Algunos ejemplos en donde la IA se dejó a sus propios dispositivos enfatizan la batalla ética de la que hablamos: Se ha descubierto que la tecnología de reconocimiento facial funciona mucho mejor para los blancos que para otras razas (y los hombres mejor que las mujeres) porque se probó y se entrenó principalmente en estadounidenses blancos.
En China, con los productos locales, sucede lo contrario, con rostros europeos más difíciles de identificar.
En el lado de género, Amazon fue desafiada por sus procesos de selección, que se encontraron más basados en los hombres como consecuencia de confiar en data histórica (con decisiones injustas).
Estos resultados fueron inicialmente sorprendentes. Al menos se identificó el problema. La comunidad de IA tomó esto como una oportunidad para desarrollar mejores algoritmos que puedan aprender decisiones justas a partir de datos injustos.
¿Quién decide qué es justo?
Las empresas necesitan armar la IA con los datos correctos. Necesita el conjunto de instrucciones más éticas, que elimine los prejuicios humanos y las deficiencias históricas, de modo que se pueda lograr el equilibrio en un grado óptimo.
La buena noticia es que los algoritmos y las "instrucciones" son relativamente fáciles de adaptar. La tecnología está ahí, lista y esperando para eliminar la discriminación. Cuando se trata de la empresa, la equidad social es una red de complejidad, y primero debe establecer lo que evalúa como ético para lograr esos objetivos.
Un arma afilada
Cuando se hayan elaborado las pautas éticas, la IA se convertirá en un revolucionario cambio de juego. Es importante tomar la decisión sobre lo que es justo y luego introducirlo en una máquina que funcionará con precisión contra esas definiciones de justicia. Podría ser un gran nivelador para algunas de las discriminaciones más flagrantes observadas en áreas de recursos humanos, brechas salariales, etc.
Por supuesto, si una noción contenciosa o incluso injusta se carga en ML, ese status quo discriminatorio o poco ético se agravaría. Pero cuando se usa para bien, tenemos un arma afilada en nuestras manos, hecha de datos y algoritmos que pueden deshacer los desequilibrios culturales, históricos y sociales en las industrias de una manera mucho más acelerada de lo que podríamos hacer cumplir sin esta tecnología.
La IA trabaja con datos. Y mientras los datos que se prestan a estos algoritmos se afilen con buenas intenciones, entonces tenemos un arma muy poderosa que esgrimir en la lucha contra la discriminación. Los recientes incidentes discriminatorios y las protestas mundiales en su contra muestran cuán necesaria es tal arma.
“¿Cómo evitar sesgos históricos y desarrollar mejores algoritmos que puedan aprender decisiones justas a partir de datos injustos? Cuando se hayan elaborado las pautas éticas, la Inteligencia Artificial (IA) se convertirá en un revolucionario cambio de juego”.
Michael Feindt, consultor estratégico de Blue Yonder
Nosotros | Publicidad | Suscripciones | Contacto | Aviso de Privacidad
Reservados todos los derechos 2024 |