El cómputo moderno parece irse desarrollando hacia la Inteligencia Artificial (IA), la cual está teniendo asombrosos avances desde que se empezaron a usar las redes neuronales profundas, las cuales han resuelto problemas interesantes como podría ser, jugar al Go como el mejor jugador del mundo, o poder ver los elementos que hay en una foto y así poder hacer búsquedas de forma visual (cosa que ya hace, por ejemplo Google.

Pero en estos nuevos sistemas, los cuales son entrenados con miles y miles de objetos (por ejemplo fotos), para que la máquina aprenda, parecen tener un sesgo, es decir, que así como hacen los humanos, que empiezan a generar prejuicios, las máquinas podrían estar haciendo algo parecido mientras aprenden.

De hecho, un nuevo estudio ha revelado que los sistemas de IA, como Google Translate, adquieren un sesgo cultural, un prejuicio pues, como los humanos. Y aunque esto no es demasiado sorprendente, es claro que causa preocupación por las implicaciones que tienen al resolver un sistema automatizado algún problema y por ende, se busca solucionarlo.

La investigación, publicada en Science, el semanario de la Asociación Estadounidense para el Avance de la Ciencia, nace en el Centro de Tecnologías de la Información (CITP) de la Universidad de Princeton. Arvin Narayanan, un profesor asistente de ciencias de la computación y afiliado al CITP, explica su investigación: «Cuestionamientos sobre el sesgo y el no-sesgo en el aprendizaje de las computadoras es tremendamente importante para nuestra sociedad. Tenemos una situación en donde estos sistemas de inteligencia artificial pueden perpetuar los patrones históricos de los sesgos o prejuicios que pudiesen encontrarse socialmente inaceptables y que deberíamos ver cómo librarnos de ellos».

¿Pueden las computadoras ser creativas?

La herramienta usada para investigar el sesgo humano es la prueba implícita de asociaciones, la cual mide los tiempos de respuesta (en milisegundo), que contestas sujetos en el laboratorio al preguntárseles sobre parejas de conceptos en palabras que se muestran en la pantalla de la computadora. Los tiempos de respuesta son muy cortos para conceptos que se perciben similares que aquellos que se perciben como no similares.

El equipo de Princeton desarrolló una manera de medir el sesgo en los sistemas de IA que adquieren el idioma a partir de textos humanos. En lugar de medir el tiempo de espera, la prueba de la asociación embebida de palabras usa la asociación entre las mismas, analizando cerca de 2.2 millones de palabras en total. En particular se confía en GloVe (Global Vectors for Word Representation), un programa de código abierto desarrollado por investigadores en la Universidad de Stanford para medir la similitud semántica o lingüística de las palabras en términos de la co-ocurrencia y proximidad.

Por ejemplo, usan este enfoque para ver palabras como «programador, ingeniero, científico» y «enfermera, profesor, bibliotecario» con conjuntos de palabras que significan atributos como «hombre, macho, mujer y hembra». Y así puede observarse la evidencia del tipo de sesgo humano que usamos cuando relacionamos palabras con conceptos.

El siguiente video explica el trabajo que se ha hecho para ver estos sesgos que ocurren por simplemente por la proximidad de las palabras:

En el video se explica que los nombres femeninos, por ejemplo, se asocian con términos de la familia, mientras que los nombres masculinos se asocian a términos de carreras y demuestran como la propia IA perpetúa los estereotipos de género usando Google Translate y el lenguaje turco, que tiene tres pronombres, ‘el, ella y eso (para las cosas – He, She, It). Así que cuando se usa un pronombre neutral de género, en oraciones como «it´s a doctor, it´s a nurse», el sistema lo traduce como «He is a doctor y She is a nurse», lo cual habla de un prejuicio por tradición: los hombres son doctores, las mujeres enfermeras, que es absolutamente falso.

¿Una inteligencia artificial como la de los humanos?

Joanna Bryson apunta que aunque los programas de aprendizaje de las máquinas muestran el mismo prejuicio de asociación de las mujeres con roles domésticos, también son más precisos en predecir la proporción de mujeres en el tipo de ocupaciones que tienen cuando se comparan con las estadísticas de los trabajos en los Estados Unidos.

Bryson indica: «Mucha gente dice que estamos diciendo que la IA tiene prejuicios. Pero no, lo que mostramos es que hay prejuicios y que la IA los está aprendiendo». La investigadora advierte que la IA tiene el potencial de reforzar los sesgos existentes porque al contrario de los seres humanos, los algoritmos no están ocupados con un elemento consciente para contraatacar los sesgos y prejuicios aprendidos.

Todo parece indicar que la sociedad es la que ya tiene implementados, por decirlo de alguna manera, prejuicios y sesgos, los cuales se han incorporado al imaginario colectivo desde hace siglos. El tema de los géneros y de los trabajos que los mismos pueden hacer parecen tener su razón de ser en que el propio lenguaje ya es sesgado por sí mismo. Por ejemplo, no decimos -cuando hablamos de una pareja hombre/mujer- «¡Qué listas son!», sino «¡Qué listos son!». Pareciera pues que ya está dentro del lenguaje (de forma embebida), este tipo de prejuicios de género.

El asunto es más interesante a partir de que con este tipo de mediciones bien podríamos evitar los prejuicios y sesgos a partir de las mediciones de la cercanía que hay entre las palabras y sus sinónimos en muchos casos.

Referencias: Semantics derived automatically from language corpora contain human-like biases by Aylin Caliskan, Joanna J. Bryson, Arvind Narayanan, Science14 Apr 2017 pp. 183-186 , AI systems exhibit gender and racial biases when learning language