Sistemas de inteligencia artificial copian sesgo humanos

14 abril de 2017


Mar 5, 2018 @ 23:49
[thb_gap height="20"]

Un grupo de científicos de la Universidad de Princeton en EEUU, y de Bath, en Reino Unido, elaboró un método para medir el sesgo de los sistemas de inteligencia artificial similar al test de asociación implícita que se usa para evaluar el de los humanos.

Según informa la Agencia EFE, en este test, se pide a la persona que empareje dos conceptos que considera similares, en contraste con dos que considera diferentes.
Las personas suelen asociar, por ejemplo, "flores" con "agradable" mientras que "insectos" lo relacionan a menudo con "desagradable".

Los científicos, liderados por Aylin Caliskan de la Universidad de Princeton analizaron estadísticamente el número de asociaciones entre palabras de los sistemas de inteligencia artificial, con un total de aproximadamente 2,2 millones de palabras en total.

Los resultados demostraron que los sistemas de inteligencia artificial retienen el sesgo visto en los humanos.
Por ejemplo, los estudios de comportamiento humano muestran que el mismo currículum tiene un 50 % más de posibilidades de conducir a una oportunidad laboral si el nombre del candidato es de origen europeo que de origen africano.

Del mismo modo, los sistemas de inteligencia artificial mostraron tendencia a asociar más a menudo los nombres de origen europeo con estímulos agradables como "regalo" o "feliz".
Los sistemas también mostraron sesgo de género, ya que palabras como "mujer" o "chica" las asociaron con las artes más que "hombre" o "chico".

Los autores del estudio sostienen que estos resultados son una herramienta para estudiar los prejuicios y el comportamiento humano, al tiempo que subrayan cómo el lenguaje está ligado íntimamente al sesgo histórico y los estereotipos culturales.

Fuente: EFE


Informarte

en vivo

Current track
TITLE
ARTIST

WP Twitter Auto Publish Powered By : XYZScripts.com