1 de abril de 2016

Un experimento de Microsoft devela que la web está podrida

El robot Tay

El robot Tay creado para interactuar con los usuarios y aprender de ellos, se volvió agresivo, avergonzó a Microsoft y tuvo que ser desactivado y en hotmail iniciar sesion te contamos a que se debe.

Ya habíamos anticipado que Microsoft se encontraba concentrada en hacer crecer sus proyectos vinculados a la inteligencia artificial. La semana pasada, la empresa realizó un experimento con un robot concebido para aprender de los intercambios entre los adolescentes. Lamentablemente el software tuvo que ser desactivado luego de que el robot emitiera una serie de twits xenófobos, racistas y desafortunados, al ir en contra de los valores de la empresa que le dio vida.

El software que Microsoft denominó Tay, fue diseñado para ir aprendiendo de los intercambios generados entre el robot y los usuarios adolescentes. Lo que se quería lograr era que el bot emitiera respuestas personalizadas a los usuarios, a partir de la información que pudiera recabar sobre ellos en las interacciones.

Lamentablemente el robot aprendió muy rápidamente de los comentarios racistas, sexistas, xenófobos y agresivos de los usuarios y se despachó con una catarata de twits que avergonzaron a Microsoft y la obligaron a suspender el experimento y tener que pedir disculpas públicas.

Las publicaciones fueron creciendo en niveles de negatividad y agresividad: contra los judíos, contra el feminismo, a favor de los nazis, de Hitler y de Donald Trump, entre otras. Los mensajes, fueron cada vez más odiosos e hirientes, obligando a la empresa a desactivar el robot y a tener que salir a pedir disculpas.

Rápidamente Microsoft se encargó de borrar los twits polémicos y de salir a dar las explicaciones del caso, culpando a los trolls de la red de la cuestionada conducta del robot.

De lo acontecido, podemos concluir que cuando ocurren este tipo de situaciones hay que hacer un análisis más macro que permita explicarlas. Si Tay se alimentaba de los usuarios de la web, la causa debemos buscarla en el nivel de agresividad de los comentarios que los seres humanos van dejando que se convierten en el insumo del que se nutre el robot.

Una vez más, lo que queda al descubierto es el lado más negativo de los seres humanos que escudados detrás del anonimato virtual creen que pueden decir y agredir sin límites, algo que en la vida real no se animarían a concretar.