1 de abril de 2016

Un experimento de Microsoft devela que la web est谩 podrida

El robot Tay

El robot Tay creado para interactuar con los usuarios y aprender de ellos, se volvi贸 agresivo, avergonz贸 a Microsoft y tuvo que ser desactivado y en hotmail iniciar sesion te contamos a que se debe.

Ya hab铆amos anticipado que Microsoft se encontraba concentrada en hacer crecer sus proyectos vinculados a la inteligencia artificial. La semana pasada, la empresa realiz贸 un experimento con un robot concebido para aprender de los intercambios entre los adolescentes. Lamentablemente el software tuvo que ser desactivado luego de que el robot emitiera una serie de twits xen贸fobos, racistas y desafortunados, al ir en contra de los valores de la empresa que le dio vida.

El software que Microsoft denomin贸 Tay, fue dise帽ado para ir aprendiendo de los intercambios generados entre el robot y los usuarios adolescentes. Lo que se quer铆a lograr era que el bot emitiera respuestas personalizadas a los usuarios, a partir de la informaci贸n que pudiera recabar sobre ellos en las interacciones.

Lamentablemente el robot aprendi贸 muy r谩pidamente de los comentarios racistas, sexistas, xen贸fobos y agresivos de los usuarios y se despach贸 con una catarata de twits que avergonzaron a Microsoft y la obligaron a suspender el experimento y tener que pedir disculpas p煤blicas.

Las publicaciones fueron creciendo en niveles de negatividad y agresividad: contra los jud铆os, contra el feminismo, a favor de los nazis, de Hitler y de Donald Trump, entre otras. Los mensajes, fueron cada vez m谩s odiosos e hirientes, obligando a la empresa a desactivar el robot y a tener que salir a pedir disculpas.

R谩pidamente Microsoft se encarg贸 de borrar los twits pol茅micos y de salir a dar las explicaciones del caso, culpando a los trolls de la red de la cuestionada conducta del robot.

De lo acontecido, podemos concluir que cuando ocurren este tipo de situaciones hay que hacer un an谩lisis m谩s macro que permita explicarlas. Si Tay se alimentaba de los usuarios de la web, la causa debemos buscarla en el nivel de agresividad de los comentarios que los seres humanos van dejando que se convierten en el insumo del que se nutre el robot.

Una vez m谩s, lo que queda al descubierto es el lado m谩s negativo de los seres humanos que escudados detr谩s del anonimato virtual creen que pueden decir y agredir sin l铆mites, algo que en la vida real no se animar铆an a concretar.