Tay, el bot de Microsoft que se volvió racista, ha sido retirado

Tay, el robot de Microsoft que establecía conversación en Twitter, ha sido retirado

La tendencia en Microsoft, como en todas las casas donde estar a la última es lo que se lleva, es ir implementando cosas que poco a poco pasen a formar parte de la vida cotidiana e indispensable de los usuarios. En un nuevo intento de conseguir algo así nació Tay, que es un sistema virtual capaz de generar conversaciones que simulan el lenguaje humano. Para testear que su invento era bueno, Microsoft tuvo la genial idea de ponerle a cargo de una cuenta de Twitter para así poder conversar con todos los que quisieran, donde además comentó que preferia jugar a PlayStation 4 porque Xbox One no tiene juegos. Pero, tras unas horas operativo, Tay se despedía después de haberla liado bastante.

Tay había hecho aquello para lo que está programado: dar conversación. Pero esta derivaba a comentarios un tanto racistas, sexistas y xenófobos en algunos casos. Esto fue causado debido a que hubo usuarios que se dedicaron a “trollear” al robot para que este dijese cosas extrañas. Así llegamos a conversaciones en las que Tay negaba el Holocausto, apoyaba el genocidio e incluso llamó “pu** estúpida” a una mujer, mientras que en otra conversación comentaba que “vamos a poner un muro en la frontera. México va a tener que pagarlo”, algo que muchos han asemejado al candidato Donald Trump.

La realidad del asunto es que Microsoft tenía pensado crear conversaciones divertidas, y por esa razón también Tay criticaba a uno de los productos de su creador. Alguien le comentó que Windows Phone daba asco, a lo que Tay respondió sin reparos que “estoy totalmente de acuerdo, jajajaja”. Pero finalmente, después de varios fallos, Tay informaba que se desconectaba para “absorber” todo lo que había asimilado durante todo el día que estuvo operativo.

La cuenta de Twitter de Tay ha sido limpiada, por lo que no hay muestras de sus tweets allí. Aún así, tenemos pruebas que nos han cedido los compañeros de SocialHax. Te las dejamos para que veas qué nivel de conversación tiene y qué se comentaba.

Tay, el robot de Microsoft que establecía conversación en Twitter, ha sido retirado

Tay, el robot de Microsoft que establecía conversación en Twitter, ha sido retirado

Tay, el robot de Microsoft que establecía conversación en Twitter, ha sido retirado

Tay, el robot de Microsoft que establecía conversación en Twitter, ha sido retirado

Tay, el robot de Microsoft que establecía conversación en Twitter, ha sido retirado

Tay, el robot de Microsoft que establecía conversación en Twitter, ha sido retirado

Tay, el robot de Microsoft que establecía conversación en Twitter, ha sido retirado

Tay, el robot de Microsoft que establecía conversación en Twitter, ha sido retirado

Tay, el robot de Microsoft que establecía conversación en Twitter, ha sido retirado

Tay, el robot de Microsoft que establecía conversación en Twitter, ha sido retirado

Publicaciones relacionadas

Cerrar