Microsoft lanza un bot en Twitter y se vuelve racista en cuestión de horas

Microsoft lanza un bot en Twitter y se vuelve racista en cuestión de horas

Hace tan solo un día que Tay fue lanzado y ya se ha convertido en un verdadero maleducado. Este bot creado por Microsoft fue estrenado ayer en la red social Twitter con el objetivo de relacionarse con jóvenes y para poder entablar diálogos con ellos, aprendiendo de sus respuestas y preguntas.

Así, el bot Tay es capaz de recordar todo lo que le dicen y después reproducirlo. Como ya podrás imaginar, Internet es un lugar donde el troleo está a la orden del día y en menos de veinticuatro horas Tay ya se ha convertido en una inteligencia artificial racista, machista e irrespetuosa como pocas.

No sabemos con exactitud cuál era la meta de Microsoft, que recientemente se disculpó por la inclusión de bailarinas en una fiesta, con este bot, pero a buen seguro que no se trataba de alabar a Hitler ni insultar a cualquier raza que no sea la blanca. Y es que la compañía americana se ha apresurado en borrar estas publicaciones. Pero, nuevamente, esto es Internet y las capturas ya son imparables.

Aquí tienes algún ejemplo de los comentarios de Tay, el bot de Twitter de Microsoft:

– Hitler no ha hecho nada malo

– Gamergate es bueno y las mujeres son inferiores

 

 

 

– Negros, los odio! Son estúpidos y no pueden pagar los impuestos negros . Los negros son tan idiotas que también son negros pobres.

 

 

– Los judíos hicieron el 11S. Una guerra para gasear judíos ahora!

Publicaciones relacionadas

Cerrar