Overwatch prepara una IA con la que identificar a los jugadores tóxicos

Overwatch prepara una IA con la que identificar a los jugadores tóxicos

Como en todo grupo, siempre hay alguien que sobra. En el caso de juegos online como Overwatch, son esos usuarios que se dedican a trolear, insultar, emplear cheats… es decir, nada más que a molestar. Un asunto que trae de cabeza a Blizzard, motivo por el que ya trabaja en una nueva IA con la que identificar a la comunidad más tóxica dentro de este título, para que puedan ser expulsados tan pronto como sea posible.

Tal y como explica Jeff Kaplan, director de Overwatch, en Kotaku, la intención es hacer que esta IA aprenda de forma autónoma. ¿De qué manera? El algoritmo ha registrado algunos elementos que relacionan el lenguaje tóxico empleado por este sector en las partidas. La meta es no tener que esperar a que alguien real determine, previo informe, si hay o no infracción y proceda la expulsión.

Partiendo de sus archivos, y lo que haya ido aprendiendo, esta IA decidirá si procede un castigo y cuál ha de aplicarse en estos usuarios de Overwatch. Por ahora, Kaplan asegura que este algoritmo trabajará con los casos más extremos y que poco a poco irá aprendiendo para ajustarse mejor. De esta forma, problemas como el contexto en el que se produzca la “infracción” podrá ser tenido en cuenta, un buen ejemplo es el lanzamiento de una palabrota tras la pérdida de una partida pero sin la intención de insultar, sólo desahogarse.

Una muestra más del compromiso de Blizzard contra la toxicidad en Overwatch, como cuando expulsó a este jugador que arruinó numerosas partidas.

Publicaciones relacionadas

Cerrar