Desde este pasado mes de febrero el denominado "AutoMod", se encarga de gestionar mensajes ofensivos en la plataforma.
Más historias en la categoría Noticias
- No para: Microsoft podría seguir adquiriendo nuevos estudios de desarrollo
- Llegan juegazos hoy a Xbox Series, nada más y nada menos de 11 nuevos títulos
- Consigue un DLC mítico gratis para Xbox Series
No te pierdas nada y ¡Síguenos en Google News! |
La comunidad de Xbox sigue creciendo y, con ella, la necesidad de proteger a los jugadores de comportamientos inaceptables en línea. En el nuevo informe de transparencia de Xbox, se destacan algunos de los esfuerzos realizados para combinar soluciones centradas en el jugador con la aplicación responsable de la inteligencia artificial (IA) para detectar y prevenir comportamientos no deseados en la plataforma.
Una de las áreas en las que han centrado sus esfuerzos es en la detección de spam y publicidad. Durante el período de enero a junio de 2024, lanzamos dos herramientas de IA que nos permiten identificar y bloquear contenido disruptivo de manera más efectiva. Estas herramientas han sido diseñadas para apoyar a nuestros equipos de moderación y permitirles centrarse en casos más determinados y complejos.
Un uso de la IA muy beneficioso para los jugadores
Una de las herramientas, llamada Xbox AutoMod, se lanzó en febrero y ha manejado más de 1,2 millones de casos, lo que ha permitido a nuestro equipo eliminar contenido que afecta a los jugadores un 88% más rápido. La segunda herramienta, que se lanzó en julio, trabaja de manera proactiva para prevenir comunicaciones no deseadas. Estas herramientas han sido diseñadas para detectar spam y publicidad, y en el futuro, se expandirán para prevenir otros tipos de daño.
Además de estas herramientas, también hemos estado trabajando en mejorar la experiencia de los jugadores en otros juegos. Por ejemplo, en Minecraft, donde se manda un mensaje automático si el sistema detecta un contenido inapropiado. Esta función está diseñada para recordar a , o Call of Duty, con sus herramientas anti-toxicidad, que unidas a las facilidades de la IA, facilitan el poder eliminar el contenido indeseado y a moderar el comportamiento de los jugadores en los servidores antes de que ello suponga un bloqueo o expulsión del mismo.