Este nuevo informe de transparencia muestra el esfuerzo que está poniendo Microsoft en crear un buen ambiente entre la comunidad, usando incluso herramientas de Inteligencia Artifcial.
Más historias en la categoría Noticias
- Blizzard celebra que este año sus jugadores pasaron 8 mil millones de horas con sus productos
- Sega podría lanzar su propio servicio de suscripción
- Borderlands 4 contará con soporte completo para el cross-play
No te pierdas nada y ¡Síguenos en Google News! |
La industria de los videojuegos sigue evolucionando a un ritmo vertiginoso, y en medio de este proceso de cambio, la seguridad de los jugadores se vuelve una prioridad crucial. En ese sentido, Xbox ha publicado su tercer Informe de Transparencia, proporcionando una visión detallada de su trabajo para crear un ambiente seguro e inclusivo para los jugadores.
Para mantenerse al día con los avances tecnológicos y los desafíos que surgen en la comunidad de jugadores, Xbox ha estado utilizando la inteligencia artificial (IA) de manera más extensa. La IA desempeña un papel importante en la moderación de contenido y la detección de comportamiento tóxico en línea. La compañía busca equilibrar la supervisión humana con la eficiencia de la IA para brindar una experiencia de juego más segura.
¿Qué son Community Sift y Turing Bletchley v3 de Xbox?
En la actualidad, Xbox emplea varios modelos de IA, como Community Sift, una plataforma de moderación de contenido basada en IA y la información humana, y Turing Bletchley v3, un modelo multilingüe que analiza imágenes generadas por usuarios para garantizar que se muestre contenido apropiado. La empresa está trabajando en mejorar sus sistemas con IA y análisis de la comunidad para comprender mejor el contexto de las interacciones y reducir la exposición a contenido perjudicial.
La seguridad de los jugadores es una prioridad para los de Redmond, y utilizan tecnología proactiva para bloquear contenido dañino antes de que llegue a los jugadores. Según el Informe de Transparencia de los americanos, el 87% de las aplicaciones de moderación se realizaron de manera proactiva, lo que demuestra el compromiso de la compañía en mantener un entorno seguro.
El informe destaca tres áreas principales de enfoque:
- Toxicidad prevenida: Xbox ha bloqueado más de 4,7 millones de piezas de contenido antes de que lleguen a los jugadores, incluyendo un aumento significativo en la detección de imágenes dañinas.
- Lucha contra el acoso: La empresa está comprometida en abordar el discurso de odio, la intimidación y el acoso, y ha intensificado sus esfuerzos proactivos, emitiendo 84 mil aplicaciones de acoso/intimidación en el último período.
- Comportamiento de los jugadores después de la aplicación de la Ley: Los primeros datos sugieren que la mayoría de los jugadores no infringen las Normas comunitarias después de recibir una aplicación, lo que subraya la importancia de educar a los jugadores sobre lo que constituye un comportamiento aceptable.
Además de su Informe de Transparencia, Xbox ha tomado medidas en colaboración con otras empresas y comunidades para promover la seguridad en el mundo de los videojuegos. Por ejemplo, se han asociado con Minecraft y GamerSafer para promover servidores comprometidos con la seguridad. También han lanzado kits de herramientas de seguridad para juegos de Xbox en Japón y Singapur, para ayudar a los padres y cuidadores a administrar la experiencia de juego de sus hijos.