fbpx

Xbox lanza su tercer Informe de Transparencia

Nuestra plataforma y la comunidad de juegos están en constante evolución. Con el crecimiento de la industria, los sistemas de seguridad necesitan más profundidad y agilidad para proteger a los jugadores de la toxicidad. Hoy, lanzamos nuestro tercer Informe de Transparencia de Xbox, que ofrece datos e información sobre nuestro trabajo para crear un entorno más seguro e inclusivo.

Xbox lanza su tercer Informe de Transparencia
Comparte

La industria del juego sigue creciendo a pasos agigantados, lo que significa que los sistemas de seguridad necesitan ser aún más profundos, rápidos y ágiles para proteger a los jugadores de la toxicidad potencial. Hoy, estamos lanzando nuestro tercer Informe de Transparencia de Xbox, que brinda datos e información sobre el trabajo que estamos haciendo para crear un entorno más seguro e inclusivo para que nuestros jugadores disfruten de grandes experiencias de juego.

Evolución constante en Xbox

En Xbox, continuamos adaptando nuestras tecnologías y enfoques para mantenernos al día con los cambios en la industria, lo que incluye la exploración y el uso avanzado de la inteligencia artificial (IA). La IA se está volviendo cada vez más importante en la aceleración de la moderación de contenido en todo el mundo. Nuestro equipo está innovando activamente con la aplicación responsable de la IA para perseguir experiencias de jugador más seguras que puedan ser utilizadas en toda la industria del juego. Nuestros esfuerzos están dirigidos a combinar la importancia de la supervisión humana con las capacidades en evolución de la IA para construir sobre la base de nuestro trabajo de seguridad hasta la fecha.

Innovación en seguridad con IA

Actualmente, utilizamos una variedad de modelos de IA existentes para detectar contenido tóxico, incluyendo Community Sift, una plataforma de moderación de contenido impulsada por IA y dirigida por insights humanos que clasifica y filtra miles de millones de interacciones humanas por año, potenciando muchos de nuestros sistemas de seguridad en Xbox; y Turing Bletchley v3, el modelo multilingüe que escanea imágenes generadas por usuarios para asegurar que solo se muestre contenido apropiado. Estamos desarrollando activamente formas en las que nuestros sistemas pueden ser mejorados aún más por IA y Community Sift para comprender mejor el contexto de las interacciones, lograr una mayor escala para nuestros jugadores, elevar y aumentar las capacidades de nuestros moderadores humanos, y reducir la exposición a contenido sensible.

Compromiso con la inclusión

Muchos de nuestros sistemas están desarrollados para ayudar a los jugadores a sentirse seguros, incluidos y respetados. Nuestra tecnología proactiva y enfoque nos permiten bloquear contenido antes de que se comparta en nuestra plataforma antes de que llegue a los jugadores, mientras que las aplicaciones proactivas frenan el contenido o la conducta no deseados en la plataforma. Como se señala en el Informe de Transparencia, el 87% (17.09M) de las aplicaciones totales en este período fueron a través de nuestros esfuerzos de moderación proactiva.

Entre los puntos clave del informe se incluyen:

  • Nuevas perspectivas sobre los volúmenes de contenido bloqueado – Prevenir la toxicidad antes de que llegue a nuestros jugadores es un componente crucial de nuestros esfuerzos de moderación proactiva para proporcionar una experiencia acogedora e inclusiva para todos. Nuestro equipo combina IA responsable con supervisión humana para revisar y prevenir la publicación de contenido dañino en nuestra plataforma. Para medir mejor nuestro éxito, ahora estamos incluyendo un nuevo conjunto de datos que cubre nuestro trabajo en este espacio llamado ‘Toxicidad Prevenida’. En este último período, se bloquearon más de 4.7M de piezas de contenido antes de llegar a los jugadores, incluyendo un aumento de 135k (+39% del último período) en imágenes gracias a las inversiones en la utilización del nuevo modelo fundacional Turing Bletchley v3.
  • Mayor énfasis en abordar el acoso – Estamos comprometidos a crear un entorno seguro e inclusivo para todos los jugadores. Trabajamos activamente para identificar y abordar cualquier comportamiento abusivo, incluyendo el discurso de odio, el acoso escolar y el acoso. Con ese objetivo en mente, hemos realizado mejoras en nuestros procesos internos para aumentar nuestros esfuerzos de aplicación proactiva en este último período emitiendo 84k aplicaciones proactivas de acoso/acoso escolar (+95% del último período). También lanzamos nuestra nueva función de informes de voz para capturar y denunciar el acoso de voz en el juego. Nuestro equipo de seguridad continúa tomando medidas proactivas para asegurar que todos los jugadores sean conscientes de que el comportamiento abusivo de cualquier tipo es inaceptable en nuestra plataforma, y tomamos este comportamiento en serio.

Cada jugador tiene un papel en la creación de un ambiente positivo e invitador para todos, y esperamos seguir trayendo a todos en nuestro viaje de seguridad. Esto significa traer más herramientas y sistemas para empoderar a los jugadores a interactuar respetuosamente entre ellos. Las medidas de seguridad recientemente introducidas incluyen nuestra función de informe de voz, que ofrece a los jugadores la opción de capturar y denunciar cualquier actividad de voz inapropiada en cualquier juego multijugador con chat de voz en el juego, así como el sistema de strikes de aplicación, que proporciona a los jugadores más información sobre cómo su comportamiento afecta su experiencia general en la plataforma.

Entradas relacionadas


Comparte
Scroll al inicio