21 noviembre, 2024

Tercer informe de transparencia de Xbox

Es triste, pero nuestra gran familia Xbox no vive su mejor momento en cuanto a toxicidad y situaciones negativas de diverso índole. Causadas, en gran parte, por la popularización de los videojuegos y que llegan a más tipos de personas. De ahí que en Microsoft hayan publicado su tercer informe de transparencia de Xbox para dar a conocer sus iniciativas en la lucha por mejorar la plataforma.

Redfall Gameplay - 4K 60fps - 30 de octubre de 2023 Xbox Series X

Esta es la versión traducida, por si quieres echarle un vistazo al nuevo informe de transparencia de Xbox:

Nuestra plataforma y la comunidad de jugadores en general evolucionan constantemente. A medida que la industria de los juegos sigue creciendo, los sistemas de seguridad requieren aún más profundidad, velocidad y agilidad para proteger a los jugadores de la toxicidad potencial. Hoy, publicamos nuestro tercer Informe de Transparencia de Xbox, que proporciona datos y perspectivas sobre el trabajo que estamos realizando para crear un entorno más seguro e inclusivo para que nuestros jugadores disfruten de grandes experiencias de juego.

En Xbox, seguimos adaptando nuestras tecnologías y enfoques para mantenernos al día con los cambios de la industria, que incluyen el avance en la exploración y el uso de la inteligencia artificial (IA). La IA es cada vez más importante en la aceleración de la moderación de contenidos en todo el mundo. Nuestro equipo está innovando activamente con la aplicación responsable de la IA para conseguir experiencias de jugador más seguras que puedan utilizarse en toda la industria del juego. Nuestros esfuerzos están dirigidos a combinar la importancia de la supervisión humana con las capacidades en evolución de la IA para construir sobre los cimientos de nuestro trabajo de seguridad hasta la fecha.

En la actualidad, utilizamos una serie de modelos de IA para detectar contenidos tóxicos, como Community Sift, una plataforma de moderación de contenidos basada en la IA y en el conocimiento humano que clasifica y filtra miles de millones de interacciones humanas al año, y que impulsa muchos de nuestros sistemas de seguridad en Xbox; y Turing Bletchley v3, el modelo multilingüe que analiza las imágenes generadas por los usuarios para garantizar que solo se muestra el contenido adecuado. Estamos desarrollando activamente formas de mejorar aún más nuestros sistemas mediante IA y Community Sift para comprender mejor el contexto de las interacciones, lograr una mayor escala para nuestros jugadores, elevar y aumentar las capacidades de nuestros moderadores humanos y reducir la exposición a contenidos delicados.

Muchos de nuestros sistemas se han desarrollado para ayudar a los jugadores a sentirse seguros, incluidos y respetados. Nuestra tecnología y enfoque proactivos nos permiten bloquear los contenidos que se comparten en nuestra plataforma antes de que lleguen a los jugadores, mientras que las medidas proactivas de cumplimiento ponen freno a los contenidos o conductas no deseados en la plataforma. Como se indica en el Informe de Transparencia, el 87% (17,09 millones) del total de infracciones de este periodo se produjeron gracias a nuestros esfuerzos de moderación proactiva.

Entre las principales conclusiones del informe de transparencia de Xbox se encuentran las siguientes

  • Nuevas perspectivas sobre los volúmenes de contenido bloqueado – Prevenir la toxicidad antes de que llegue a nuestros jugadores es un componente crucial de nuestros esfuerzos de moderación proactiva para ofrecer una experiencia acogedora e inclusiva para todos. Nuestro equipo combina la IA responsable con la supervisión humana para revisar y evitar que se publiquen contenidos nocivos en nuestra plataforma. Para medir mejor nuestro éxito, ahora incluimos un nuevo conjunto de datos que cubre nuestro trabajo en este espacio llamado «Toxicidad evitada». En este último periodo, se bloquearon más de 4,7 millones de contenidos antes de que llegaran a los jugadores, incluido un aumento de 135.000 (+39% desde el último periodo) en imágenes gracias a las inversiones realizadas en la utilización del nuevo modelo de base Turing Bletchley v3.
  • Mayor énfasis en la lucha contra el acoso – Nos comprometemos a crear un entorno seguro e integrador para todos los jugadores. Trabajamos activamente para identificar y abordar cualquier comportamiento abusivo, incluidos el discurso de odio, la intimidación y el acoso. Con este objetivo en mente, hemos realizado mejoras en nuestros procesos internos para aumentar nuestros esfuerzos proactivos de aplicación de la ley en este último periodo, emitiendo 84.000 sanciones proactivas por acoso/intimidación (+95% desde el último periodo). También lanzamos nuestra nueva función de denuncia por voz para capturar y denunciar el acoso por voz en el juego. Nuestro equipo de seguridad sigue tomando medidas proactivas para garantizar que todos los jugadores sean conscientes de que cualquier tipo de comportamiento abusivo es inaceptable en nuestra plataforma, y nos lo tomamos muy en serio.
  • Comprensión del comportamiento de los jugadores tras la aplicación de las normas – Siempre aprovechamos la oportunidad para aprender más sobre cómo podemos impulsar una mejor comprensión de las Normas comunitarias entre nuestros jugadores. Para ello, hemos estado analizando cómo se comportan los jugadores después de recibir una sanción. Los primeros datos indican que la mayoría de los jugadores no infringen las Normas comunitarias después de recibir una sanción y se comprometen positivamente con la comunidad. Para ayudar aún más a los jugadores a entender lo que es y lo que no es un comportamiento aceptable, hemos lanzado recientemente nuestro sistema de sanciones, diseñado para ayudarles a entender mejor la gravedad de las sanciones, el efecto acumulativo de varias sanciones y el impacto total en su historial.

Al margen del Informe de transparencia de Xbox y en todo el mundo, nuestro equipo sigue trabajando estrechamente para impulsar la innovación en materia de seguridad en todo el sector del juego:

  • Minecraft y GamerSafer se asocian para promover servidores comprometidos con la seguridad. Mojang Studios, desarrollador de Minecraft, se ha asociado con GamerSafer, junto con miembros de la comunidad de Minecraft, para elaborar la Lista Oficial de Servidores de Minecraft, de modo que los jugadores puedan encontrar fácilmente servidores de terceros comprometidos con prácticas seguras. Mojang Studios y GamerSafer trabajan juntos regularmente para actualizar las políticas y normas de seguridad que se requieren para que los servidores que figuran en el sitio. Los servidores destacados cumplen con las Directrices de Uso de Minecraft y demuestran ciertos requisitos, incluyendo proporcionar el propósito del servidor, la audiencia prevista y las prácticas fundamentales de gestión de la comunidad que establecen el tono, los valores y los principios de cada servidor. Además, los servidores pueden ganar diferentes insignias para mostrar su compromiso con las mejores prácticas de seguridad y protección. Los administradores de la comunidad de servidores pueden inscribirse para que su servidor aparezca en la lista, y los jugadores pueden informar de problemas o ponerse en contacto directamente con un servidor para hacer preguntas. El sitio no sólo permite a los administradores de comunidades de servidores crear juegos y experiencias divertidas teniendo en cuenta la seguridad, sino que también ofrece un recurso sencillo para que los jugadores o los padres encuentren y exploren experiencias positivas en los servidores.
  • Lanzamiento de Xbox Gaming Safety Toolkits para Japón y Singapur. Estos recursos locales ayudan a los padres y cuidadores a comprender mejor la seguridad online en los juegos y a gestionar la experiencia de sus hijos en Xbox. Los kits de herramientas cubren riesgos de seguridad comunes, orientación específica para niños de todas las edades y las características disponibles en Xbox para ayudar a que la experiencia del jugador sea más segura para todos en la familia. Entre las versiones anteriores se incluye el kit de herramientas de seguridad para juegos Xbox para Australia y Nueva Zelanda.

Juntos, seguimos construyendo una comunidad en la que todos puedan divertirse, libres de miedo e intimidación y dentro de los límites que ellos mismos establezcan. Esto significa poner en marcha más herramientas y sistemas que permitan a los jugadores interactuar respetuosamente entre sí. Entre las medidas de seguridad introducidas recientemente se incluye nuestra función de denuncia por voz, que ofrece a los jugadores la opción de capturar y denunciar cualquier actividad de voz inapropiada en cualquier juego multijugador con chat de voz dentro del juego, así como el sistema de huelga de aplicación, que proporciona a los jugadores más información sobre cómo su comportamiento afecta a su experiencia general en la plataforma.

Como dicen en el informe de transparencia de Xbox, todos los jugadores tienen un papel que desempeñar en la creación de un entorno positivo y acogedor para todos, y esperamos seguir contando con todos en nuestro viaje hacia la seguridad. ¿Qué haces tú para mejorar?

By XboxManiac

XboxManiac es la comunidad de Xbox más veterana de España, con las máquinas de Microsoft en vena desde 2001.

Related Post