MADRID, 15 (Portaltic/EP)
La compañía ha publicado el primer Informe de transparencia de la consola, con el que busca dar a conocer a sus usuarios cuáles han sido las medidas que han tomado para moderar el contenido de su plataforma.
Con la presentación de este estudio, que analiza las acciones adoptadas entre el 1 de enero y el 30 de junio de 2022, Xbox ha comentado que tiene el objetivo de dar a conocer a los jugadores en qué consisten sus prácticas de seguridad y se ha comprometido a publicarlo cada dos años.
En primer lugar, ha destacado que los jugadores también son los propios administradores de la comunidad y que, gracias a sus alertas, ha podido mantener la seguridad en el ecosistema Xbox. Tanto es así que los usuarios proporcionaron más de 33 millones de informes de malas conductas o conductas sospechosas durante este período.
Además, Xbox ha recordado que los jugadores tienen el control de lo que sucede en el entorno de la marca, tanto en la consola como en el PC y en la versión beta de Xbox Cloud Gaming. Así, pueden hacerlo gracias a la implementación de filtros para mensajes o los controles parentales en la aplicación Xbox Family Settings.
En esta línea, ha señalado que los usuarios tienen la oportunidad de crear una experiencia personalizada gracias a las diferentes opciones de configuración que ofrece, ya sea con el filtrado automatizado de texto, medios o enlaces web o herramientas como la silenciación y el bloqueo de otros jugadores.
Por otro lado, ha recordado que ofrece ayuda a los jugadores en otros ámbitos, más allá de la privacidad, a través de la organización sin fines de lucro Crisis Text Line, con quien se asoció en 2018. Los usuarios pueden recurrir a este servicio cuando reporten conductas preocupantes de otros jugadores, por ejemplo, si publican contenido relacionado con ideas suicidas o autolesiones.
En relación a las acciones realizadas sobre cuentas de usuario en el período analizado, la compañía ha dicho que suspendió de forma proactiva hasta 4,78 millones de cuentas en solo seis meses, 4,33 millones de ellas por tratarse de cuentas fraudulentas o falsificadas.
Según la compañía, estas cuentas causan un impacto negativo en los usuarios de múltiples formas, desde el envío de 'spam' a la introducción de trampas que interrumpen el juego o el crecimiento ilícito de sus listas de seguidores, lo que "resta valor de las experiencias" de los que sí utilizan este ecosistema de forma correcta.
Por otra parte, Microsoft ha comentado que, junto con estas cuentas engañosas, se encargó de suspender 199.000 perfiles que distribuían contenido sexual, 87.000 que cometieron fraude, 54.000 que fomentaban el acoso, 46.000 en los que se incluían insultos y 26.000 en las que se producían suplantación de la identidad.
Con ello, ha adelantado que ha logrado erradicar la totalidad de las cuentas manipuladas, así como las pirateadas y en las que se produce suplantación de identidad desde enero hasta junio de 2022.
MODERACIÓN PROACTIVA Y ESPECÍFICA
Xbox ha explicado que actualmente trabaja con dos tipos de moderación. En primer lugar, considera moderación proactiva aquella mediante la cual aplica medidas antes de que el contenido dañino afecte a los jugadores.
Por el contrario, la moderación reactiva consiste en la aplicación de medidas correctivas una vez han llegado a los usuarios y estos informan a Xbox de lo sucedido, ya se trate de un contenido no apropiado para el ecosistema o una cuenta cuya actividad no cumpla con los lineamientos de la comunidad.
En relación a esta última, la compañía ha puntualizado que distingue el contenido reportado por los jugadores en tres categorías: por conducta (trampas, comportamiento competitivo y antideportivo, etc.), contenido generado por el usuario y comunicaciones con otros usuarios.
De acuerdo con el volumen de los informes de violación de los lineamientos recibidos por los jugadores, Xbox ha declarado que en el período analizado se registró un 36 por ciento menos de informes recibidos por parte de los jugadores que en el mismo semestre del año anterior, es decir, 33,08 millones, frente a los 52,05 millones de incidencias reportadas entre enero y junio de 2021.
ACCIONES DE XBOX
Una vez ha recibido la información de una posible infracción de las normas comunitarias, la compañía estudia el caso para determinar si se ha producido y toma una medida para subsanarlo: bien elimina el contenido infractor bien suspende la cuenta del jugador, o combina ambos métodos.
Según el cuadro de medidas adoptadas por Xbox de enero a junio de 2022, un 63 por ciento de sus ejecuciones estuvieron destinadas al bloqueo de las cuentas, un 3 por ciento al borrado de contenido y un 34 por ciento al bloquedo tanto de las cuentas como de los contenidos.
Una vez recopila todos estos contenidos inapropiados y relacionados con el abuso o la explotación sexual infantil, las reporta al Centro nacional de niños perdidos o explotados (NCMEC) para su análisis en profundidad.
Asimismo, ha comentado que avisa a los usuarios de lo sucedido con sus cuentas y/o con sus contenidos para que puedan solicitar una aclaración y proceder a la revisión del caso. Entonces, deberán explicar sus acciones ante los agentes moderadores, que determinarán si sus acciones están o no justificadas.