Microsoft ha presentato il primo Rapporto sulla Trasparenza Xbox con le misure di sicurezza per proteggere la community nell’ultimo anno.

Xbox Digital Transparency Report 2023

Microsoft ha pubblicato il secondo Xbox Transparency Report, che descrive in dettaglio i continui sforzi per proteggere meglio i nostri giocatori e illustra le nostre misure di sicurezza in azione. La suite di sicurezza include sforzi di moderazione proattivi e reattivi, gli standard della community, i controlli genitoriali e familiari come l’ app Xbox Family Settings e il lavoro con i partner e le autorità di regolamentazione del settore. Gli investimenti fondamentali nella moderazione dei contenuti combinano intelligenza artificiale e tecnologie umane per catturare e filtrare i contenuti prima che raggiungano e influenzino i giocatori. Vengono utilizzate una serie di misure che ci danno la scala, la velocità e l’ampiezza per tenere il passo con le crescenti interazioni e attività dei nostri giocatori. Come indicato nel Rapporto sulla trasparenza, l’80% (8,08 milioni) delle applicazioni totali in questo periodo è avvenuto grazie agli sforzi di moderazione proattiva. I dati articolano l’impatto di questo approccio:

  • Le misure proattive sono un fattore chiave per esperienze più sicure per i giocatori – In questo periodo, l’80% delle nostre richieste totali emesse è stato il risultato dei nostri sforzi proattivi di moderazione. Il nostro approccio di moderazione proattiva include misure sia automatizzate che umane che filtrano i contenuti prima che raggiungano i giocatori. Strumenti automatizzati come Community Sift lavorano su testo, video e immagini catturando contenuti offensivi in ​​millisecondi. Solo nell’ultimo anno, Community Sift ha valutato 20 miliardi di interazioni umane su Xbox. Sono state inoltre rilevate e applicate misure proattive contro il 100% di manomissioni, pirateria, phishing e account cheat/non autentici.
  • Maggiore attenzione ai contenuti inappropriati – Comprendiamo che le esigenze dei nostri giocatori sono in continua evoluzione e continuiamo ad ascoltare il feedback dei giocatori su ciò che è o non è accettabile sulla piattaforma, in linea con i nostri standard della community. Durante quest’ultimo periodo, abbiamo ampliato la nostra definizione di contenuto volgare per includere gesti offensivi, contenuti sessualizzati e umorismo volgare. Questo tipo di contenuto è generalmente considerato sgradevole e inappropriato, sminuendo l’esperienza di gioco principale per molti dei nostri giocatori. Questa modifica delle norme, insieme ai miglioramenti ai nostri classificatori di immagini, ha portato a un aumento del 450% delle applicazioni nei confronti dei contenuti volgari, con il 90,2% moderato in modo proattivo. Queste applicazioni spesso comportano solo la rimozione del contenuto inappropriato, il che si riflette nell’aumento del 390% delle applicazioni “solo contenuto” in questo periodo di tempo.
  • Continua enfasi sugli account non autentici – La nostra moderazione proattiva, aumentata di 16,5 volte rispetto allo stesso periodo dell’anno scorso, ci consente di catturare contenuti e comportamenti negativi prima che raggiungano i giocatori. Il team per la sicurezza di Xbox ha emesso più di 7,51 milioni di imposizioni proattive contro account non autentici, che rappresentano il 74% delle imposizioni totali nel periodo di riferimento (rispetto al 57% dell’ultimo periodo di riferimento). Gli account non autentici sono in genere account automatizzati o creati da bot che creano un campo di gioco non uniforme e possono sminuire le esperienze positive dei giocatori. Continuiamo a investire e migliorare la nostra tecnologia in modo che i giocatori possano vivere esperienze sicure, positive e invitanti.

Cosa ne pensate di queste novità per la community Xbox? Diteci la vostra opinione nei commenti.

Articolo di Windows Blog Italia