Microsoft ha mostrato l’evoluzione dell’approccio alla creazione di esperienze di gioco più sicure su Xbox.

L’AI per prevenire la tossicità nel gaming

Xbox ha pubblicato il suo terzo Transparency Report. Questo report condivide dati e approfondimenti che mostrano gli sforzi compiuti per creare esperienze più sicure, compresa l’importanza congiunta della supervisione umana e delle crescenti capacità dell’intelligenza artificiale che si basano sui fondamenti del nostro lavoro in materia di sicurezza.

Prevenire la tossicità prima che raggiunga i giocatori è una parte fondamentale degli sforzi di Xbox per fornire una piattaforma sicura e inclusiva per tutti. Come si legge nel report, l’87% (17,09 milioni) dei provvedimenti adottati in questo periodo sono stati presi grazie all’impegno di Xbox per una moderazione proattiva.

  • I punti salienti del report, che copre il periodo gennaio-giugno 2023 sono i seguenti:
    • L’uso responsabile dell’AI per prevenire la tossicità. Community Sift, la nostra piattaforma di moderazione dei contenuti basata sull’intelligenza artificiale e sulle intuizioni umane che classifica e filtra miliardi di interazioni umane all’anno, nonché Turing Bletchley v3, il modello multilingue che analizza le immagini generate dagli utenti per garantire che vengano mostrati solo i contenuti appropriati.
    • Nuovi approfondimenti sul volume dei contenuti bloccati. Per una misurazione più accurata, Xbox include un set di dati chiamato Toxicity Prevented. Nell’ultimo periodo, oltre 4,7 milioni di contenuti sono stati bloccati prima di raggiungere i giocatori, compreso un aumento di 135.000 unità (+39% rispetto all’ultimo periodo) nelle immagini grazie agli investimenti nell’utilizzo di Turing Bletchley v3.
    • Maggiore attenzione sulla gestione delle molestie. Xbox lavora attivamente per identificare e affrontare qualsiasi comportamento abusivo, compresi i discorsi d’odio, il bullismo e le molestie. Per raggiungere questo obiettivo, ha apportato miglioramenti ai processi interni per aumentare i provvedimenti proattivo, emettendo 84 mila provvedimenti proattivi per molestie/bullismo (+95 % rispetto all’ultimo periodo).
    • Comprendere il comportamento dei giocatori dopo l’applicazione delle norme. Xbox coglie sempre l’opportunità di saperne di più su come migliorare la comprensione dei Community Standard da parte dei giocatori. A tal fine, il team ha analizzato il comportamento dei giocatori dopo aver ricevuto un provvedimento. Le prime informazioni indicano che la maggior parte dei giocatori non viola i Community Standard dopo aver ricevuto un provvedimento e si impegna positivamente con la community.

Cosa ne pensate di queste novità per la community Xbox? Diteci la vostra opinione nei commenti.

Articolo di Windows Blog Italia