Xbox veröffentlicht zweiten Transparency Report zur Online-Sicherheit

Xbox veröffentlicht den zweiten Transparency Report mit konkreten Zahlen und ergänzenden Hintergrundinformationen rund um das Thema Online-Sicherheit bei Xbox. Der Report gibt Aufschluss über die kontinuierlichen Bemühungen für einen besseren Schutz der Spieler/-innen und zeigt Sicherheitsmaßnahmen von Xbox in Aktion. Den aktuellen Transparency Report lädst Du hier herunter.

Xbox Transparency Report: Die Ergebnisse im Überblick
Auf der ganzen Welt arbeitet das Team eng mit wichtigen Partner*innen aus der Industrie zusammen, um das Sicherheitskonzept weiterzuentwickeln. Unter anderem durch die verstärkte Aufklärung und Verbesserung der Sicherheitsmaßnahmen:

  • USK zertifiziert Jugendschutzsystem der Microsoft Xbox-Konsolen: Xbox hat die Konsolen-Familieneinstellungen in enger Zusammenarbeit mit der USK weiterentwickelt und so eine offizielle Anerkennung der Jugendschutzprogramme auf Xbox-Konsolen erreicht. Mit der Anerkennung sind Xbox One und Xbox Series X|S die ersten Konsolen mit Internetbrowser, die die hohen Standards von Jugendschutzprogrammen nach §11 JMStV (Jugendmedienschutz-Staatsvertrag) erfüllen. Weitere Informationen rund um Online-Sicherheit im Gaming findest Du im umfangreichen Artikel zur Anerkennung von Xbox durch die USK.

  • Die Einführung des Xbox Gaming Safety Toolkit für Australien und Neuseeland versetzt Eltern und Betreuer*innen in die Lage, die Online-Sicherheit beim Spielen besser zu verstehen und darauf zu reagieren.

Xbox nutzt eine Reihe von Maßnahmen, mit Hilfe derer die Breite, die Geschwindigkeit und der Umfang erreicht werden kann, um mit den wachsenden Interaktionen und Aktivitäten der Spieler/-innen Schritt zu halten. Weitere wichtige Erkenntnisse aus dem Report:

  • Proaktive Maßnahmen sind ein entscheidender Faktor für ein sichereres Spielerlebnis: Im aktuellen Zeitraum waren 80 Prozent der gesamten Durchsetzungsmaßnahmen das Ergebnis proaktiver Content-Moderation. Der proaktive Moderationsansatz umfasst sowohl automatische als auch menschliche Maßnahmen, die Inhalte herausfiltern, bevor sie Spieler/-innen erreichen. Automatisierte Tools wie Community Sift arbeiten mit Texten, Videos und Bildern und fangen anstößige Inhalte innerhalb von Millisekunden auf. Allein im letzten Jahr hat Community Sift 20 Milliarden menschliche Interaktionen auf Xbox bewertet. Durch proaktive Maßnahmen wurden 100 Prozent der Konto-Manipulationen, Piraterie, Phishing und betrügerische/unauthentische Konten erkannt und Gegenmaßnahmen durchgesetzt.

  • Verstärkter Fokus auf unangemessene Inhalte: Im aktuellen Zeitraum hat Xbox die Definition von vulgären Inhalten erweitert. Sie umfasst nunmehr auch beleidigende Gesten, sexualisierte Inhalte und groben Humor. Diese Richtlinienänderung hat in Verbindung mit Verbesserungen der Bildklassifizierung zu einer 450-prozentigen Zunahme der Durchsetzungsmaßnahmen gegen vulgäre Inhalte geführt, wobei 90,2 Prozent proaktiv moderiert wurden. Das führt dazu, dass die unangemessenen Inhalte einfach entfernt werden, was sich in der 390-prozentigen Zunahme der "Content-only"-Durchsetzungsmaßnahmen in diesem Zeitraum widerspiegelt.

  • Anhaltende Konzentration auf nicht authentische Konten: Die proaktive Moderation ist im Vergleich zum Vorjahreszeitraum um das 16,5-fache gestiegen. Sie ermöglicht es, negative Inhalte und Verhaltensweisen zu erkennen, bevor sie die Spieler/-innen erreichen. Das Xbox-Sicherheitsteam hat mehr als 7,51 Millionen proaktive Durchsetzungsmaßnahmen gegen nicht authentische Konten ergriffen, was 74 Prozent der gesamten Durchsetzungsmaßnahmen im Berichtszeitraum entspricht (gegenüber 57 Prozent im letzten Berichtszeitraum). Unauthentische Konten sind in der Regel automatisierte oder von Bots erstellte Konten, die unausgeglichene Verhältnisse auf dem Spielfeld schaffen und so das positive Spielerlebnis beeinträchtigen können.

23. Mai 2023, von Markus 'Markus S.' Schaffarz

Microsoft Deutschland

Hersteller

Facebookfb/MicrosoftDE
Twittertwitter/xboxde

Mehr zu diesen Themen