Toxisches Verhalten ist auch 2022 noch ein großes Problem in den meisten Gaming-Communities, wie zuletzt erst der umfangreiche Transparency Report von Microsoft gezeigt hat.
Branchengiganten Ubisoft und Riot Games ist das natürlich auch bewusst, weshalb man nun eine gemeinsame Zusammenarbeit unter dem Namen „Zero Harm in Comms“, also „Kein Leid in Communities“, angekündigt hat. Zusammen wolle man toxisches Verhalten in Online-Communities untersuchen und eindämmen.
Riot Games: Project Zero Harm in Comms für ein besseres Online-Erlebnis
Die Grundidee hinter dem gemeinsamen Projekt ist der Aufbau einer Datenbank, die anonyme Daten sammelt, diese analysiert und dabei eine künstliche Intelligenz darauf trainiert, störendes und toxisches Verhalten zu erkennen, um dieses zu unterbinden.
Angestoßen wurde das Projekt von Wesley Kerr, Chef der Tech-Research-Abteilung bei Riot Games und Yves Jacquier, dem Executive Director von Ubisoft La Forge. Beide eint ein inniges Interesse an künstlicher Intelligenz und den Möglichkeiten, die diese in der Bekämpfung von toxischem Online-Verhalten mit sich bringt.
„Wir waren beide der Meinung, dass die Lösungen, die wir aktuell nutzen können, nicht ausreichen, um die Art von Sicherheit zu gewährleisten, die wir uns für unsere Spieler vorstellen“, so Jacquier. Um also neue Ansätze zu finden und Lösungen zu entwickeln, habe man sich zusammengetan, wie Kerr erläutert: „Wir haben wirklich festgestellt, dass das Problem zu groß für ein einzelnes Unternehmen ist.“
Riesige Datenmengen von Riot Games und Ubisoft als Lernmaterial
Wie es im Blogpost von Ubisoft heißt, will man die dafür nötigen Daten natürlich aus den hauseigenen Spielen ziehen: „Gesammelt aus den vielen Chatverläufen aus dem Spieleportfolio von Ubisoft und Riot, werden die Daten – als Textfolgen – von allen persönlichen Informationen gesäubert. Dann werden sie nach Verhalten kategorisiert: Ist das komplett neutral beispielsweise, oder ist es rassistisch oder sexistisch?“
Anschließend sollen die analysierten Daten für das Training der künstlichen Intelligenz genutzt werden, um in Zukunft in Echtzeit reagieren und handeln zu können: „Das wird dann genutzt, um automatisierte Systeme zu trainieren, schädliches Verhalten besser zu erkennen und zu analysieren.“
Wie Jacquier weiter ausführt, ist die große Menge an Daten der Schlüssel zum Erfolg, um Nuancen feststellen zu können: „Es gibt Wörter, die können sofort als schlecht erkannt werden. Oft ist es allerdings sehr viel schwieriger. Wenn man beispielsweise ‚Ich werde dich ausschalten‘ im Chat liest, was bedeutet das? […] Wenn man einen kompetitiven Shooter spielt, mag das kein Problem sein, aber in einem anderen Spiel ist auch der Kontext ein ganz anderer.“