Veröffentlicht inNews

Riot Games: Zusammenarbeit mit Ubisoft, um toxisches Verhalten mit KI zu bekämpfen

Zusammenarbeit mit Ubisoft, um toxisches Verhalten mit KI zu bekämpfen

© Riot Games / Riot Games

Toxisches Verhalten ist auch 2022 noch ein großes Problem in den meisten Gaming-Communities, wie zuletzt erst der umfangreiche Transparency Report von Microsoft gezeigt hat.

 

Branchengiganten Ubisoft und Riot Games ist das natürlich auch bewusst, weshalb man nun eine gemeinsame Zusammenarbeit unter dem Namen „Zero Harm in Comms“, also „Kein Leid in Communities“, angekündigt hat. Zusammen wolle man toxisches Verhalten in Online-Communities untersuchen und eindämmen.

Riot Games: Project Zero Harm in Comms für ein besseres Online-Erlebnis

Die Grundidee hinter dem gemeinsamen Projekt ist der Aufbau einer Datenbank, die anonyme Daten sammelt, diese analysiert und dabei eine künstliche Intelligenz darauf trainiert, störendes und toxisches Verhalten zu erkennen, um dieses zu unterbinden.

Angestoßen wurde das Projekt von Wesley Kerr, Chef der Tech-Research-Abteilung bei Riot Games und Yves Jacquier, dem Executive Director von Ubisoft La Forge. Beide eint ein inniges Interesse an künstlicher Intelligenz und den Möglichkeiten, die diese in der Bekämpfung von toxischem Online-Verhalten mit sich bringt.

„Wir waren beide der Meinung, dass die Lösungen, die wir aktuell nutzen können, nicht ausreichen, um die Art von Sicherheit zu gewährleisten, die wir uns für unsere Spieler vorstellen“, so Jacquier. Um also neue Ansätze zu finden und Lösungen zu entwickeln, habe man sich zusammengetan, wie Kerr erläutert: „Wir haben wirklich festgestellt, dass das Problem zu groß für ein einzelnes Unternehmen ist.“

Riesige Datenmengen von Riot Games und Ubisoft als Lernmaterial

Wie es im Blogpost von Ubisoft heißt, will man die dafür nötigen Daten natürlich aus den hauseigenen Spielen ziehen: „Gesammelt aus den vielen Chatverläufen aus dem Spieleportfolio von Ubisoft und Riot, werden die Daten – als Textfolgen – von allen persönlichen Informationen gesäubert. Dann werden sie nach Verhalten kategorisiert: Ist das komplett neutral beispielsweise, oder ist es rassistisch oder sexistisch?“

Anschließend sollen die analysierten Daten für das Training der künstlichen Intelligenz genutzt werden, um in Zukunft in Echtzeit reagieren und handeln zu können: „Das wird dann genutzt, um automatisierte Systeme zu trainieren, schädliches Verhalten besser zu erkennen und zu analysieren.“

Wie Jacquier weiter ausführt, ist die große Menge an Daten der Schlüssel zum Erfolg, um Nuancen feststellen zu können: „Es gibt Wörter, die können sofort als schlecht erkannt werden. Oft ist es allerdings sehr viel schwieriger. Wenn man beispielsweise ‚Ich werde dich ausschalten‘ im Chat liest, was bedeutet das? […] Wenn man einen kompetitiven Shooter spielt, mag das kein Problem sein, aber in einem anderen Spiel ist auch der Kontext ein ganz anderer.“

  1. GuessHoeIsBack hat geschrieben: 18.11.2022 10:45 Und das wirst du bei Onlinespielen mit tausenden parallelen Matches nicht durch menschliche Moderation bewerkstelligen können.
    Doch, das kannst Du. Kostet aber Geld. Weil Du entsprechend Personal benötigst. Geld, welches die Industrie hier aber nicht ausgeben will.
    WENN es denn automatisch funktionieren würde, wäre das schon nett, so ist das ja nicht. Grundsätzlich habe ich gar nix gegen Software, die dabei helfen kann schneller bessere Entscheidungen zu treffen. Aber bislang überzeugen solche Tools halt kein Stück. Oft genug, weil die Algorithmen nicht richtig trainiert werden, weil die "Trainer" aka Entwickler solcher Tools schlichtweg nicht mehr richtig verstehen, wie ihre Mustererkennungsalgorithmen überhaupt funktionieren. Man schüttet haufenweise Daten oben rein, weiß aber nicht genau, warum unten Ergebnis X herauskommt. Das ist AFAIK die aktuell größte Hürde in der AI-Forschung. Diesen Lernprozess so transparent zu machen, dass man versteht, warum und wie die Algorithmen Entscheidungen fällen. Damit sie in Zukunft eben nicht einfach irgendein Ergebnis produzieren, sondern ein im Kontext der Aufgabe sinnvolles Ergebnis, auf welches man sich auch Verlassen kann.
    Ist ja schon schlimm genug, wenn z.B. in der Versicherungsbranche solche Software-Blackboxen inzwischen eingesetzt werden, ohne dass dort jemand vollständig versteht, warum Kunde A solche und Kunde B jene Konditionen bekommen soll. Da spuckt der Bildschirm halt ein Ergebnis aus. Wird schon stimmen. Nicht?

  2. Kajetan hat geschrieben: 17.11.2022 16:40 Ich halte ganz grundsätzlich nix von solchen technischen Lösungen. Die funktionieren nämlich nirgendwo richtig, dienen oft genug nur als PR-Ausrede (Schaut her, wir tun was!), derweil man sich die Personalkosten für menschliche Moderation sparen möchte.
    Natürlich spielt das mit rein, aber so wie ich es verstehe, ist das Ziel bspw. den Chat automatisch sauber zu halten.
    Anschließend sollen die analysierten Daten für das Training der künstlichen Intelligenz genutzt werden, um in Zukunft in Echtzeit reagieren und handeln zu können
    Und das wirst du bei Onlinespielen mit tausenden parallelen Matches nicht durch menschliche Moderation bewerkstelligen können.

  3. Also ich finde, dass gerade bei LoL es mittlerweile kaum noch beleidigt wird, weil eben sehr schnell gehandelt wird.
    Man muss noch nichtmal wirklich ein beleidigendes Wort schreiben, sondern nur innerhalb von nur einem einzigen Match ganz oft betonen, dass jemand was falsch macht und wir wegen ihm verlieren, schon bekommt man ein Chat Bann.
    Passiert dass dann noch zweimal, ist man seinen Account mit all dem Geld, was man investiert hat, für immer los.
    Eine erste Chat Restriction hab ich selber erlebt und war ganz erstaund, für das was ich geschrieben hatte, schon ermahnt worden zu sein.

Hinterlassen Sie bitte einen Kommentar.

Seite 1