Eine KI soll in der Lage sein, böse Wörter, aggressive Stimmung und zu laute Spieler im Online Gaming herauszufiltern.
Im Bereich Gaming haben KIs bisher hauptsächlich als zu schlagender Computergegner auf sich aufmerksam gemacht. Dadurch soll der Schwierigkeitsgrad von Spielen durch die lernenden Gegner erhöht werden. Das neue KI-Tool ToxMod richtet sich an einen anderen Bereich: Das Social Gaming!
Wer selbst schon einmal online gegen andere Mitspieler gespielt hat und dabei den Voice-Chat aktiviert hat, wird wissen, dass sich nicht alle Spieler immer vorbildlich verhalten. So genannte toxische Spieler, die mit rassistischen, sexistischen oder anderweitigen Beleidigungen um sich werfen, zu aggressiv auftreten oder einfach nur sehr laut sind, kommen durchaus vor. Bisher wurde sowas manuell mit mehr oder weniger großem Erfolg bekämpft.
ToxMod will dies nun unterbinden. So sollen zum Beispiel Schimpfwörter aus dem Voice-Chat durch Pieptöne herausgefiltert werden. Ebenfalls soll die Software mittels maschinellem Lernen erkennen, ob ein Spieler eine aggressive Sprechweise an den Tag legt oder zu laut spricht.
In der Praxis wird dies anfangs wohl nicht einwandfrei funktionieren. Häufig vorkommende False Positives, also fälschlicherweise zensierte Sätze, können den Spielern schnell den Spaß am Gaming rauben. In manchen Spielen ist sogenannter Trash Talk mit lustig gemeinten Beschimpfungen oder Disses gang und gäbe. Auch dieser würde dann gefiltert werden.