Intels künstliche Intelligenz kann Rassismus, Schimpfwörter und mehr aus Sprach-Chats filtern
Intel hat auf seiner GDC-Präsentation eine etwas kontroverse Software vorgestellt – bei Bleep handelt es sich nämlich um eine künstliche Intelligenz, die ungewünschte Wörter in Sprach-Chats erkennen und ausblenden kann. Der Nutzer hat dabei die freie Wahl, welche Ausdrücke in Ordnung sind oder beispielsweise auch ob nur ein paar oder gleich alle rassistischen Bemerkungen ausgeblendet werden.
Die Liste der Aussagen, die von der künstlichen Intelligenz erkannt werden, ist lang: Ob nun abfällige Bemerkungen gegen Frauen, sexuell explizite Sprache oder einfach nur Schimpfwörter, was man nicht hören will, muss man dank Bleep bald auch nicht mehr hören. Es steht außer Frage, dass etwas gegen die Hasstiraden unternommen werden muss, welche die Online-Communities einiger Spiele plagen.
Wir erweitern unser Team und suchen Gaming-Enthusiasten sowie Unterstützung für unsere Video-Produktion.
Details
Es ist aber fraglich, ob Bleep die Lösung für dieses Problem ist, oder ob es nicht vielleicht besser wäre, das Problem an der Wurzel zu packen. Auch die Benutzeroberfläche wirft Fragen auf – will man nun Rassismus nur "manchmal", "meistens" oder "immer" ausblenden? Sollte man das N-Wort besser ein- oder ausschalten?
Theoretisch könnte Bleep auch als Jugendschutz-Feature vermarktet werden, auch bei dieser Nutzung stellt sich aber die Frage, ob es hilfreich ist, die Jugend komplett vor derartigem Hass abzuschirmen, oder sie vielleicht doch besser aufzuklären. Bleep soll noch in diesem Jahr auf den Markt kommen. Die Präsentation ist im unten eingebetteten Video ab Minute 29:30 zu sehen.