Instagram warnt Nutzer vor dem Posten eines Hasskommentars
Künstliche Intelligenz gegen Hass-Postings
In den letzten Tagen hat Instagram damit begonnen, ein neues Feature einzuführen, welches negative Kommentare durch künstliche Intelligenz erkennt und den Nutzer auf den möglicherweise beleidigenden Inhalt des Kommentars hinweist. Dabei gibt Instagram dem Nutzer die Möglichkeit, das Kommentar direkt wieder zu löschen, bevor es überhaupt veröffentlicht wurde.
Da Instagram der künstlichen Intelligenz keine automatische Zensur erlaubt, sind Fehler im System weniger tragisch – die Vergangenheit hat nämlich gezeigt, wie das schief gehen kann. In einem Blog-Eintrag schreibt das soziale Netz, dass in einem ersten Test viele Nutzer bereits negative Kommentare zurückgezogen haben.
Wir erweitern unser Team und suchen Gaming-Enthusiasten sowie Unterstützung für unsere Video-Produktion.
Details
Intelligenteres blockieren
Zusätzlich erlaubt Instagram es bald, einen Nutzer "einzuschränken". Dabei sind Kommentare von eingeschränkten Personen nur noch für diese Personen selbst sichtbar, nicht aber für jemand anderen. Kommentare können dann moderiert und freigeschaltet werden. Eingeschränkte Personen können auch nicht sehen, wenn Privatnachrichten gelesen wurden.
Instagram schreibt, dass dieses Feature vor allem Jugendlichen helfen soll, die sich nicht trauen, jemanden zu blockieren, da diese Person das merkt und im realen Leben entsprechend darauf reagieren könnte.