Robert Klatt
Eine in Deutschland entwickelte KI kann automatisch illegale Äußerungen im Internet erkennen und an eine öffentliche Meldestelle senden.
Darmstadt (Deutschland). Im Internet kommt es oft zu Beleidigungen, Volksverhetzung, Hatespeech und Gewaltandrohungen. Eine Studie des Potsdam-Instituts für Klimafolgenforschung (PIK) zeigte kürzlich, dass diese unerwünschten und oft illegalen Hasskommentare bei hohen Temperaturen zunehmen. Forscher der Hochschule Darmstadt (h_da) haben deshalb die Künstliche Intelligenz (KI) BoTox (Bot- und Kontexterkennung im Umfeld von Hasskommentaren) entwickelt, die Hatespeech automatisch erkennen und melden kann.
Laut der Computerlinguistin Melanie Siegel werden die illegalen Äußerungen durch die KI nicht nur erkannt, sondern auch an die Meldestelle HessenGegenHetze weitergeleitet, damit die Behörde die entsprechenden rechtlichen Maßnahmen einleiten kann.
„Wir haben zwölf unterschiedliche Straftatbestände herausgearbeitet.“
Die KI BoTox kann zudem unterscheiden, ob die strafrechtlich relevanten Hasskommentare von einem Menschen oder einem Bot stammen. Laut den Forschern ist dies insbesondere durch generative KI wie generativer problematisch, weil diese Systeme zunehmend menschlicher schreiben können. Laut einer Studie der University of Memphis können selbst erfahrene Linguisten oft nicht unterscheiden, ob ein Text von einem Menschen oder von ChatGPT verfasst wurde.
Um die KI zu trainieren, haben die Forscher Daten von sozialen Netzwerken, darunter Facebook und YouTube verwendet. Diese konnten sie über Schnittstellen der Betreiber abrufen. Daten von X, vormals Twitter, wurden nicht für das Training der KI verwendet, weil Elon Musk die Preise der Forschungslizenzen kürzlich signifikant angehoben hat.
Die Forscher konnten deshalb nur alte Daten von Twitter nutzen, die sie bereits für das Vorläuferprojekt DeTox (Detektion von Toxizität und Aggressionen in Postings und Kommentaren im Netz) bezogen hatten. Die älteren Trainingsdaten umfassen viele aktuelle Themen, darunter etwa den Ukrainekrieg nicht. Laut Siegel mussten deshalb Methoden entwickelt werden, um die Daten übertragen zu können.
„Aber wir arbeiten daran, die Daten übertragbar zu machen. Zu Kanzlerin Merkel etwa gab es eine ähnliche Wortwahl wie heute zur Ampel.“
Ein Großteil der Hasskommentare bezieht sich jedoch ohnehin auf Themen wie Ausländerfeindlichkeit, Diskriminierung von Minderheiten, Antisemitismus und Migration. Um die Kommentare einzustufen, haben drei studentische Hilfskräfte diese in hinzunehmende Beleidigung und strafrechtlich relevante Äußerung unterteilt. Anschließend konnte die KI auf Basis dieser Trainingsdaten mit hoher Genauigkeit selbst entscheiden, welcher Typ von Kommentar vorliegt.