Hate Speech
Forschung und Lehre an der Uni Münster
Der Auftrag
Die Umsetzung
Hate Speech
Mit der zunehmenden Verrohung der Kommentarkultur im Netz hat der Begriff „Hate Speech“ in den öffentlichen Diskurs Einzug gehalten. Die Frage, welche Bemerkungen justiziabel sind, ist oft nicht eindeutig zu beantworten. Entsprechend langwierig können entsprechende Prozesse sein, wie der Rechtsstreit Böhmermann vs. Erdogan zeigt. Politische Bemühungen, den Diskurs im Netz zu regulieren und Betreiber sozialer Plattformen für Hasskriminalität zur Verantwortung zu ziehen, mündeten in das 2017 in Kraft getretene Netzwerkdurchsetzungsgesetz.
Während große Plattformen es sich leisten können, einen ganzen Stab an Mitarbeiter*innen für die Moderation öffentlicher Kommentare einzusetzen, kapitulieren kleinere Plattformen immer häufiger angesichts der Flut an diskriminierenden und destruktiven Äußerungen und stellen die Kommentarfunktion ab. So zuletzt netzpolitik.org, wo die Kommentarfunktion deaktiviert wurde, um konstruktiven Beiträgen wieder mehr Raum zu geben. Leser*innen, die an einer substanziellen und respektvoll geführten Diskussion interessiert sind, seien, so der Befund, zunehmend von einer krakeelenden Minderheit verdrängt worden.
Forschung und Lehre an der Uni Münster
Einen anderen Weg schlägt der Lehrstuhl für Wirtschaftsinformatik und Informationsmanagement an der Universität Münster vor: „Ein Diskurs auf seriösen Webseiten ist – wenn er ordentlich moderiert wird – qualitativ hochwertiger als auf unseriösen“, so der Wissenschaftliche Mitarbeiter Jens Brunk. Um die Aufrechterhaltung von Diskursen auch kleineren Plattformen zu ermöglichen, sind die Studierenden der Wirtschaftsinformatik in dem Seminar „Cyberhate-Mining“ der Frage nachgegangen, inwiefern automatische Textanalysen dabei helfen können, Diskussionen zu moderieren und so die Debattenkultur im Netz zu stärken. Seit Februar 2019 führt das Institut für Wirtschaftsinformatik diese Forschungen im Rahmen des Projekts „MODERAT!“ fort.
Ziel ist es, einen Software-Prototypen für ein entsprechendes Maschine Learning-Modell zu entwickeln. Insbesondere kleinere Plattformen, die sich eine ressourcenintensive manuelle Moderation nicht leisten können, würden von einer maschinell unterstützten Identifizierung von Hasskommentaren profitieren, so Brunk. Er ist aber nicht der Meinung, dass eine Vollautomatisierung möglich geschweige denn wünschenswert ist und lehnt es daher ab, die Kontrolle über Veröffentlichung und Nicht-Veröffentlichung komplett Maschinen zu übertragen. Stattdessen plädiert er für eine Halbautomatisierung, bei der Algorithmen eine unterstützende Funktion zukommt, indem sie die Kommentare vorsortieren. Dies würde Community-Manager bei Ihrer Tätigkeit stark entlasten, sodass diese sich stärker auf Problemfälle fokussieren können.
In der zu entwickelnden Software sollen Kommentare, die mit hoher Wahrscheinlichkeit unproblematisch sind, automatisch veröffentlicht werden. Bei kritischen Fällen hingegen spielt die Software den Kommentar zurück und liefert zudem eine Einschätzung, was an dem Kommentar problematisch sein könnte. Vor seiner Veröffentlichung wird ein solcher Kommentar dann manuell überprüft. Wichtig findet Brunk, dass keine Zensur stattfindet. Im Zweifel werde eher zu viel als zu wenig veröffentlicht. Am Ende entscheiden aber Webseiten-Betreiber*innen, was sie tolerieren und was nicht. Da hier jenseits eindeutig justiziabler Äußerungen jede Plattform eigene Maßstäbe habe, könne es nicht das Ziel sein, eine allgemeingültige Definition von Hate Speech zu liefern. Vielmehr gehe es darum, konkrete Plattformen in der Moderation zu unterstützen.
Um eine solche maschinenlernende Software zu entwickeln, benötigt der Lehrstuhl möglichst viele Kommentarbewertungen als Datenbasis – am besten im sechsstelligen Bereich. Dabei sind naturgemäß jene Fälle besonders wichtig, die als Hasskommentare eingestuft werden, um so induktiv eine solide Grundlage für die maschinengestützte Bewertung von unangebrachten Kommentaren zu erarbeiten.
Der Auftrag
Um eine solche, auch wissenschaftlich belastbare Datenbasis für maschinelles Lernen zu entwickeln, wandte sich der Lehrstuhl an Crowd Guru. Den Ausschlag für diese Entscheidung gaben drei Punkte, so Brunk. Zunächst war es wichtig, eine deutschsprachige Crowd zu finden, die in der Lage ist, die abgegebenen Kommentare kompetent zu bewerten. Weiter musste der Anbieter die technischen Anforderungen des Projekts umsetzen können. Und schließlich sollte der Preis stimmen. Crowd Guru konnte sämtliche Anforderungen erfüllen und erhielt den Zuschlag zur Durchführung einer Vorstudie. Neu war für Brunk der Full Service inklusive Qualitätssicherung von Crowd Guru, dank dem der Auftrag komplett abgegeben werden konnte.
Die Herausforderung für Crowd Guru lag darin, dass eine einwandfreie und in ihrem Zustandekommen absolut transparente Arbeit abgeliefert werden musste, ohne dabei auf eine Vorabdefinition von Hate Speech zurückgreifen zu können.
Die Umsetzung
Die Umsetzung im Rahmen des „Cyberhate-Mining“-Seminars lief vom 17. bis zum 29. Oktober 2018. In dieser Zeit schlüpften die Gurus in die Rolle von Moderator*innen und bewerteten öffentlich verfügbare Kommentare von Online-Plattformen zur Flüchtlingsdebatte, darunter klassische Nachrichtenseiten und kleinere publizistische Webseiten. Kann man diesen Kommentar so veröffentlichen oder sollte er zuvor gesondert überprüft werden? Wenn ja, warum? Zur Auswahl standen folgende Kategorien: Beleidigung, Drohung, Sexismus, Rassismus, Vulgäre/Obszöne Sprache. Außerdem gab es die Möglichkeit, eine Nachricht zu hinterlassen, wenn der Kommentar aus anderen als den angegebenen Gründen für problematisch erachtet wurde.
An dem Projekt arbeiteten 131 Gurus mit, die insgesamt 43.255 Kommentarbewertungen abgaben. Für die Teilnahme mussten die Gurus lediglich die allgemeine Recherche-Qualifikation von Crowd Guru bestanden haben. Um eine valide Bewertung eines Kommentars zu erhalten und zugleich die Verlässlichkeit der einzelnen Bewertungen einschätzen zu können, wurde jeder der 3913 Kommentare mindestens 10 Mal von verschiedenen Gurus bewertet. Darüber hinaus gab es 20 Interrater-Kommentare und bis zu 26 Testkommentare, die jeder Guru bearbeiten musste.
Eine Besonderheit dieses Jobs lag darin, dass die Bewertung von Kommentaren subjektiven Interpretationsspielraum lässt. Da viele Kommentare in einem Graubereich angesiedelt sind, konnte bei der Qualitätssicherung nicht mit einem einfachen Richtig-Falsch-Schema gearbeitet werden. Die Herausforderung bestand somit darin, sicherzustellen, dass alle abgegebenen Kommentare richtig bearbeitet wurden, ohne dabei auf allgemeingültige Kriterien für die Bewertung zurückgreifen zu können.
Vor diesem Hintergrund schien es nicht sinnvoll, Gurus technisch zu bewerten, also mithilfe von „gold units“ jene Gurus automatisch auszuschließen, die ‚falsche‘ Antworten gegeben hatten. Stattdessen bestand die Qualitätssicherung darin, zu schauen, ob das Briefing auch wirklich gelesen worden war und ob die Übereinstimmung mit der Mehrheit groß genug war. So lieferte der Lehrstuhl als Goldstandard einen Satz an Kommentaren, die zu 90 % einstimmig bewertet werden; die Bewertungen von Gurus, die zu oft von diesem Konsens abwichen, wurden herausgenommen, die Gurus aber trotzdem bezahlt. Um sicherzustellen, dass Kommentare vor der Bewertung tatsächlich von den Gurus gelesen wurden, ist die zur Erledigung benötigte Zeit ein guter Indikator, daher wurden in den Job auch zeitliche Checks integriert.
Die erhobenen Daten wurden von CrowdGuru am 31.10.2018 bereitgestellt. Darin wurden die Kommentarbewertungen transparent aufgeführt, sodass die Lehrstuhl-Mitarbeiter*innen sich selbst von den einwandfreien Ergebnissen überzeugen konnten. Um die Repräsentativität der Bewertungen einschätzen zu können, wurden mit dem Einverständnis der Gurus außerdem anonymisierte Daten wie Alter oder Bildungsstand mitgeliefert.
Der Vorzug dieser aufwendigeren und gewissenhaften Qualitätssicherung von Crowd Guru liegt auf der Hand: Mit der Überprüfung des Jobs durch Menschen wird man dem komplexen und bis zu einem gewissen Grad ambigen Phänomen Hate Speech gerecht; sowohl die Moderation von Hasskommentare als auch die Prozesse, die zur Erarbeitung einer entsprechenden Datengrundlage zum Einsatz kommen, werden so nicht blind Maschinen anvertraut.
Bildnachweis: Bild von mohamed Hassan auf Pixabay