Die neue Bedrohung

Hasskommentare beschäftigen Medien, Politik und Justiz. Der ungefilterte und blanke Hass im Netz ist zum gesellschaftlichen Problem geworden. Fünf Thesen zur aktuellen Debatte von Stephan Agnolazza.

1. Unter „Hate Speech“ versteht jeder etwas anderes

2. Hassreden erreichen den Alltag

3. Hasskommentare sind feige

4. Jounalisten und Medienhäuser sind in der Pflicht

5.  Gute Diskussionskultur braucht gute FĂĽhrung

 

1. So definiert der Ă–sterreichischer Klagsverband den Begriff „Hate Speech“. Um „Hate Speech“ tatsächlich als solche zu erkennen, geht der Politikwissenschaftler Karl Marker davon aus, dass Hassrede dann vorliege, wenn der oder die Sprechende Hass empfindet oder erreichen will, dass Dritte Hass empfinden. Diese Argumentation wird vom Sprachwissenschaftler Anatol Stefanowitsch allerdings zurĂĽckgewiesen, schliesslich könne jemand auch aus Unkenntnis der Bedeutung bestimmter Wörter oder im Rahmen einer misslungenen Satire gegen jemanden Hass ausdrĂĽcken, ohne dies zu wollen.

Dies dürfte mitunter ein Grund sein, weshalb bei Definitionen häufig die Betroffenenperspektive wichtiger gewertet wird als die Intention der Sprechenden. Doch auch dies beinhaltet Probleme: So kann eine Äusserung von Ihnen als harte, aber berechtigte Kritik verstanden werden, während Ihr Nebenmann darin eine massive Beleidigung sieht. Damit eine Hassrede also als solche bezeichnet werden kann, muss sie von einem «wahrnehmbaren Teil der Sprachgemeinschaft als herabwürdigend und/oder verunglimpfend gegenüber einer Bevölkerungsgruppe verstanden werden. Das macht den Begriff allerdings nicht weniger schwammig.

„Hate Speech“ lässt sich – wie bereits beschrieben – nur sehr schwer katalogisieren. Zwar lassen sich einzelne Wörter oder Aussagen eindeutig zuordnen („Neger“, „Kanacke“ oder „Hurensohn“), an anderen Stellen kommt der Hass aber auch ohne solche direkten Beleidigungen aus, sondern durch bewusste Verletzungen in einem gewissen Kontext. Oder wie es die Bloggerin Yasmina Banaszczuk formulierte: „Sprache wird in erster Linie in dem Rahmen, in dem sie angewandt wird, zur Hate Speech.“ nach oben

 

2. Immer mehr Informationen sind über die digitalen Kanäle erreichbar, immer mehr Menschen beziehen sie aus dem Netz – Tendenz klar steigend. Gerade in den Sozialen Medien schlägt aber einem immer mehr blanker Hass entgegen. Eine repräsentative Forsa-Umfrage hat nun Zahlen dazu erfasst.

Hasskommentare lauern im Netz überall. Das mag auf den bekannten sozialen Medien sein, auf einschlägigen Foren oder selbst bei digitalen News-Portalen. Der Ton geht weit über die Grenzen des Anstandes hinaus, teilweise schlägt blanker Hass um sich. Wie eine im vergangenen Jahr erfasste, repräsentative Forsa-Umfrage im Auftrag der Landesanstalt für Medien Nordrhein-Westfalen (LfM) zeigt, haben bereits zwei Drittel der über 2000 Befragten schon einmal Hate Speech bzw. Hasskommentare im Internet gesehen. Jeder Vierte davon sogar schon sehr häufig. Befragt wurden mittels eines strukturierten Fragebogens in einer Online-Befragung deutschsprachige private Internetnutzer in Deutschland, die gesamte Studie findet sich hier.

Ethik im Netz. Hate Speech. Forsa 2016.

Dabei zeigt sich deutlich, dass gerade die jüngste befragte Gruppe, also die 14 bis 24- Jährigen, durchschnittlich am meisten Hasskommentare sehen. Nur 8 Prozent der Jungen haben noch nie einen Hasskommentar gelesen. Mit steigendem Alter nimmt die Intensität dann deutlich ab. So hat bei der 60+ Generation noch rund die Hälfte noch nie einen Hasskommentar gelesen. Das dürfte vor allem auf ein anderes Medienverhalten, als es beispielsweise die Jungen haben, zurückzuführen sein. nach oben

 

3. Interessant ist auch das Verhalten beim Entdecken eines Hasskommentars. Rund ein Drittel der Befragten (35 Prozent) geben an, den Kommentar bzw. den Verfasser eines solchen zu melden. Jeder Zehnte (11 Prozent) würden dagegen sich näher mit dem Hasskommentar befassen, also ihn lesen, das Profil des Verfassers aufrufen und Ähnliches. Die wenigsten (2 Prozent) würden ihm antworten und rund die Hälfte der Befragten würden den Hasskommentar einfach ignorieren.

Ethik im Netz. Hate Speech. Forsa 2016.

Grundsätzlich besteht bei nahezu allen Befragten Konsens darüber, dass Hasskommentare über das Internet feige sind (95 Prozent). Über zwei Drittel machen sie auch eher oder ganz wütend (72 Prozent), während sie rund ein Drittel (34 Prozent) aber auch verängstigt. Hier reagieren Frauen bei beiden Fragen tendenziell wütender oder ängstlicher als Männer. Rund zwei Drittel aller Befragten (65 Prozent) finden aber auch, dass es sich nicht lohnt, sich mit Hasskommentaren auseinanderzusetzen, da es sich um Zeitverschwendung handle. nach oben

 

4. Hate Speech wird aber längst nicht mehr «nur» für die Opfer zum Problem. Ohne Zweifel sind sie diejenigen, die wohl am Ärgsten darunter zu leiden haben. Doch der Hass im Netz zieht nicht nur ihre Opfer durch den Dreck, sondern viele andere mit. Ganz deutlich zeigt sich das in Kommentarspalten von Medienerzeugnissen. Viele Journalisten und ganze Medienhäuser haben längst erkannt, dass durch den –nicht mehr ganz so neuen – direkten Kontakt mit den Mediennutzern durch bspw. soziale Medien auch neue Inputs, Geschichten oder gar Formate entstehen können. Im Sinne eines aktiven Community Buildung ist es deshalb en vogue geworden, dass Journalisten und Medienhäuser in sozialen Netzwerken aktiv sind oder Kommentarspalten direkt auf der eigenen Website anbieten – und damit auch selbst reichweitenstarke Plattformen anbieten, in den sich Schreiber von Hasskommentare entfalten können.

Um den Problem Herr zu werden, gibt es verschiedene Ansätze. Einerseits versuchen gerade grössere Medienhäuser mit Hilfe von Algorithmen, Hasskommentare bereits zu erkennen, bevor sie ein Redaktor anschauen kann. Ein solches Programm hat beispielsweise ein Team der Martin-Luther-Universität Halle-Wittenberg geschrieben. Das Programm analysiert die Kommentare und sucht nach Wörtern und Wortgruppen, die in einer Datenbank hinterlegt sind – beispielsweise Schimpfwörter oder Aufforderungen zu Gewalt. Solche Programme können eine wichtige Hilfe im Kampf gegen Hate Speech sein, da sie offensichtliche Hasskommentare bereits automatisch herausfiltern und so personelle Ressourcen sparen, die sich dann beispielsweise um die Moderation einer Diskussion kümmern könnten. nach oben

 

5. Dabei ist man bereits beim nächsten Punkt. Um eine gute Diskussionskultur zu erreichen, reicht es nicht aus, nur auf den Menschenverstand zu hoffen. Wer sich dazu entscheidet, eine Diskussionsplattform anzubieten, tut gut daran, sie auch zu pflegen. Wie Erfahrungen zeigen, werden Diskussionen viel zu oft von Gruppen dominiert, die durch eine aggressive und raue Art auffallen. Damit werden Diskussionen für sachliche Teilnehmer uninteressant, da sie befürchten müssen, niedergeschrien zu werden. Eine gute Diskussionsführung ist deshalb unerlässlich. Doch wie kriegt man das gebacken? nach oben

Veröffentlicht am