FAQ
Die Vorstellung unserer toxischen Narrative ist bewusst knapp gehalten. Für alle, die sich für die Hintergründe unserer Analyse und unseres Projekts interessieren, haben wir hier eine Liste häufig gestellter Fragen (engl. frequently asked questions – FAQ) zusammengestellt.
Seid ihr noch aktiv?
Nein, aber ihr könnt euch gerne mal das Projekt https://diskurslab.eaberlin.de/ anschauen, das an unsere Arbeit anknüpft.
Was ist hateSpeech ?
Der Begriff hateSpeech, oder auch Hassrede, erlebt derzeit Konjunktur – jedoch ohne eine einheitliche Definition und Verwendung. Der NetzTeufel orientiert sich bei der Bestimmung des Begriffes an dem Konzept der Gruppenbezogenen Menschenfeindlichkeit und versteht unter hateSpeech den sprachlichen Ausdruck von Hass mit dem Ziel der Herabsetzung, Diskriminierung oder Verunglimpfung von Menschengruppen. Das Phänomen der Gruppenbezogenen Menschenfeindlichkeit kommt aus der Einstellungsforschung und umfasst verschiedene Facetten feindlicher Einstellungen gegenüber Menschen aufgrund ihrer zugewiesenen Zugehörigkeit zu einer Gruppe, dazu gehören beispielweise antimuslimischer Rassismus, Antisemitismus, Sexismus sowie Feindlichkeit gegenüber Homosexuellen oder asylsuchenden Menschen.
Der Unterschied zu anderen Phänomenen, wie Cybermobbing oder Beleidigungen ist folglich der Fokus auf Angriffe gegen Personengruppen und nicht auf einzelne Personen. Menschenwürde, Pluralität und ein diskriminierungsfreies Miteinander gehören zu den Grundsätzen einer demokratischen Gesellschaft, sodass auch demokratiefeindliche Einstellungen bei der Betrachtung von hateSpeech für uns von Interesse sind. HateSpeech ist daher in erster Linie kein juristischer Begriff, doch können Inhalte unter den Tatbestand der Volksverhetzung fallen und damit strafrechtliche Relevanz erhalten.
Unabhängig der rechtlichen Grenzen im Spannungsfeld der Meinungsfreiheit ist hateSpeech ein ernst zu nehmendes Problem im Netz. HateSpeech befeuert Vorurteile, verbreitet Angst und vergiftet die Kommunikation und damit das gesellschaftliche Klima im Netz. HateSpeech und toxische Kommunikation sind nicht erst mit dem Internet in die Welt gekommen, das Netz und insbesondere soziale Plattformen stellen aber ein Medium dar, das hateSpeech sichtbar macht, verbreitet und befördern kann.
Was sind Narrative?
Mit dem Ziel einer systematischen Analyse von hatespeech haben wir uns auf die Suche nach Narrativen gemacht, die menschenfeindliche Positionen im Namen des christlichen Glaubens verbreiten. Wir beschreiben die Narrative als toxisch, da Hass, Menschen- und Demokratiefeindlichkeit die Kommunikation und das gesellschaftliche Klima vergiften (Mehr zu toxischen Narrativen im Monitoring Bericht der Amdeu Antonio Stiftung).
Narrative sind im wissenschaftlichen Kontext sinnstiftende Erzählungen, die sich aus einzelnen Argumentationsmustern zusammensetzen und eine diskursive Funktion haben. Narrative können dabei aus verschiedenen Elementen bestehen: Sie beschreiben Ereignisse, nennen Akteur*innen, identifizieren Probleme und Lösungen und setzen diese in einen sinnhaften Kontext. Damit stellen Narrative Zusammenhänge her und fungieren als Orientierungsrahmen und Interpretationsweisen zur Einordnung von Sachverhalten oder bieten Legitimation für Sichtweisen und Handlungen. Narrative prägen und beeinflussen kollektiv geteilte Werte, Einstellungen und Weltsichten und lassen daher gelichzeitig Rückschlüsse auf diese zu.
Was habt ihr analysiert?
Für die Analyse von toxischen Narrativen haben wir einen explorativen und induktiven Ansatz gewählt und in einem ersten Schritt Hassmails an zwei evangelische Bischöf*innen untersucht. In dieser Voranalyse haben wir neben ersten Hass befördernder Themen verschiedene konfessionelle Akteur*innen identifiziert, auf die wiederholt Bezug genommen wurde. Mit Akteur*innen meinen wir Organisationen, Nachrichtenportale oder andere institutionellen Zusammenhänge, die auch in den sozialen Medien präsent sind.
Daraus folgte die Auswahl von drei Akteur*innen, deren Facebook-Profilseiten den Ausgangspunkt für die Analyse von Narrativen darstellte: idea, kath.net und die Bundesvereinigung der „Christen in der AfD“ (ChrAfD). Wichtig ist, dass wir uns nicht Äußerungen der drei Akteur*innen konzentriert haben und daher nicht alle toxischen Narrative auf diese zurückgeführt werden können, vieles findet in ihren Kommentarspalten statt! Die Kommentarspalten sind aber gleichzeitig oft auch ein Ort für ernsthafte kritische Auseinandersetzungen mit den Themen und Narrativen.
Mit dem Tool sociograph.io haben wir für alle Akteur*innen den reichweitenstärksten facebookpost jeden Monats des Jahres 2017 identifiziert. Bei der Analyse standen dann aber nicht nur die Posts der Akteur*innen im Mittelpunkt, sondern in erster Linie die Kommentare der User*innen zu den Top-Posts.
Die Auswahl der Inhalte nach diesem Prinzip sowie der Schwerpunkt auf Kommentare ermöglichten uns die Analyse von alltäglicher Kommunikation im Netz ohne den Fokus auf sogenannte ,shitstorms‘ zu setzen. Auch die Themen bzw. die Anlässe der Posts sind damit nicht bewusst ausgewählt, sondern ergaben sich aus dem Auswahlprinzip der Top-Posts. Mit der Methodik einer qualitativen Inhaltsanalyse wurden schließlich die toxischen Narrative erschlossen, ausgewertet und interpretiert.
Habt ihr Leute ausgespäht?
Bis Februar 2018 war es möglich von einer facebookseite alle Kommentare inkl. User*namen zu exportieren. Wir haben uns bewusst dafür entschieden die User*namen zu pseudonymisieren, indem wir sie durch Zufallszahlen (hashes) ersetzt haben. Uns interessiert nicht, wer etwas gesagt hat, sondern was gesagt wird.
Sind die Ergebnisse repräsentativ?
In einem erkundenden Prozess sind wir der Frage nachgegangen, welche wiederkehrenden toxischen Narrative sich in einem abgegrenzten Zeitraum auf ausgewählten Facebook-Accounts in der Kommunikation von und zwischen User*innen finden lassen. Unsere Ergebnisse basieren auf einer qualitativen und explorativen Fallanalyse und zielen nicht darauf ab, quantitativ messbare Aussagen zu machen.
Die Ergebnisse spiegeln nicht die reine Meinung der Akteur*innen, gelten nicht für die Gesamtheit der Christ*innen oder für alle im Internet aktiven Nutzer*innen, sind also im wissenschaftlichen Sinne für diese Gruppen nicht repräsentativ. Mit unseren Untersuchungen zielen wir vielmehr darauf ab, Narrative herauszuarbeiten, die an bestehende Glaubenstraditionen und Einstellungen anschließen und so Anknüpfungspunkte für die Stärkung menschenfreundlicher christlicher Erzählungen zu erhalten.
Welchen Mehrwert bringt die Analyse und was ist #hopeSpeech?
Die Ergebnisse sind zunächst ein analytischer Gewinn und zeigen uns, bei welchen Themen hateSpeech im Netz auftaucht. Sie geben darüber hinaus einen wertvollen Einblick in die Argumentationsmuster und Bilder hinter christlich begründeten menschenfeindlichen Positionen.
Doch wir wollen nicht beim Hass verharren, sondern eine hoffnungsvolle Perspektive einnehmen und mit dem Projekt NetzTeufel den Bogen ,from #hateSpeech to #hopespeech‘ spannen. Welche theologischen Auseinandersetzungen benötigen wir und welche Geschichten bietet unser Glauben, um menschenfreundliche Positionen zu stärken? Welche christlichen Bilder können wir Hass und Menschenfeindlichkeit entgegensetzen? Und wie können wir das demokratische Potenzial des Netzes nutzen? Wir wollen die Chancen nutzen, die uns der Glaube und die christliche Tradition, aber auch das Internet bieten und uns auf die Suche nach Wegen der digitalen Selbstpositionierung als Kirche und als Christ*innen machen. Die Kenntnisse über toxische Narrative bieten einen Anknüpfungspunkt, um gemeinsam in partizipativen Formaten alternative Narrative zu entwickeln und stark zu machen – auf dem Weg zu einer demokratischen Netzkultur.
Wer steckt hinter dem NetzTeufel?
Der NetzTeufel ist ein Projekt der Evangelischen Akademie zu Berlin. Das Bundesprogramms Demokratie leben! des BMFSFJ fördert uns als Modellprojekt im Programmbereich I „Stärkung des Engagements im Netz – gegen Hass im Netz“. Die Veröffentlichungen stellen keine Meinungsäußerung des BMFSFJ bzw. des BAFzA dar. Für inhaltliche Aussagen trägt das Projekt „der Teufel auch im Netz“ die Verantwortung. Darüber hinaus wird das Projekt NetzTeufel von der Evangelischen Kirche in Deutschland (EKD) finanziell unterstützt.
Was kann ich gegen hateSpeech tun?
Jede*r kann seine Stimme im Netz erheben und für Nächstenliebe eintreten. Um das nicht alleine zu tun, gibt es beispielsweise auf facebook die Gruppe #ichbinhier in der über 37.000 Menschen sich gegenseitig stärken.
Ihr könnt Inhalte auf den Plattformen direkt melden oder strafrechtlich relevante Beiträge an die Meldestelle respect! weitergeben.
Bei unseren Kolleg*innen der Amadeu Antonio Stiftung könnt ihr euch zum Beispiel im Programm „Hatespeech begegnen – Train-the-Trainer“ ausbilden lassen oder mit deren Projekt civic.net Workshops in eurer Gemeinde oder eurem Verband organisieren.
Noch mehr spannende Projekt für eine digitale demokratische Kultur findet ihr bei der Vernetzungsstelle das NETTz. Gerne könnt ihr zu unseren Seminaren kommen oder uns einladen um gemeinsam über ein christlichen Umgang mit hateSpeech zu sprechen.