
Es kann Spaß machen, andere Benutzer in Gespräche auf den von Ihnen häufig besuchten Websites zu verwickeln, aber die Kommentarbereiche neigen dazu, in einem beunruhigenden Ausmaß außer Kontrolle zu geraten. Eine zunehmend feindselige Online-Umgebung voller Vulgarität, Beleidigungen und manchmal sogar Drohungen haben wir oft einem bestimmten Persönlichkeitstyp zu verdanken – dem Internet-Troll .
Ein Troll ist eine Person, die Online-Kommentarbereiche mit Beiträgen ködert, die darauf abzielen, Menschen aufzuhetzen oder eine Online-Community anderweitig zu stören. Diese äußerst negativen Benutzer machen das Internet düsterer und antagonistischer als die Quelle von Informationen und Unterhaltung, die es sein sollte.
Die Anonymität, die das Internet bietet, ermöglicht es Menschen (die sich persönlich höflich verhalten könnten), ihre Hemmungen abzulegen und sich auf unsoziales Verhalten einzulassen [Quelle: Academic Earth , Breeze ]. Eine Studie von Forschern der University of Manitoba, der University of Winnipeg und der University of British Columbia in Kanada führte Umfragen durch und fand starke Korrelationen zwischen Menschen, die Online-Trolling zu mögen schienen, und höheren Ergebnissen bei Persönlichkeitstests für Sadismus, Machiavellismus und Psychopathie, insbesondere Sadismus [ Quellen: Buckels, Goldbeck , Mooney ].
Forscher haben sogar herausgefunden, dass beleidigende Sprache im Kommentarbereich eines Artikels die Wahrnehmung des Inhalts der Leser verändern kann, sie zu einer polarisierteren Sichtweise des Themas verzerrt oder sie an der Qualität des Artikels zweifeln lässt [Quelle: Brossard , Mooney , Applebaum , Felder ]. Dies veranlasste Popular Science dazu, die Kommentierung der meisten seiner Online-Artikel im Jahr 2013 einzustellen [Quelle: LaBarre ].
Um die Auswirkungen von Trolling zu minimieren, stellen einige Websites Moderatoren ein, die Kommentar-Threads im Auge behalten und beleidigende Beiträge und Benutzer zensieren oder sperren, aber das kostet Zeit und Geld, die nicht alle Websites aufwenden können oder werden, und es gibt weitaus mehr Trolle als Moderatoren . Andere haben vorgeschlagen, die Anonymität zu entfernen, obwohl es Hinweise darauf gibt, dass dies dazu führen könnte, dass die meisten Benutzer niemals Kommentare posten [Quelle: Ingram ].
Aber Forscher in Stanford und Cornell haben ein weiteres potenzielles Instrument zur Bekämpfung von Trollen entwickelt – die Früherkennung.
Ein Algorithmus zur Erkennung von Trollen
Forscher in Stanford und Cornell (mit Finanzierung durch ein Stanford Graduate Fellowship und einen Google Faculty Research Award) führten eine Studie durch, um zu sehen, ob sie quantitative Maßnahmen verwenden könnten, um asoziale Benutzer zu erkennen. Sie erhielten Zugriff auf Benutzerkommentare, die von Disqus für die Websites Breitbart.com, CNN.com und IGN.com gehostet wurden und sich über 18 Monate von März 2012 bis August 2013 erstreckten. Die Daten bestanden aus rund 1,75 Millionen Benutzern (fast 49.000 von ihnen wurden gesperrt). 1,26 Millionen Threads und 39 Millionen Beiträge (fast 838.000 davon gelöscht und 1,35 Millionen gemeldet). Sie haben die gesperrten Benutzerdaten auf etwa 12.000 Benutzer eingegrenzt, die den Websites nach März 2012 beigetreten sind, mindestens fünf Beiträge hatten und für etwas anderes als das Spamming von URLs dauerhaft gesperrt wurden [Quelle: Cheng ].
Die Wissenschaftler erfassten Daten wie Post-Inhalte, Benutzeraktivitäten, Community-Antworten und Moderatoraktionen. Sie verglichen Nachrichten von Benutzern, die nie gesperrt wurden, mit Nachrichten von Benutzern, die dauerhaft gesperrt waren, und untersuchten die Veränderungen im Verhalten der gesperrten Benutzer im Laufe ihrer Zeit. Das Team stellte fest, dass die Posten zukünftiger gesperrter Trolle die folgenden Merkmale aufweisen:
- schlechte Rechtschreibung und Grammatik
- mehr Profanität
- mehr negative Worte
- weniger versöhnliche oder vorläufige Sprache
- geringere Verständlichkeitswerte basierend auf mehreren Lesbarkeitstests (einschließlich des Automated Readability Index), die sich zum Zeitpunkt des Verbots verschlechterten
- Verwendung unterschiedlicher Fachsprache und Funktionswörter von nicht gesperrten Community-Mitgliedern
- mehr abschweifung vom thema
- eine viel höhere Anzahl von Kommentarbeiträgen als der durchschnittliche Benutzer
- eine Tendenz, ihre Antworten in einzelnen Threads zu konzentrieren
- eine Tendenz, mehr Antworten von anderen zu provozieren
- schlechteres Verhalten im Laufe der Zeit, was dazu führt, dass ihre Beiträge zunehmend gelöscht werden, bevor sie gesperrt werden
Auf CNN.com neigte der durchschnittliche Benutzer dazu, während des Zeitraums von 18 Monaten etwa 22 Beiträge zu posten, wohingegen die zukünftigen gesperrten Benutzer etwa 264 Mal Beiträge posteten, bevor sie gesperrt wurden [Quellen: Cheng , Collins ]. Es war auch weniger wahrscheinlich, dass die Community den Troll im Laufe der Zeit tolerierte.
Anhand der quantifizierbaren Ergebnisse konnten die Forscher einen Algorithmus (eine Reihe von Schritten zur Lösung eines Problems oder zur Ausführung einer Aufgabe) entwickeln, der mit nur fünf Kommentaren mit 80-prozentiger Genauigkeit bestimmt, wer in Zukunft gesperrt werden würde. Bei 10 Posts waren die Ergebnisse zu 82 Prozent genau, aber die Leistung erreichte ihren Höhepunkt bei etwa 10 Posts. Frühere Benutzerbeiträge waren besser geeignet, um vorherzusagen, ob sie später gesperrt werden würden. Das Team erreichte in allen drei Online-Communities ein ähnliches Maß an Genauigkeit. Das Löschen nach dem Löschen durch Site-Moderatoren stellte sich als die informativste Aktivität heraus, die untersucht wurde, aber alle Daten insgesamt führten zu einer besseren Genauigkeit [Quelle: Cheng ].
Ist ein Algorithmus praktikabel oder ausreichend?

Die Verwendung eines solchen Algorithmus zur Automatisierung des Troll-Verbots ist in naher Zukunft unwahrscheinlich. Es befindet sich in der akademischen Forschungsphase und ist derzeit nicht als nutzbares Softwarepaket verfügbar. Und bei einer Genauigkeit von 80 Prozent wäre jeder fünfte der identifizierten Benutzer unschuldig. Die Forscher fanden heraus, dass ein übermäßig hartes oder schnelles Sperren oder Zensieren von Benutzern tendenziell zu asozialem Verhalten führte und sogar das Schreiben von Postern verschlechterte, die ursprünglich eine höhere Textqualität hatten [Quelle: Cheng ]. Es gibt auch andere Arten von Trolling, einschließlich subtilerer Varianten, wie das Posten von ärgerlich naiven Fragen, die dieser Algorithmus nicht erkennen könnte.
Daher ist es immer noch wichtig, dass ein menschlicher Moderator die Situation überprüft, bevor jemand gesperrt wird. Aber ein Tool wie dieses könnte Moderatoren dabei helfen, ihre Zeit effizienter zu verbringen, indem es potenziell störende Benutzer im Voraus kennzeichnet. Die Ergebnisse können zur Entwicklung nachfolgender Studien und zukünftiger Trollerkennungs- und Moderationstools verwendet werden.
In der Zwischenzeit können wir andere Maßnahmen ausprobieren. Einige haben vorgeschlagen, Benutzerpseudonyme einzuführen, die über mehrere Websites gleich bleiben [Quelle: Schwartz ]. Seiten wie Slashdot und Reddit haben Peer-Moderationssysteme eingerichtet. Die Seiten xkcd und 4chan haben sogar mit einem Bot namens ROBOT9000 experimentiert, der Benutzer stummschaltet, wenn sie etwas sagen, das zuvor gesagt wurde, und nur Originalinhalte zulässt [Quelle: Munroe ].
Google hat Änderungen an YouTube vorgenommen , um zu versuchen, sein bekanntes Trolling-Problem in den Griff zu bekommen, einschließlich den Nutzern mehr Spielraum und Tools zu geben, um die Kommentarbereiche ihrer Videos zu moderieren, relevantere Kommentare und Kommentare von den Google+-Freunden der Nutzer nach oben zu verschieben und Hinzufügen öffentlicher oder privater Kommentaroptionen [Quellen: Dredge , YouTube ].
Wir als Online-Benutzer können auch Dinge tun, um das Trolling zu verringern, indem wir beispielsweise die Abstimmungs- und Berichtsfunktionen in Online-Communities nutzen. Die Forscher von Stanford und Cornell fanden auch heraus, dass andere Benutzer, die Trolle mit hartem Feedback ansprachen, das Verhalten verschlimmerten. Dies bekräftigt eine häufig wiederholte Internet-Maxime: "Füttere die Trolle nicht!"
Viele weitere Informationen
Anmerkung des Autors: Wie könnte ein Algorithmus Trolle im Internet erkennen?
Trolling ist ein großes Problem, zumindest für Leute, die beim Surfen im Internet gerne bei Laune und niedrigem Blutdruck bleiben. Als ich zum ersten Mal beobachtete, wie eine Freundin online mit anderen Menschen in einer virtuellen Welt interagierte, wurde ihr innerhalb von Minuten eine abscheuliche, unprovozierte Drohung entgegengeschleudert. Das hat mich wahrscheinlich dazu veranlasst, Online-Gespräche zu meiden und mich jahrelang ans Lauern zu halten. Wie bei allem, was mit menschlicher Interaktion zu tun hat, gibt es keine einfache Lösung, und es wird immer Idioten geben, die sich ihren eigenen Spaß machen, indem sie versuchen, uns zu verderben. Aber ich war froh zu erfahren, dass an möglichen Lösungen geforscht wird. Jede Verringerung der Masse an Negativität im Internet wird ein Plus sein. Bis dahin verzichte ich jedoch möglicherweise auf Artikelkommentarabschnitte. Ich genieße meine geistige Gesundheit zu sehr.
Zum Thema passende Artikel
- Was macht Dinge im Internet viral?
- Wie hat das Internet die Anstandsregeln verändert?
- So funktionieren Internet-Trolle
- 10 Formen der Online-Belästigung
Quellen
- Akademische Erde. "Die Psychologie des Internet-Trolls." (2. Juni 2015) http://academicearth.org/electives/psychology-internet-troll/
- Amazonas. "Amazon Mechanical Turk." (31. Mai 2015) https://www.mturk.com/mturk/welcome
- Apfelbaum, Anne. "Die Trolle unter uns." Schiefer. 28. November 2014. (2. Juni 2015) http://www.slate.com/articles/news_and_politics/foreigners/2014/11/internet_trolls_pose_a_threat_internet_commentators_shouldn_t_be_anonymous.html
- BBC. "Was ist ein Algorithmus?" BBC Bitessize. http://www.bbc.co.uk/guides/z3whpv4
- Brise, Mez. "Die Probleme mit anonymen Trollen und Rechenschaftspflicht im digitalen Zeitalter." Nächstes Web. 27. Oktober 2012. (2. Juni 2015) http://thenextweb.com/insider/2012/10/27/the-problems-with-anonymous-trolls-and-accountability-in-the-digital-age/
- Brossard, Dominique und Dietram A. Scheufele. "Diese Geschichte stinkt." New York Times. 2. März 2013. (2. Juni 2015) http://www.nytimes.com/2013/03/03/opinion/sunday/this-story-stinks.html?_r=1
- Buckels, Erin E. et al. "Trolle wollen einfach nur Spaß haben." Persönlichkeit und individuelle Unterschiede. September 2014, Band 67, Seiten 97-102. (1. Juni 2015)
- Cheng, Justinet al. "Asoziales Verhalten in Online-Diskussionsgemeinschaften." Bibliothek der Cornell-Universität. 2. April 2015. (25. Mai 2015) http://arxiv.org/pdf/1504.00680v1.pdf
- Collins, Kati. "'Troll Hunting'-Algorithmus könnte das Web zu einem besseren Ort machen." Verdrahtet. 14. April 2015. (25. Mai 2015) http://www.wired.co.uk/news/archive/2015-04/14/google-algorithm-predicts-trolls-antisocial-behaviour
- Bagger, Stuart. "YouTube zielt darauf ab, die Trolle mit Änderungen an seinem Kommentarbereich zu zähmen." Wächter. 7. November 2013. (2. Juni 2015) http://www.theguardian.com/technology/2013/nov/07/youtube-comments-trolls-moderation-google
- Felder, Adam. „Wie Kommentare die Wahrnehmung der Qualität von Websites prägen – und den Datenverkehr beeinflussen.“ Atlantisch. 5. Juni 2014. (2. Juni 2015) http://www.theatlantic.com/technology/archive/2014/06/internet-comments-and-perceptions-of-quality/371862/
- Fobar, Rahel. "Forscher entwickeln einen Troll-Jagd-Algorithmus." Populärwissenschaft. 13. April 2015. (2. Juni 2015) http://www.popsci.com/researchers-develop-troll-hunting-algorithm
- Golbeck Ph.D., Jennifer. "Internet-Trolle sind Narzissten, Psychopathen und Sadisten." Psychologie heute. 18. September 2014. (1. Juni 2015) https://www.psychologytoday.com/blog/your-online-secrets/201409/internet-trolls-are-narcissists-psychopaths-and-sadists
- Hermann, Alex. "Algorithmus 'Identifiziert zukünftige Trolle aus nur fünf Posten.'" Guardian. 17. April 2015. (2. Juni 2015) http://www.theguardian.com/technology/2015/apr/17/algorithm-identified-future-trolls-from-just-five-posts
- Ingram, Matthew. "Untersuchungen zeigen, dass Sie von den meisten Ihrer Leser nichts hören, wenn Sie die Anonymität aufheben." GigaOm. 27. August 2014. (2. Juni 2015) https://gigaom.com/2014/08/27/research-shows-that-if-you-remove-anonymity-you-wont-hear-from-most-of -deine-leser/
- Khan Akademie. „Einführung in Algorithmen – Was ist ein Algorithmus und warum sollte es mich interessieren?“ (1. Juni 2015) https://www.khanacademy.org/computing/computer-science/algorithms/intro-to-algorithms/v/what-are-algorithms
- LaBarre, Susanne. "Warum wir unsere Kommentare abschalten." Populärwissenschaft. 24. Sept. 2013. (2. Juni 2015) http://www.popsci.com/science/article/2013-09/why-were-shutting-our-comments
- Moony, Chris. "Internet-Trolle sind wirklich schreckliche Menschen." Schiefer. 14. Februar 2014. (2. Juni 2015) http://www.slate.com/articles/health_and_science/climate_desk/2014/02/internet_troll_personality_study_machiavellianism_narcissism_psychopathy.html
- Moony, Chris. "Die Wissenschaft, warum Kommentar-Trolle scheiße sind." Mutter Jones. 10. Januar 2013. (2. Juni 2015) http://www.motherjones.com/environment/2013/01/you-idiot-course-trolls-comments-make-you-believe-science-less
- Munroe, Randall P. „ROBOT9000 und #xkcd-signal: Attacking Noise in Chat.“ xkcd. 14. Januar 2008. (2. Juni 2015) http://blog.xkcd.com/2008/01/14/robot9000-and-xkcd-signal-attacking-noise-in-chat/
- Pullen, John Patrick. "Die Wissenschaft sagt, dass Sie Internet-Trolle ignorieren sollten." 20. April 2015. (31. Mai 2015) http://time.com/3827683/internet-troll-research/
- Schwartz, Mattathias. "Die Trolle unter uns." New York Times. 3. August 2008. (1. Juni 2015) http://www.nytimes.com/2008/08/03/magazine/03trolls-t.html
- Vaas, Lisa. "Neuer Algorithmus könnte Trolle automatisch zerquetschen." Nackte Sicherheit. 15. April 2015. (25. Mai 2015) https://nakedsecurity.sophos.com/2015/04/15/new-algorithm-could-auto-squash-trolls/
- Offizieller YouTube-Blog. "Wir hören Sie: Besseres Kommentieren auf YouTube." 24. September 2013. (2. Juni 2015) http://youtube-global.blogspot.co.uk/2013/09/youtube-new-comments.html