
Es ist kein Geheimnis, dass das Internet manchmal ein ziemlich rauer Ort sein kann. Manche Leute mögen es, anderen ein schlechtes Gefühl zu geben ( mehr dazu unter Wie Trolle arbeiten ). Aber es ist auch überraschend einfach, andere Menschen zu entmutigen, auch wenn das nicht Ihre Absicht ist. Das könnte einer der Faktoren sein, die dazu beigetragen haben, dass die Zahl der Redakteure bei Wikipedia zurückgegangen ist, und künstliche Intelligenz könnte die Lösung sein.
Das zugrunde liegende Problem ist das gleiche, das Wikipedia zu einem so mächtigen Werkzeug macht – es stützt sich auf eine Gemeinschaft von Redakteuren, die alle in der Online-Enzyklopädie enthaltenen Artikel schreiben, gestalten und bearbeiten. Aber einen Artikel auf Wikipedia zu bearbeiten ist nicht einfach. Der Standard-Editor verwendet eine komplizierte Auszeichnungssprache, und es gibt viele Regeln, die festlegen, wie Editoren Änderungen vornehmen können. Wenn Sie einen Artikel bearbeiten und gegen eine Regel verstoßen, wird wahrscheinlich jemand vorbeikommen und Ihre Änderung rückgängig machen, ohne Sie zu benachrichtigen.
Für neue Redakteure kann dies entmutigend sein. Wenn die von Ihnen vorgenommenen Änderungen ständig durchgestrichen werden, können Sie zu dem Schluss kommen, dass Sie Ihre Zeit verschwenden. Schlimmer noch, Sie könnten das Gefühl haben, wie jemand behandelt zu werden, der absichtlich Wikipedia-Einträge zerstört. Damit Wikipedia überleben kann, darf das nicht weitergehen. Laut Technology Review des MIT hat die Website in den letzten acht Jahren 40 Prozent ihrer redaktionellen Community verloren.
Hier kommt die KI ins Spiel. Sie heißt Objective Revision Evaluation Service oder ORES. Es kann redaktionelle Änderungen kennzeichnen, die nicht den Wikipedia-Regeln entsprechen. Darüber hinaus kann es feststellen, ob die Person, die gegen die Regeln verstoßen hat, dies als Teil eines unschuldigen Fehlers getan hat oder ob es die Tat eines Trolls war, der „schädliche Änderungen“ vorgenommen hat.
Prüfer können eine Nachricht an den betreffenden Redakteur senden und ihn oder sie auf das Problem aufmerksam machen. Mit anderen Worten, die Aufgabe der KI besteht darin, menschliche Redakteure daran zu erinnern, anderen gegenüber ein wenig Menschlichkeit zu zeigen. Vielleicht verhindert dies, dass sich neue Redakteure von der alten Garde entlassen fühlen, und hilft Wikipedia dabei, seine redaktionelle Gemeinschaft wieder aufzubauen.
Es ist nicht zwingend erforderlich, dass die Wikipedia-Community ORES verwendet, wenn sie Artikel überprüft. Die Software wird die verletzten Gefühle von Redakteuren, deren Arbeit gelöscht wurde, nicht auf magische Weise lindern. Aber damit Wikipedia überleben kann, muss die Gemeinschaft Wege finden, neue Mitglieder zu gewinnen und ihre Zahl zu halten. Andernfalls wird die Crowdsourcing-Enzyklopädie auf Probleme mit Fehlern, veralteten Informationen und Veralterung stoßen.