Putschvorhersagealgorithmen sind hier, um die Demokratie zu retten und/oder zu zerstören

Jan 07 2022
Anlässlich des einjährigen Jubiläums von Amerikas rechtem Wutanfall, der uns fast die Republik gekostet hätte, fragen sich wahrscheinlich viele Amerikaner, wie wir verhindern können, dass sich ein so schreckliches, gewalttätiges Ereignis jemals wieder in den USA ereignet

Anlässlich des einjährigen Jubiläums von Amerikas rechtem Wutanfall , der uns fast die Republik gekostet hätte, fragen sich wahrscheinlich viele Amerikaner, wie wir verhindern können, dass sich ein so schreckliches, gewalttätiges Ereignis jemals wieder auf US-Boden ereignet. Nun, laut der Washington Post glauben diejenigen in der Data-Science-Community, dass sie eine Lösung haben könnten.

Viele Datenforscher arbeiten derzeit intensiv an etwas, das als „Unruhevorhersage“ bezeichnet wird – ein Versuch, Algorithmen zu verwenden, um zu verstehen, wann und wo Gewalt in einer bestimmten Nation oder Gemeinschaft ausbrechen kann. Der Schlüssel zu diesen Bemühungen sind Organisationen wie CoupCast , ein Projekt an der University of Central Florida, das eine Kombination aus historischen Daten und maschinellem Lernen verwendet, um die Wahrscheinlichkeit zu analysieren, dass es in dem einen oder anderen Land zu einem gewaltsamen Machtwechsel kommen wird Monat. Laut Clayton Besaw, der CoupCast mitbetreibt, waren diese Prognosemodelle traditionell auf das Ausland ausgerichtet, aber leider sieht Amerika immer mehr nach einem vernünftigen Kandidaten für ein solches Ereignis aus.

„Aus dem Modell geht ziemlich klar hervor, dass wir auf eine Zeit zusteuern, in der wir einem höheren Risiko für anhaltende politische Gewalt ausgesetzt sind – die Bausteine ​​sind da“, sagte Besaw im Gespräch mit der Post.

Während dies alles sehr neuartig klingen mag, sind die Bemühungen, Daten zur Vorhersage von Unruhen zu verwenden, nicht besonders neu. Sie beinhalten im Allgemeinen das Sammeln riesiger Datenmengen über bestimmte Bevölkerungsgruppen und das anschließende Eingeben dieser Daten in Projektionsmodelle. Die eigentliche Frage ist nicht, wie das alles funktioniert, sondern: „Funktioniert es überhaupt ?“ und auch „Wollen wir das wirklich?“

Bereits 2007 arbeitete die Defense Advanced Research Projects Agency (DARPA) an einem Integrated Crisis Early Warning System (ICEWS) – einem datengesteuerten Programm, das soziale Unruhen in Ländern auf der ganzen Welt vorhersagen soll. Das Programm, das mit Hilfe von Forschern aus Harvard und dem professionellen Bombenbauer Lockheed Martin erstellt wurde, behauptete, Vorhersagemodelle für die Mehrheit der Nationen der Welt erstellt zu haben und angeblich „hochgenaue Vorhersagen“ darüber erstellen zu können, ob ein Land beispielsweise Zeuge werden würde ein tödlicher Aufruhr oder nicht. Das Programm funktionierte, indem es riesige Fundgruben von Open-Source-Daten – wie regionale Nachrichtenmeldungen – in sein System einspeiste, das dann die Daten nutzte, um die Wahrscheinlichkeit einer Art regionaler Unruhen zu berechnen.

„Das Geheimnis bei all dem ist die Tatsache, dass wir einen sogenannten Mixed-Model-Ansatz verwenden“, sagte Mark Hoffman, Senior Manager bei den Lockheed Martin Advanced Technology Laboratories, während eines Interviews mit dem Signal Magazine im Jahr 2015 . „Für jedes einzelne Ereignis, sagen wir, eine Rebellion in Indonesien, werden wir umkehren und fünf Modelle haben, die vorhersagen, ob das passieren wird.“ Laut Hoffman wurde das Programm schließlich von „verschiedenen Teilen der Regierung“ (sprich: den Geheimdiensten) angenommen und auch von „der Versicherungs-, Immobilien- und Transportbranche“ interessiert.

Ungefähr zu der Zeit, als ICEWS entwickelt wurde, wurde auch am EMBERS-Projekt gearbeitet , einem großen Datenprogramm, das 2012 gestartet wurde (wiederum mit Bundessteuergeldern ), das riesige Caches mit Open-Source-Daten aus sozialen Medien verwendet, um Bedrohungsprognosen zu ermöglichen . Laut einem Newsweek-Artikel aus dem Jahr 2015 haben sich „durchschnittlich 80 bis 90 Prozent der Prognosen“, die EMBERS generiert, „als richtig herausgestellt“. Dieser Algorithmus war angeblich so gut in seiner Arbeit, dass er Ereignisse wie die Amtsenthebung des Präsidenten von Paraguay im Jahr 2012 , den Ausbruch gewalttätiger Studentenproteste in Venezuela im Jahr 2014 und die Proteste in Brasilien im Jahr 2013 über die Kosten der Weltmeisterschaft vorhersagte.

Wenn Sie diesen Behauptungen glauben, ist es wirklich atemberaubendes Zeug, aber es inspiriert auch eine ziemlich grundlegende Frage: Äh, was zum Teufel ist letztes Jahr passiert, Leute? Wenn diese Art von algorithmischer Vorhersage existiert – und leicht verfügbar ist (tatsächlich gibt es derzeit einen ganzen Markt dafür) – warum hat niemand in der US-Geheimdienstgemeinschaft einen Aufruhr vorhergesehen, für den auf Facebook und Twitter unverhohlen geworben wurde? Wenn es so genau ist, warum hat es dann niemand an diesem schicksalhaften Tag im Januar benutzt? Wir haben ein Wort für diese Art von technischem Gefummel und es ist, äh ... nicht "Intelligenz".

Laut dem Artikel der Post könnte eine Sache, die das historische Fummeln erklären könnte, darin bestehen, dass die meisten dieser Programme und Produkte darauf abzielten, Ereignisse in anderen Ländern vorherzusagen – diejenigen, die eine strategische Bedrohung für US-Interessen im Ausland darstellen könnten. Sie sind nicht so sehr nach innen an Amerikanern geschult worden.

Einerseits fühlt es sich gut an, dass diese Art von Vorhersagekraft nicht allgemein auf uns abzielt, weil wir immer noch vieles nicht darüber wissen, wie sie funktionieren oder nicht funktionieren. Abgesehen von der potenziellen Gefahr von Verletzungen der Bürgerrechte, die diese Art der algorithmischen Überwachung hervorrufen könnte, besteht die offensichtlichste Sorge bei dieser Art von Prognosetechnologie darin, dass die Algorithmen falsch liegen könnten – und dass sie die Regierungen davon abhalten würden, auf Dinge zu reagieren, die nicht der Fall waren jemals überhaupt passieren wird. Wie die Post betont , könnte dies dazu führen, dass Regierungen gegen Menschen vorgehen, die sonst nur friedliche Demonstranten gewesen wären.

Ein noch besorgniserregenderes Problem könnte jedoch sein: Was ist, wenn die Algorithmen richtig sind ? Ist es nicht genauso gruselig, sich vorzustellen, dass Regierungen riesige Datenmengen verwenden, um genau zu berechnen, wie sich die Bevölkerung zwei Wochen im Voraus verhalten wird? Damit befinden wir uns fest im Gebiet des Minority Report . So oder so müssen wir wahrscheinlich ein wenig mehr über diese Art von Technologie nachdenken, bevor wir sie aus der Scheune lassen.