Les algorithmes de prédiction de coup sont là pour sauver et/ou détruire la démocratie

Jan 07 2022
Alors que nous marquons le premier anniversaire de la crise de colère de la droite américaine qui a failli nous coûter la République, de nombreux Américains se demandent probablement comment nous pouvons empêcher qu'un événement aussi terrible et violent ne se reproduise aux États-Unis.

Alors que nous marquons le premier anniversaire de la crise de colère de la droite américaine qui a failli nous coûter la République, de nombreux Américains se demandent probablement comment nous pouvons empêcher qu'un événement aussi terrible et violent ne se reproduise sur le sol américain. Eh bien, selon le Washington Post , les membres de la communauté scientifique des données pensent qu'ils pourraient avoir une solution.

De nombreux chercheurs en données travaillent actuellement d'arrache-pied sur quelque chose appelé "prédiction des troubles" - un effort pour utiliser des algorithmes pour comprendre quand et où la violence peut éclater dans une nation ou une communauté donnée. La clé de cet effort sont des organisations comme CoupCast , un projet de l'Université de Floride centrale, qui utilise une combinaison de données historiques et d'apprentissage automatique pour analyser la probabilité qu'une transition violente du pouvoir se produise dans un pays ou un autre, sur n'importe quel mois. Selon Clayton Besaw, qui participe à la gestion de CoupCast, ces modèles de prévision visaient traditionnellement les pays étrangers mais, malheureusement, l'Amérique ressemble de plus en plus à un candidat raisonnable pour un tel événement.

"Il ressort assez clairement du modèle que nous nous dirigeons vers une période où nous sommes plus à risque de violence politique soutenue - les éléments de base sont là", a déclaré Besaw, s'adressant au Post.

Bien que tout cela puisse sembler très nouveau, les efforts pour utiliser les données pour prédire les troubles ne sont pas particulièrement nouveaux. Ils impliquent généralement la collecte d'immenses quantités de données sur des populations spécifiques, puis la saisie de ces données dans des modèles de projection. La vraie question n'est pas de savoir comment tout cela fonctionne, mais plutôt : "Est-ce que ça marche vraiment ?" et aussi "Le voulons-nous vraiment?"

Dès 2007, la Defense Advanced Research Projects Agency (DARPA) travaillait sur un système intégré d'alerte précoce en cas de crise (ICEWS), un programme basé sur des données destiné à prédire les troubles sociaux dans les pays du monde entier. Produit avec l'aide de chercheurs de Harvard et du fabricant de bombes professionnel Lockheed Martin, le programme prétendait avoir créé des modèles de prévision pour la majorité des nations du monde et pourrait soi-disant produire des « prévisions très précises » quant à savoir si un pays serait, par exemple, témoin une émeute meurtrière ou non. Le programme a fonctionné en alimentant d'énormes quantités de données open source - telles que des reportages régionaux - dans son système, qui utiliserait ensuite les données pour calculer la probabilité d'une sorte d'incident de troubles régionaux.

"La sauce secrète dans tout cela est le fait que nous utilisons ce qu'on appelle une approche de modèle mixte", a déclaré Mark Hoffman, directeur principal des Lockheed Martin Advanced Technology Laboratories, lors d'une interview en 2015 avec Signal Magazine . "Pour tout événement, disons, une rébellion en Indonésie, nous ferons demi-tour et disposerons de cinq modèles qui prédisent si cela va se produire." Selon Hoffman, le programme a finalement été adopté par "diverses parties du gouvernement" (lire : la communauté du renseignement) et a également suscité l'intérêt des "industries de l'assurance, de l'immobilier et des transports".

À l'époque où l'ICEWS était en développement, des travaux étaient également en cours sur le projet EMBERS , un vaste programme de données lancé en 2012 (encore une fois avec l'argent des contribuables fédéraux ) qui utilise des caches gargantuesques de données open source provenant des médias sociaux pour permettre la prévision des menaces. . Selon un article de Newsweek de 2015, « en moyenne 80 à 90 % des prévisions » générées par EMBERS se sont « avérées exactes ». Cet algorithme aurait été si bon dans son travail qu'il a prédit des événements comme la destitution du président du Paraguay en 2012 , une flambée de violentes manifestations étudiantes au Venezuela en 2014 et des manifestations en 2013 au Brésil concernant le coût de la Coupe du monde.

Si vous croyez ces affirmations, c'est vraiment époustouflant, mais cela inspire aussi une question assez basique : euh, qu'est-ce qui s'est passé l'année dernière, les gars ? Si ce type de prédiction algorithmique existe - et est facilement disponible (en fait, il y a actuellement tout un marché qui lui est consacré) - pourquoi personne dans la communauté du renseignement américain n'a-t-il prévu une émeute qui a été annoncée de manière flagrante sur Facebook et Twitter ? S'il est si précis, pourquoi personne ne l'a-t-il utilisé ce jour fatidique de janvier ? Nous avons un mot pour ce genre de tâtonnement technique et ce n'est pas "l'intelligence".

Selon l'article du Post , une chose qui pourrait expliquer l'échappée historique est que la plupart de ces programmes et produits visaient à prévoir des événements dans d'autres pays, ceux qui pourraient constituer une menace stratégique pour les intérêts américains à l'étranger. Ils n'ont pas tellement été entraînés vers l'intérieur sur les Américains.

D'une part, il semble que ce soit une bonne chose que ces types de pouvoirs prédictifs ne nous soient pas largement destinés, car il y a encore beaucoup de choses que nous ne savons pas sur la façon dont ils fonctionnent ou non. Au-delà de la pente glissante potentielle des violations de la liberté civile que ce type de surveillance algorithmique pourrait déclencher, la préoccupation la plus évidente avec ce type de technologie de prévision est que les algorithmes pourraient être erronés - et que cela enverrait les gouvernements réagir à des choses qui ne l'étaient pas. arrivera jamais en premier lieu. Comme le souligne le Post , cela pourrait conduire à des choses comme les gouvernements réprimant des personnes qui, autrement, n'auraient été que des manifestants pacifiques.

Cependant, un problème encore plus préoccupant pourrait être : et si les algorithmes étaient corrects ? N'est-il pas tout aussi effrayant d'imaginer que les gouvernements utilisent d'immenses quantités de données pour calculer avec précision le comportement des populations deux semaines à l'avance ? Cela nous place fermement sur le territoire du rapport minoritaire . Quoi qu'il en soit, nous devons probablement réfléchir un peu plus à ce type de technologie avant de la laisser sortir de la grange.