
More than a century ago, English polymath Sir Francis Galton set out to demonstrate the ignorance of the masses and accidently proved the wisdom of crowds. As writer James Surowiecki recounted in his 2005 book, appropriately titled "The Wisdom of Crowds," Galton attended a livestock fair where locals were asked to guess the weight of an ox. Galton collected their guesses intending to show that not one of the 800 submissions was correct, which was true. But when Galton graphed the distribution of the wrong answers, he made an unsettling discovery — the mean (or average) of the 800 answers was exactly right: 1,197 pounds (543 kilograms).
Je mehr einzelne Datenpunkte Sie sammeln, desto genauer ist Ihre endgültige Antwort. Wenn also zwei Köpfe besser sind als einer, dann sind 3 oder 4 oder 2.451.897 viel, viel besser. Nach dieser Logik sollten wir den Obersten Gerichtshof und die Federal Reserve abschaffen und jede wichtige Entscheidung einer Massen-E-Mail-Umfrage unterziehen.
Andererseits gibt es vielleicht eine Grenze für unsere kollektive Weisheit.
Mirta Galesic is a professor of human social dynamics at the Santa Fe Institute in New Mexico, where she studies how people make decisions, particularly within groups and social networks. In a fascinating 2016 paper published in the journal Decision, Galesic not only proves large crowds can often get it wrong, but that sometimes one randomly selected head is better than a hundred.
Why Bigger Isn't Always Better
Galesic and her colleagues at Berlin's Max Planck Institute for Human Development first questioned the "wisdom of the crowd" theory when they noticed that many of the world's most important decisions are made by moderately sized groups.
"A jury in most countries is six to 15 people and central bank boards are five to 12 people," Galesic says. "If the wisdom of crowds is so important, why don't we make these groups much larger? Why don't we use the internet and online teleconferencing to have juries with 150 people?"
Because, as Galesic discovered through her research, not all questions are equal. First, the wisdom of crowds can only be tested using quantitative questions with a single right answer —how many gumballs are in the jar? Or which of these two candidates will win the election? It doesn't work, for example, with juries, because you can never be sure if a verdict of innocent or guilty was ultimately right or wrong. Some guilty people really do get away with murder.
The wisdom of crowds also doesn't apply to popular referenda like the "Brexit " vote or state polls to legalize gay marriage , Galesic explains. "Those kinds of questions are a matter of personal preference. There are people who, even after the fact, will never agree that a popular-vote decision was wrong or right."
Second, the wisdom of crowds falls short when the question is really, really hard. One of the most surprising conclusions of Galesic's paper is that for certain highly difficult decisions, you'd be better off asking one or two random experts than polling a hundred of them. But why?
Galesic verwendete statistische Modelle und Computersimulationen, um die Ergebnisse von Experimenten zu analysieren, bei denen Expertengruppen quantitative Fragen abwogen. Beispielsweise wurde ein Gremium von Ärzten gebeten, einen hypothetischen Patienten mit einer Reihe von Symptomen zu diagnostizieren. Ökonomen wurden gebeten, die Arbeitslosenquote für das nächste Jahr zu prognostizieren. Und Politikwissenschaftler wurden gebeten, den Ausgang einer Wahl vorherzusagen.
Wenn die Aufgabe einfach war – ein häufiges Leiden für die Ärzte oder eine erdrutschartige Wahl für die Politikwissenschaftler – führte eine größere Stichprobe zu genaueren Vorhersagen, sodass die Theorie der „Weisheit der Massen“ zutraf. Aber als sich die Aufgabe als schwierig erwies – wie bei den US-Präsidentschaftswahlen 2000 zwischen George W. Bush und Al Gore – trat der gegenteilige Effekt ein.
"Bei der Wahl 2000 haben sich die meisten Experten geirrt", sagt Galesic. „Wenn Sie die Mehrheit einer Gruppe nehmen, die größtenteils falsch liegt, haben Sie eine 100-prozentige Chance, die falsche Antwort zu erhalten. In diesem Fall sollten Sie besser einen Experten aus hundert zufällig auswählen und vielleicht zufällig Sie würde einen auswählen, der es richtig gemacht hat."
Die richtige Anzahl an Experten
Natürlich ist es im wirklichen Leben unmöglich zu wissen, ob die nächste Aufgabe leicht oder schwer sein wird. Und die Fed kann vernünftigerweise nicht 1.000 Vorstandsmitglieder hinzufügen, wenn die Wirtschaft stark läuft, und sie auf zwei oder drei reduzieren, wenn wir uns in einer Rezession befinden. Deshalb spucken die Computermodelle von Galesic eine Lösung aus, die die Drei Bären stolz machen würde. Wie groß sollten die meisten Ausschüsse sein, um eine Vielzahl von einfachen und schwierigen Aufgaben genau zu bewältigen? Nicht zu groß und nicht zu klein – genau richtig.
For example, how many political scientists should you consult for the most accurate election predictions in any contest? Five. How many doctors do you need to get the most accurate diagnosis? Eleven. And how many economists do you need to most accurately predict macroeconomic shifts? Seven, which is precisely the number of seats on the Federal Reserve's Board of Governors.
"Maybe that reflects some intuition about the optimum number of people in such committees," says Galesic. So, maybe the crowd isn't so dumb after all.
Now That's Interesting
Sir Francis Galton's fame and influence extend far beyond the ox experiment. In his meteorological studies, he created the first weather map. During his research into human intelligence and twins, he coined the term "nature and nurture." He also established the first fingerprint classification system. Sadly, Galton's greatest passion was eugenics, and he worked tirelessly to prove a connection between race and moral character.