David gegen Goliath

Auch vor diesen Wahlen versicherten Politiker aller Parteien zweckoptimistisch, dass Umfrageergebnisse auf keinen Fall der Kompass für ihre Politik seien und man den Erkenntnissen der Demoskopie ohnehin nicht so recht über den Weg traue. Das spricht natürlich erst einmal für die Integrität unserer Politiker, auch wenn es nicht einer gewissen Ironie entbehrt, dass Marktforschung in Zeiten von Politikverdrossenheit wesentlich näher an der vox populi sein kann, als demokratisch herbeigeführte Wahlergebnisse. Die Vorbehalte gegenüber der Meinungsforschung dagegen treffen uns mitten ins Herz. Hier wird unsere Branche nicht nur öffentlich gegenüber potenziellen Studienteilnehmern diskreditiert, sondern zudem auch ein Gründungsmythos der kommerziellen Meinungsforschung angekratzt.

Die Legende nimmt vor ziemlich genau hundert Jahren ihren Anfang. Ab 1916 nämlich führte die amerikanische Wochenzeitschrift The Literary Digest unter ihren rund 10 Millionen Lesern postalische und telefonische Befragungen durch, um den Ausgang der Präsidentschaftswahl vorherzusagen. Bei den fünf Wahlen bis 1936 lag sie damit auch immer richtig, in eben diesem Jahr jedoch war die Zeitschrift  trotz der 2,4 Millionen Interviews vollkommen auf dem Holzweg. Stattdessen konnte George Gallup mit “nur” 50.000 Befragten das Wahlergebnis korrekt prognostizieren. Wie bei David gegen Goliath wurde der übermächtige Datenriese von einer kleinen Quotenstichprobe geschlagen. Von der Siegprämie dieses Kampfes, der Deutungshoheit über gesellschaftliche Entwicklungen, zehrt unsere Branche jedenfalls bis heute.

Seitdem ist die Wahlprognose zur Königsdisziplin der Meinungsforschung geworden. Im Vorfeld jeder Wahl wird der Gründungsmythos wie ein identitätsstiftender Ritus symbolisch wiederholt, um das Leistungsversprechen der Marktforschung zu erneuern und das eigene Selbstwertgefühl zu bekräftigen. Und tatsächlich gibt es auch keine bessere Gelegenheit als eine Wahl, um die Güte der eigenen Erhebungsinstrumente so einfach wie publikumswirksam vorführen: eine gute Wahlprognose bürgt immer auch für die Forschungsgüte des ganzen Instituts.

Gerade aber weil die Prognose seit vielen Jahrzehnten untrennbar mit der Marktforschung verbunden ist, mutet es geradezu paradox an, dass sich die Güte unserer Vorhersagen im Laufe der Zeit kaum verbessert hat. Ein wichtiger Grund dürfte die zunehmende Komplexität bei der Stichprobenziehung sein: selbst die Onlineforschung kommt längst nicht dorthin, wo telefonische Befragungen vor langer Zeit einmal waren. Dieser Versuch, die Schwachstellen der einzelnen Methoden gegeneinander auszuspielen, dürfte dabei jedoch eher ein Teil des Problems, als dessen Lösung sein. Die postdigitale Gesellschaft kennt nämlich kein alleiniges Leitmedium mehr, das für repräsentative Ergebnisse bürgt. Wer die Menschen heutzutage erreichen möchte, kann sich nicht ausschließlich auf Telefon, Email oder Push-Nachrichten verlassen. Dumm nur, dass die Marktforschung nach wie vor in den Schubladen ihrer traditionellen Erhebungsmethoden denkt.

Vor diesem Hintergrund wird die Kunst der Stichprobenziehung leichtfertig für tot erklärt. In Datenbergen unbekannter Herkunft werden plötzlich vorlaufende Indikatoren gefunden, die zwar wie der Mierscheid-Index jeglicher Wissenschaft entbehren, aber trotzdem irgendwie auf wundersame Weise funktionieren. Und seriöse Zeitungen weisen ihre journalistische Qualität mittlerweile durch den verschämten Hinweis aus, dass bei Big-Data-Studien die Fallzahl von mehreren Millionen zwar nicht repräsentativ sei, aber trotzdem ziemlich robuste Ergebnisse liefern. Hier kultiviert man die eigene Naivität, um eine Schlagzeile zu retten. Goliath ist zurück!

Es ist jedoch nicht ganz klar, ob wir darüber erschrocken oder erfreut sein sollten, schließlich möchten viele unserer Fachkollegen bei Big Data gerne mitspielen. Außerdem werden im Moment auch zunehmend wissenschaftliche Verfahren in Stellung gebracht, bei denen ein repräsentatives Sample für die Vorhersage nur nebensächlich ist: Prognosemärkte, Expertenpanels oder Predictive Analytics. Auch der jüngst bejubelte Bestseller “Superforecasting” von Tedlock und Gardner schlägt in diese Kerbe. Den Marktforschern alter Schule muss diese Entwicklung dagegen wie ein Verrat an unserem Gründungsmythos vorkommen. Doch wer kann schon ernsthaft den Kampf gegen den Niedergang der Stichprobe antreten?

David gegen Goliath personifizieren die Gegenpole des strategischen Denkens in der Antike: Goliath steht für Überlegenheit durch physische Stärke und Zwang, David für Überlegenheit durch List und Intelligenz. Und so steht auch unsere Branche gerade am Scheideweg zwischen Großkonzernen und Forschungsboutiquen, zwischen Spitzentechnologie und Spitzenqualifikation, zwischen Datenbergen und klugen Stichproben, zwischen optimierten Prozessen und individualisierten Dienstleistungen. Vielleicht muss jeder für sich selbst entscheiden, welche dieser Alternativen unserer Branche besser zu Gesicht steht. Doch es dürfte auf der Hand liegen, warum uns unser Selbstverständnis als Marktforscher oft so renovierungsbedürftig erscheint: entweder schaffen wir es, unseren Gründungsmythos der Stichprobenkompetenz zu verteidigen, oder aber wir erfinden unsere Profession neu. In jedem Fall dürfen wir gespannt sein, wie der Kampf zwischen David und Goliath ausgeht!

Dieser Artikel ist zuerst auf marktforschung.de erschienen.