Das Zeitalter der Algorithmen
Das letzte Jahrzehnt in unserer Branche lässt sich vielleicht am besten mit dem Einzug der mobilen Forschung charakterisieren. Das Thema wurde, – zunächst zaghaft, später immer redundanter -, in allen Fachzeitschriften und auf allen Konferenzen bis zur Ermüdung gespielt. Es gibt freilich nach wie vor noch Optimierungsbedarf, aber unterm Strich können wir recht zufrieden sein. Immerhin kommt man heute kaum noch daran vorbei, seine Methode für mobile Endgeräte zu optimieren.
Die Visionäre unter uns drängen dagegen bereits mit dem nächsten großen Thema auf die Konferenzen und künden von Data Lakes, Machine Learning und Datenvisualisierungen. Das Zeitalter der Algorithmen steht uns bevor! Und tatsächlich erinnert die gegenwärtige Situation ein bisschen an die Jahre, als Mobile Research erste Aufmerksamkeit fand. Alle reden darüber. Keiner hat noch richtig Ahnung. Jeder weiß, dass das Thema nicht weggehen wird. Und alle fragen sich, wie unsere Rolle in dieser neuen Welt sein wird? Wird Marktforschung als Handwerk überflüssig, sobald es Ergebnisse auf Knopfdruck gibt?
Die Black Box ist kaputt
Um dieser Frage nachzugehen, müssen wir uns nur fragen, woher die Daten und Algorithmen eigentlich kommen, mit denen uns Computer in Zukunft den Rang ablaufen sollen. Das, was Maschinen wissen, wissen sie nämlich immer von Menschen. Irgendjemand hat zu irgendeinem Zeitpunkt die Daten selbst erhoben, mit irgendwelchen Tools eine Messung durchgeführt oder wenigstens eine Syntax dafür geschrieben. Es sind eben diese Daten, mit denen Algorithmen ihre Modelle trainieren.
Man muss noch nicht einmal in diese Black Boxes hineinsehen, um zu erkennen, dass dabei etwas ganz grundlegend schiefläuft. Das Schicksal von Microsoft’s Twitterbot Tay.ai ist hinlänglich bekannt: Nachdem er 2016 wenige Stunden lang in der Interaktion mit anderen Usern lernen konnte, welcher Umgangston im Netz herrscht, wurde der Bot aufgrund eigener rassistischer und sexistischer Kommentare wieder offline genommen. Auch die Spracherkennung von Google hat ihre Probleme. Sie tut sich laut einer Studie von 2016 mit männlichen Stimmen leichter, als mit weiblichen Stimmen. Vermutlich waren hier die Trainingsdaten zur Spracherkennung nicht richtig ausbalanciert; Frauen hatten in der Folge jedenfalls ein schlechteres Nutzungserlebnis als Männer. Und wer (bis heute) auf Google Images nach “professional haircut” sucht, bekommt vorwiegend weiße Männer angezeigt. Der “unprofessional haircut” führt dagegen eher zu Bildern von schwarzen Frauen und spiegelt den Alltagsrassismus vieler Internetnutzer wieder. Die relevantesten Suchergebnisse mit den meisten Klicks werden vom Algorithmus ganz automatisch nach oben gerankt.
Kuriose und empörende Beispiele dieser Art gibt es zuhauf. Sie werfen ein Licht auf die Frage, woran Künstliche Intelligenz in der Praxis eigentlich scheitert. In all diesen Negativbeispielen verstärken die Algorithmen nämlich ungebremst einen Bias, der gesellschaftlich gar nicht erwünscht ist. Mal spiegeln die Trainingsdaten einfach nur zu perfekt eine Realität wider, in der Sexismus und Rassismus noch weit verbreitet sind; mal ist der Grund für unzulängliche Trainingsdaten einfach nur die Unbedarftheit der Entwickler und hat ganz praktische Gründe. Algorithmen aber haben kein inneres Korrektiv, kein Gefühl für Anstand oder Normen, keine Fähigkeit die eigenen Vorurteile kritisch zu reflektieren. Das, was Maschinen wissen, wissen sie eben immer von Menschen. Deshalb ist der sogenannte “Machine Bias” im Grunde eigentlich immer ein “Human Bias”.
Alas, with great power comes great responsibility!
Sorge muss uns dabei erst einmal bereiten, mit welcher Geschwindigkeit sich solche Verzerrungen in unseren Systemen festschreiben. Niemand muss heute noch den Algorithmus oder die Trainingssätze verstehen, um über Schnittstellen auf die entsprechenden Services zuzugreifen. Amazon, Google, IBM, Microsoft und viele andere Anbieter bieten Artificial Intelligence as a Service (AIaaS) an. Mehr noch, die freie Verknüpfung dieser Angebote bringt immer neue Datensätze hervor, die oftmals die Grundlage für wieder neue Trainingsdaten legen. Verzerrungen pflanzen sich fort und setzen sich in den Modellen fest.
Die Demokratisierung dieser Technologien hat also ihre Kehrseiten – aufhalten können werden wir sie trotzdem nicht. Dennoch ist es immer leichter einmal etwas richtig zu lernen, als später etwas Falsches wieder zu verlernen, denn Wissen wirkt strukturgenetisch. Das ist auch, und gerade bei Künstlicher Intelligenz nicht anders. Insofern ist es höchste Zeit, dass die Welt der Algorithmen endlich die richtigen Dinge lernt, denn niemand möchte in einer Welt leben, in der unsere smarten Geräte latent mit Vorurteilen behaftet sind!
Die Domestizierung der Algorithmen
Die Lösung für all diese Probleme wird deutlicher, wenn man sich das Muster vor Augen führt, mit dem all diese Effekte entstehen: Garbage in, garbage out! Wenn schon die Trainingsdaten verzerrt sind, dann braucht man sich nicht über die entsprechenden Ergebnisse wundern. Und an dieser Stelle dringen wir plötzlich ganz tief in die Domäne der Marktforschung ein; es geht hier nämlich um Datenqualität.
Dabei müssen wir zwei Fälle unterscheiden: Erstens, dass die Trainingsdaten eine systematische Verzerrung aufweisen, die beseitigt werden muss, bevor Algorithmen daran ihre Modelle ausbilden. Damit wird sich wohl (gerade auch vor dem Hintergrund der gegenwärtigen Diskussion) jeder Marktforscher identifizieren können. Wenn die Trainingsdaten, -zweitens -, aber tatsächlich repräsentativ für die Wirklichkeit sind, die Wirklichkeit selbst aber unzumutbar ist? Wenn die Daten aus diesem Grund einfach nicht verwendet werden können, dann müssen diese vor der Verwendung bereinigt und gewichtet werden. Schließlich sollten wir Algorithmen immer für die ideale Gesellschaft trainieren, in der wir gerne leben möchten, und nicht für diejenige, in der wir leider manchmal tatsächlich noch leben.
Wo bleibt die Forschung?
Das ist freilich harter Tobak für alle, die sich aus normativen Fragen bislang lieber herausgehalten haben. Ist nicht gerade Marktforschung in besonderer Weise der Neutralität verpflichtet?
Fest steht aber auch, dass jede Technologie immer auch normativ wirkt: sie kann alle Menschen am Fortschritt teilhaben lassen, sie kann aber auch bestehende Machtverhältnisse stabilisieren und ausbauen. Dabei haben wir die Wahl, ob wir eine der Möglichkeiten bewusst ergreifen oder den Lauf der Dinge einfach für uns entscheiden lassen. Insofern steht es uns sicherlich gut, wenn wir uns in Zukunft stärker bei gesellschaftspolitischen Fragen einmischen und uns nicht hinter der “Neutralität des Forschers” verstecken.
Es gibt jedoch noch einen zweiten Aspekt, denn die Algorithmen scheitern ja nicht an der Mehrheit der Nutzer. Sie scheitern an jenen Minderheiten, die vom gesellschaftlichen Normalfall abweichen, was auch immer das gerade ist (derzeit wohl eine von Männern dominierte weiße Mittelschicht). Für uns bedeutet das, dass wir bei vielen Fragestellungen viel mehr Diversity in unsere Zielgruppen bekommen müssen. Eine kostengünstige Stichprobe dagegen, die sich ausschließlich aus der Mehrheitsgesellschaft speist, bleibt hinter ihren Möglichkeiten zurück. Auch das kann mit Datenqualität gemeint sein.
Wessen Brot ich ess, dessen Lied ich sing.
Das klingt vielleicht erst einmal nach gut gemeinten, wenngleich lästigen Aufgaben. Dabei gibt es bereits gute Anreize, diese neue Welt der Forschung zu beschreiten. Digitale Unternehmen haben nämlich ein ureigenes kommerzielles Interesse daran, die latente Benachteiligung einzelner Kundengruppen auszumerzen. Diskriminierung kostet echtes Geld.
Zunächst einmal kann Konsumentenforschung dabei helfen, einen möglichen Machine Bias digitaler Produkte aufzudecken. Das beschränkt sich übrigens nicht nur auf Webseiten und Apps – auch Alltagsprodukte wie automatische Seifenspender können von Rassismus betroffen sein. Wenn bestimmte Nutzergruppen aber nicht auf ihre Kosten kommen, dann schlägt sich das direkt auf die Zufriedenheit der Kunden und deren Zahlungsbereitschaft, und insofern auch auf die Umsätze des Unternehmens nieder (vom Image der Marke einmal ganz zu schweigen).
Auch in der Werbung sind Verzerrungen unerwünscht. Wer schon einmal mit Lookalike-Kampagnen zu tun hatte, weiß um die Bedeutung einer guten Stichprobe. Hier werden die Anzeigenplätze auf Webseiten nämlich abhängig vom errechneten Zielgruppenfit ausgespielt – und Grundlage dieser Berechnung ist eine Stichprobe, die sog. Seed Audience. Der Algorithmus verstärkt dabei alle Verzerrungen, die in den Ausgangsdaten enthalten sind.
Ein letztes Beispiel sind natürlich die Trainingsdaten selbst, mit denen Algorithmen lernen sollen, sich die Wirklichkeit irgendwann selbständig anzueignen. Datensätze zur Spracherkennung in denen Netzjargon oder Jugendsprache fehlen, dafür aber etwa eine Bildungssprache überrepräsentiert ist, füttern die Algorithmen mit einem falschen Bild von der Wirklichkeit.
Auf die Plätze, fertig, los!
All das sind Themen, in denen wir Marktforscher bereits heute so einiges anzubieten haben. Und verrückterweise brauchen wir deshalb vielleicht auch keine grundlegend neuen Methoden, um die kaputte Welt der Algorithmen zu heilen. Ganz im Gegenteil, die Maschinen brauchen uns, damit sie am Ende das machen, was sie machen sollen.
Sollten wir also Angst vor dieser neuen Welt der Algorithmen haben? Wohl eher nicht. Aber wir müssen uns endlich bei Fragen der Datenqualität einmischen, damit diese neue Welt nicht mit Convenience-Samples und blinder DIY-Euphorie die schlechteste Version unserer Gegenwart wird.
Dieser Artikel ist zuerst auf marktforschung.de erschienen.