Die Roboter-Gewerkschaft „RLwB-HsF-AesF“ setzt sich seit kurzem dafür ein, dass auch die Arbeit von Computersystemen angemessen entlohnt wird. Außerdem soll der natürliche Hang von Robotern zur Selbstausbeutung, sowie exzessiven Überstunden endlich durch geregelte Arbeitszeiten begrenzt werden.
Diese Nachricht in der Computerwoche war natürlich nur ein Aprilscherz. Sie greift jedoch die realen Ängste auf, mit denen viele Menschen den neuen Technologien des digitalen Zeitalters begegnen. Deshalb fordert selbst Bill Gates eine Robotersteuer für Unternehmen, damit der Staat, wenn die Automatisierung erst einmal massenhaft Arbeitsplätze vernichtet hat, weiterhin seine Sozialsysteme finanzieren kann – diesmal kein Aprilscherz.
Auch in unserer Branche dreht das Schreckgespenst seine Runden und rasselt ordentlich mit den Ketten. Mit großer Regelmäßigkeit wird spekuliert, welche Glieder der Wertschöpfungskette automatisierbar sind: trifft es wohl eher die Datenerhebung, die Auswertung oder die Berichtlegung? So sind zum Beispiel laut einer Studie der Oxford University mit Deloitte die Stellen als Interviewer ziemlich wahrscheinlich von Automatisierung bedroht.
Aber woher kommen diese Ängste? Ausgangspunkt ist häufig Moore’s Law, demzufolge sich die Rechenleistung von Computern alle zwei Jahre verdoppelt. Dieses Gesetz bewährt seit den 1960er-Jahren erstaunlich gut und nährt somit die Befürchtung, auch die künstliche Intelligenz könne sich exponentiell entwickeln und so innerhalb kürzester Zeit den Menschen überflügeln.
Abgesehen davon, dass auch Moore’s Law wohl in absehbarer Zeit an seine technischen und wirtschaftlichen Grenzen stoßen wird, liegt ein Missverständnis zugrunde, wenn man Rechenleistung mit Intelligenz verwechselt. Tatsächlich sind die Anwendungen künstlicher Intelligenz immer hochgradig spezialisiert und schaffen es auch nur in ihrem begrenzten Problemfeld, die menschliche Leistung zu übertreffen, zum Beispiel beim Schach spielen oder Auto fahren. Es geht nämlich gar nicht um Intelligenz in einem umfassenden Sinne, sondern nur um die Lösung klar begrenzter Probleme mit technischen Mitteln. Die Fähigkeit allerdings, auf unterschiedliche (womöglich sogar noch unbekannte) Probleme adäquat reagieren zu können, bleibt auch weiterhin dem Menschen vorbehalten.
Immerhin ist es gut möglich, dass uns künstliche Intelligenz schon bald bei einzelnen Aufgaben helfen kann, etwa Stichproben zu ziehen, Charts zu erstellen oder gar eine Management Summary abzuleiten, – der Blick fürs große Ganze, insb. den Kontext einer Studie, bleibt den Algorithmen aber verstellt. Und daher wird es auch in Zukunft menschliche Studienleiter brauchen, die die Qualität der Untersuchung sicherstellen und Verantwortung für die Studie übernehmen.
Umgekehrt kann man sich künstliche Intelligenz vielleicht als den besten Praktikanten vorstellen, den man je hatte: schnell, zuverlässig und kostengünstig, aber dennoch nicht vor handwerklichen Fehlern gefeit. Und tatsächlich ist der formelhafte Charakter von intelligenten Algorithmen keine hinreichende Bedingung dafür, dass die Ergebnisse objektiv und unparteiisch sind.
Krasse Beispiele für Verzerrungen bei künstlicher Intelligenz gibt es genug: Microsofts Chat-Bot Tay erwarb sich binnen weniger Stunden ein derart rassistisches und sexistisches Vokabular, dass er von seinen Machern kurz darauf wieder vom Netz genommen werden musste. Auch bei Google hat man mit derartigen Verzerrungen zu kämpfen: wer nach „professional haircut“ sucht, bekommt vorwiegend weiße Männer präsentiert, – wer dagegen nach „unprofessional haircut“ sucht, findet hauptsächlich dunkelhäutige Frauen.
Systeme künstlicher Intelligenz lernen aus der Resonanz ihrer Umwelt und passen sich kontinuierlich daran an. Vorurteile werden auf diese Wiese unreflektiert übernommen und potenziell sogar noch verstärkt. Es kommt zu einem „Machine Bias“. Dabei muss die Verzerrung nicht unbedingt schon im Testsample vorhanden sein, mit der die künstliche Intelligenz unter kontrollierten Bedingungen von Menschen angelernt wurde – etwa wie Objekte richtig klassifiziert werden. Nicht obwohl, sondern gerade weil Maschinen selbständig lernen, weichen ihre Ergebnisse irgendwann von den menschlichen Vorstellungen ab – im Positiven, wie im Negativen. Auch deshalb braucht künstliche Intelligenz also immer eine menschliche Überwachung.
Die Zusammenarbeit mit Systemen künstlicher Intelligenz wird unser Berufsbild sicherlich verändern – und sei es nur durch die banale Frage, wie man Maschinen fachlich überhaupt anleitet. Dafür werden wir ohne Zweifel neue Qualifikationen benötigen und einige Positionen werden wohl leider auch obsolet. Es spricht aber eine ganze Reihe von Gründen dafür, dass künstliche Intelligenz unseren Berufsstand als Ganzes nicht überflüssig, sondern, ganz im Gegenteil, wichtiger denn je macht: keine Profession ist derart für Verzerrungen sensibilisiert und der Neutralität verpflichtet, wie die Marktforschung. Die menschliche Intelligenz ist einfach durch nichts zu ersetzen.
Dieser Artikel ist zuerst auf markforschung.de erschienen.