Schreckgespenst Algorithmus – hoch lebe die Theorie

Algorithmen und Machine Learning sind in aller Munde. Eine weitverbreitete Vorstellung ist, dass ein Algorithmus selbst lernt, welche Faktoren die verlässlichsten Prognosefaktoren sind und so aktueller und passender ist als herkömmliche Theorien bzw. Modelle mit ihren (oft literaturgestützten) Schlüsselvariablen.

Vollziehen wir diese potenziell dramatische Entwicklung an einem Beispiel nach: Wir fragen uns, welche Faktoren eine treibende Kraft nicht-kommerzieller Raumfahrt sind (gemessen an der Anzahl nicht-kommerzieller Trägerraketen, die in den Raum gesendet werden). Sie fragen sich vermutlich, warum wir nun gerade diese abgefahrene Forschungsfrage betrachten. Der Grund ist, dass datengetriebene Algorithmen eine faszinierende Antwort auf diese Frage gefunden haben: die Anzahl der in den USA vergebenen Doktorate in Soziologie!

Sicher wären Sie mit literaturgestützter Theorie zu anderen Faktoren gekommen. Vielleicht zweifeln Sie sogar an dieser faszinierenden Einsicht. Falls Sie Zweifel haben, betrachten Sie untenstehende Grafik. Die Soziologiedoktorate erklären die Trägerraketenentwicklung in geradezu phantastischer Weise, sie machen tatsächlich alle Berge und Täler der Raumfahrtaktivität fast deckungsgleich mit! (Weitere phantastische Zusammenhänge finden Sie hier.)

Worldwide non-commercial space launches. Source: Tylervigen.com
Worldwide non-commercial space launches. Source: Tylervigen.com

Natürlich werden einige von Ihnen zu zweifeln beginnen: Handelt es sich hier tatsächlich um einen robusten Zusammenhang? Gute Machine-Learning-Algorithmen sind darauf trainiert, robuste Zusammenhänge zu finden – so auch hier. Nehmen wir an, wir verwenden in der obigen Graphik nur die Daten der Jahre 1997 bis 2003, um den Algorithmus den Zusammenhang zwischen Soziologiedoktoraten und Trägerraketen zu «lehren». Würde der Algorithmus dadurch eine gute Prognosekraft für die Jahre nach 2003 aufweisen? Die Antwort ist ganz offensichtlich: ja. Der Zusammenhang ist ordentlich robust über die Zeit hinweg. Somit hat der Algorithmus tatsächlich den Robustheitstest bestanden!

Was haben wir also gesehen? Vielleicht erklärt sich der dargestellte Zusammenhang damit, dass beide Variablen von der Konjunktur der US-Wirtschaft und damit der Größe des US-Staatshaushaltes beeinflusst sind. Theoriegestütztes Nachdenken (oder ganz einfach auch gesunder Menschenverstand) lässt uns schnell erkennen, dass wir es hier mit einer Korrelation von zwei Größen zu tun haben, die nicht auf einen Kausalzusammenhang zurückzuführen ist. Genau dies trifft im Moment auf einen sehr großen Teil des sogenannten Machine-Learning-Paradigmas zu. Maschinen lernen ganz einfach, mittels Algorithmen diverse «Muster» in Daten zu erkennen. Doch sie sind blind gegenüber dem Unterschied zwischen Kausalität und Korrelation. Theorie- und modellgestützte Datenanalyse hingegen zielt auf Kausalität ab − und hat somit den Algorithmen potenziell etwas Wichtiges voraus.

Betrachten wir nun einen Themenbereich, das der Welt des Managements etwas näherliegt als die Weltraumfahrt: Wie steht es mit dem Zusammenhang von Corporate Social Responsibility (CSR) und der Profitabilität einer Firma?

Es gibt glühende Befürworter von CRS, die gerne aufzeigen, dass Firmen, welche CRS-Programme implementieren, auch eine höhere Profitabilität ausweisen. Algorithmen hätten keine Mühe, dieses Muster mit einer passenden Stichprobe von Firmen nachzuvollziehen. Ist CSR also der Schüssel zur Profitabilität? Bevor Sie bei derartigen Fragen eine datenbasierte und Algorithmen-unterstützte Schlussfolgerung ziehen, sollten Sie noch einmal das theoretische Denken einschalten. Es gibt den Anstoss, eine Anzahl fast schon leicht nörglerischer Fragen zu stellen: Zeigen die Daten denn wirklich, dass CSR-Programme zu einer höheren Rentabilität führen? Oder ist die Korrelation von beiden Variablen mit der Hypothese vereinbar, dass es tendenziell eher erfolgreiche Firmen mit einer hohen Profitabilität sind, die CSR-Programme starten, weil sie es sich leisten können? Sind die Firmen, die wir in unserer Stichprobe betrachten in Märkten tätig, in denen Konsumenten ganz besonders auf ethische Aspekte sensibilisiert sind? Und wie weit sind diese Erkenntnisse so auf Firmen in anderen Geschäftsfeldern übertragbar? Praktisch keiner der bestehenden Algorithmen des maschinellen Lernens gibt uns zuverlässige Hinweise zu den Antworten auf diese Fragen. Hier müssen Menschen ihren Kopf einschalten und «theoretisch» über diese Fragen brüten.

Recht viele Akademiker, tendenziell vor allem auch in den Geistes- und Sozialwissenschaften, vertreten die Ansicht, dass über die erwähnten Beispiele hinaus ausschliesslich theoriegestützte Kausalzusammenhänge wahren Erkenntnisgewinn bedeuten und somit von praktischem Nutzen sind. Sie bezeichnen den Algorithmus gern als Schreckgespenst. Sind Sie der gleichen Meinung? Wann erscheint Ihnen der Einsatz einer algorithmengetriebenen Analyse sinnvoll? Gelangen Sie hier zur Fortsetzung „Vorteil Algorithmus“.

Der Artikel ist im Original erschienen in
Zeitschrift für Organisationsentwicklung (ZOE) vom 15.04.2018, Heft 02, Seite 35 – 37, «Schreckgespenst Algorithmen – Das Ende der wissenschaftlichen Theorie? Eine Betrachtung» Link zum Original

 

Photo by Julius Drost on Unsplash

Don't miss our updates

Don't miss our updates - sign up to our weekly newsletter.

Please wait...

Thank you for signing up to our updates!

Über die Autorin / den Autor
Prof. Dr. Johannes Binswanger Johannes Binswanger's teaching and research focus is on how to make good decisions in firms and politics in today's economic world. He teaches the Economics module in the Executive MBA program at the Executive School of Management, Technology and Law.