Wie Sie als Führungskraft gute Entscheidungen treffen: Data & Analytics erfordert Risiko-Kompetenz

Wie Sie als Führungskraft gute Entscheidungen treffen: Data & Analytics erfordert Risiko-Kompetenz

Wie Sie als Führungskraft gute Entscheidungen treffen

Teil 1: Data & Analytics erfordert Risiko-Kompetenz

Auf welche Kunden sollte sich ein Unternehmen fokussieren? Wie kann man die beste Kandidatin für eine Position auswählen? Wie sollten Stock-Optionen verteilt werden? Wo sollte der Internationalisierungsprozess begonnen werden?
Tagtäglich sehen sich Geschäftsführer_innen, Gründer_innen und Manager_innen, Führungskräfte im allgemeinen, mit der Herausforderung konfrontiert, gute Entscheidungen treffen zu müssen. Eine gute Entscheidung erfordert natürlich Voraussicht im wortwörtlichen Sinne: Wer besser abschätzen kann, wie sich die Zukunft entwickelt, hat einen Vorteil. Klar ist allerdings auch: Absolute Sicherheiten gibt es nicht – die Kristallkugel, die uns verrät, was in der  Zukunft passiert, wenn wir uns für die eine Möglichkeit entscheiden, muss erst noch erfunden werden. “Vorhersagen sind schwierig, besonders über die Zukunft” soll Niels Bohr gesagt haben. Die Frage lautet also: Wie können wir Entscheidungen treffen, um in Vorhersagen möglichst oft richtig und möglichst selten daneben zu liegen?

Klassische Entscheidungstheorie

Das Rezept “klassischer” Theorien rationaler Entscheidungen (Von Neuman & Morgenstern, 2007) liest sich einfach: Berechne den Erwartungswert aller Optionen. Konkret hieße das:

  1. Liste die erwartbaren Ergebnisse aller möglichen Entscheidungsoptionen auf und ordne ihnen einen Zahlenwert zu.
  2. Schätze die Wahrscheinlichkeit, dass das Ergebnis auch tatsächlich eintritt, wenn du die entsprechende Option wählst.
  3. Multipliziere der Zahlenwert der Ergebnisse mit der Wahrscheinlichkeit, um den Erwartungswert zu berechnen.
  4. Wähle die Option mit dem höchsten Erwartungswert.

Die Empfehlung an den Homo Oeconomicus lautet also: Sammle möglichst viele Informationen und wende möglichst viel Zeit und Ressourcen auf, um gute Entscheidungen zu treffen. Soviel zur Theorie. In der Praxis einer immer komplexeren, dynamischeren und schnelleren Wirtschaftswelt entscheiden Akteure oft unter erheblichem Zeitdruck, begrenzten personellen und finanziellen Ressourcen und mit spärlichen Informationen. Die Berechnung von “optimalen” Entscheidungsoptionen ist unter diesen Bedingungen illusorisch.

Risiko und Unsicherheit

Diese Diskrepanz zwischen Theorie und Praxis lässt sich mit der Unterscheidung von Risiko und Unsicherheit (vgl.: Knight, 1921; Keynes, 1921) erklären. Idealisierte Entscheidungsmodelle in den Wirtschaftswissenschaften, aber auch viele Experimente in der psychologischen Forschung zu Entscheidungen und der Verhaltensökonomik unterstellen eine Situation des Risikos: Alle möglichen Ergebnisse, ihre Wertigkeit und die dazugehörigen Wahrscheinlichkeiten seien bekannt. Unter diesen Bedingungen funktioniert die Berechnung von Erwartungswerten natürlich wunderbar – man kann z.B. sehr gut berechnen, wie viel Geld man im Erwartungswert verliert, wenn man Lotto oder Roulette spielt. Im Kontrast dazu bezeichnet Unsicherheit Situationen, in denen eben nicht alle Faktoren bekannt oder quantifizierbar sind – oder zumindest genau genug geschätzt werden können. Die Bestimmung von Erwartungswerten ist somit in Unsicherheit schwierig bis unmöglich. Gleichzeitig werden die meisten (wirtschaftlichen und sonstigen) Entscheidungen unter Unsicherheit getroffen.

Entscheidungen unter Risiko: Data & Analytics

Die Digitalisierung gesellschaftlicher und wirtschaftlicher Prozesse scheint die Situation allerdings zu ändern: Die Entstehung großer Datenmengen (Big Data) und die Entwicklung elaborierter statistischer Algorithmen verspricht, durch die Analyse verfügbarer Daten neue Zusammenhänge, Wahrscheinlichkeiten und Entscheidungsoptionen offen zu legen, um ökonomische Entscheidungen zu unterfüttern. Durch die Anhäufung von Datenmengen (und eine korrekte Analyse) kann eine Situation mit hoher Unsicherheit gewissermaßen in Richtung einer Risikosituation (im Sinne von Knight und Keynes) verschoben werden. Dies ermöglicht es wiederum, mit statistischen Verfahren ziemlich genaue Vorhersagen und damit gute Entscheidungen zu treffen.

In vielen Kontexten ermöglicht dieser Ansatz vormals ungeahnte Möglichkeiten. Das Geschäftskonzept von Unternehmen wie facebook, Google oder Amazon baut nahezu vollständig auf den Vorteilen der durch Big Data gewonnenen Erkenntnisse auf. Laut der International Data Corporation werden die globalen Investitionen in Data & Analytics (D&A) bis 2020 auf über $200 Milliarden wachsen (2017).

D&A erfordert Risiko-Kompetenz

Das Vorhandensein von Daten und Statistiken ist allerdings auch noch kein Garant für gute Entscheidungen. Die Einschätzung der Datenqualität und die Interpretation statistischer Analysen für gute Entscheidungen erfordern Risikokompetenz (risk literacy; auch: statistische Kompetenz) – insbesondere bei den Entscheidern eines Unternehmens.

In der Praxis bedeutet das zuallererst die Fähigkeit einschätzen zu können, ob die erhobenen Daten tatsächlich das messen, was für uns wichtig ist. Nur weil Zahlen zur Verfügung stehen, heißt das noch lange nicht, dass damit auch alles gemessen wurde, was eigentlich für das Unternehmen relevant ist oder dies adäquat wiedergeben (Garbage in – garbage out)! Die Verfügbarkeit von “harten” Zahlen kann den trügerischen Eindruck von Sicherheit geben.

Ein Beispiel aus dem Bereich der Stadtplanung in Boston illustriert die Falle selektiver Datenerhebung. Um die Ausbesserung der vielen Schlaglöcher in der Stadt zu verbessern, führte die Stadt Boston die sogenannte StreetBump App ein, die durch Bewegungssensoren und GPS automatisch Schlaglöcher ortet, damit diese schnell repariert werden können (vgl.: Crawford, 2013). Da ältere und auch ärmere Teile der Bevölkerung allerdings seltener über Smartphones verfügen, wurden die verfügbaren Daten jedoch verzerrt – wodurch die Gefahr entsteht, dass Schlaglöcher gerade dort nicht repariert werden, wo es am nötigsten gewesen wäre (die Stadt Boston hat dieses Problem allerdings bemerkt und versucht, diese Verzerrung aufzufangen).

Kognitive Verzerrungen

Selbst wenn die verfügbaren Daten an sich brauchbar sind (das heißt, es wurde gemessen, was man auch messen wollte und die erhobenen Daten sind nicht verzerrt), lauern Denkfallen, die zu schlechten Entscheidungen führen können. Daniel Kahneman und Amos Tversky stellten 1979 die Prospect Theory vor und begründeten die Verhaltensökonomik, mit der sie einige dieser Denkfallen beschrieben und erklärten. In den letzten Jahrzehnten sind viele weitere systematische Denkfehler (engl.: Cognitive Biases; wörtlich: Kognitive Verzerrungen) dokumentiert worden. Diese “Verzerrungen” sind oftmals das “Nebenprodukt” von durchaus sinnvollen Gedanken unseres Gehirns, die aber in Situationen von Risiko mit abstrakten, kontextlosen Informationen in die Irre führen können. Einige Beispiele illustrieren, wo Gefahren durch kognitive Verzerrungen lauern (Eine Liste aller bekannten kognitiven Biases kann auf Wikipedia abgerufen werden):

Regress zur Mitte

Angenommen, ein Verkaufsteam hat im letzten Quartal außergewöhnlich gute Ergebnisse erzielt und wurde überschwänglich gelobt. In diesem Quartal liegen die Ergebnisse allerdings deutlich hinter dem, was man aufgrund der letzten Erfolge erwarten würde (und entspricht vielleicht eher dem vorletzten Quartal). Ist das Lob dem Team zu Kopf gestiegen und hat zu Bequemlichkeit geführt? Das muss keineswegs der Fall sein. Der (potenzielle) Denkfehler besteht darin, dass der letzte verfügbare Datenpunkt gerne als Ausgangspunkt für die Beurteilung von Leistung genommen wird. Da in Bereichen wie dem Verkauf aber immer eine gewisse Zufallskomponente eine Rolle spielt, ist nach einer außergewöhnlich guten (oder schlechten) Leistung eine “natürliche” Annäherung an das (eigentliche) Mittelmaß zu erwarten. Dies kann zu der Annahme führen, dass die zu dem Zeitpunkt getroffene Maßnahme (z.B. Lob oder Tadel) ursächlich war für darauf folgende Veränderungen. Maßnahmen werden jedoch oftmals ergriffen, wenn KPIs wie Verkaufszahlen besonders stark von einem längerfristigen Mittelmaß variieren – und der Effekt dieser Maßnahme falsch eingeschätzt. Umgekehrt bedeutet der Anstieg von Leistung nach einem Tadel also auch nicht unbedingt, dass die Kritik zu einer besseren Leistung geführt hat. Der Regress zur Mitte ist in vielen Geschäftssituationen relevant und auch im Spitzensport, etwa Baseball, gut dokumentiert (z.B. Morrison & Schmittlein, 1981).

Confirmation Bias

Confirmation Bias bezeichnet unsere Tendenz, nach Daten zu suchen, die unsere vorherige Meinung bestätigen (z.B.: Nickerson, 1998). Dies kann bereits zu der oben beschriebenen Verzerrung eines Datensatzes führen – etwa, wenn Mitarbeiter angewiesen werden, nach Daten zu suchen, welche die Ideen der Geschäftsführerin bestätigen. Aber auch bei Entscheidungen mit brauchbaren Daten kann der Confirmation Bias dazu führen, dass die Zahlen, welche z.B. die ursprüngliche Strategie stützen, stärker berücksichtigt werden.

Sind beispielsweise Daten gesammelt worden, um festzustellen, ob mehr Geld in R&D für die Entwicklung an einer neuen Produktlinie aufgenommen werden sollte, ist eine häufige Tendenz, selektiv nach Anhaltspunkten zu suchen, warum die favorisierte Strategie weiter verfolgt werden sollte. Das bedeutet dann nicht nur, dass Ressourcen für die Datenakquise verschwendet wurden, sondern führt ohne weiteres zu wirtschaftlich schlechten Entscheidungen. Eine bessere Strategie ist in diesen Situationen oftmals die der Falsifikation (Widerlegung): Was spricht gegen meine ursprüngliche Strategie?

Framing Effekte

Ein weiteres bekanntes Beispiel für eine kognitive Verzerrung ist der sogenannte Framing Effect: Je nachdem, wie bestimmte Zahlen beschrieben werden, tendieren wir zu unterschiedlichen Entscheidungsverhalten – obwohl die Zahlen die gleichen sind. Das führt zu einer Reihe von Entscheidungstendenzen (Levin et al., 1998):

  • Wir tendieren dazu, eine Option positiver zu bewerten, wenn eine Eigenschaft positiv ausgedrückt wird (z.B.: Ein Produkt ist “95% fettfrei” im Gegensatz zu “enthält 5% Fett”).
  • Wenn wir die Wahl haben zwischen einem kleineren, aber sicheren Gewinn (z.B. 100€) und einem unsicheren, aber größeren Gewinne (z.B. eine 50% Chance auf 200€), tendieren wir dazu, die sichere Variante zu wählen (Risikoaversion). Wird diese Wahl aber als Verlust ausgedrückt (also 100€ sicher verlieren oder 200€ mit einer Wahrscheinlichkeit von 50% verlieren) kehrt sich das Verhalten um, sodass wir eher gewillt sind, zu “pokern”.
  • Wir sind eher motiviert zu handeln, wenn uns ein Verlust angedroht wird (z.B. eine Strafzahlung, wenn wir später handeln), als wenn uns ein Gewinn angeboten wird (z.B. ein Nachlass für früheres Handeln). So kaufen wir eher ein Produkt, wenn der/die Verkäufer_in uns aufzeigt, auf was wir verzichten, wenn wir nicht kaufen, als wenn er/sie aufzeigt, was wir gewinnen, wenn wir kaufen.

Diese Tendenz kann dann zum Problem werden, wenn uns – bewusst oder unbewusst –  bei der Präsentation von Entscheidungsoptionen nur ein Framing angeboten wird und so (geschäftliche) Entscheidungen von eigentlich unwichtigen Faktoren beeinflusst werden.

Kognitive Verzerrungen können bei Weitem nicht nur im Zusammenhang mit Data & Analytics problematisch sein (vgl.: Bazerman & Moore, 2008), doch sind sie hier besonders relevant: Zum einen, weil Entscheidungen aufgrund großer Datenmengen am ehesten Risiko-Situationen (nach Knight und Keynes) entsprechen und zum anderen, weil das Vorhandensein vieler Daten und Statistiken ein Gefühl von Sicherheit geben können, das nicht immer gerechtfertigt ist – und so unter Umständen zu kostspieligen Fehlern führen. Die übermäßige Selbstsicherheit in Bezug auf die eigene Vorhersagekraft stellt übrigens einen weiteren Bias dar: Overconfidence (Malmendier & Tate, 2005).

Was heißt das für die Praxis?

Für Risikosituationen bzw. bei der Verwendung von Data & Analytics ist es sinnvoll, ein grundlegendes Verständnis für Statistik zu entwickeln. Das muss nicht bedeuten, dass Sie Formeln auswendig lernen: Vielmehr geht es darum, einige Grundkenntnisse zu gewinnen und eine gewisse Kompetenz bei der Einschätzung von statistischen Ergebnissen zu entwickeln: Wie gut messen die mir vorliegenden Daten das, was für mich wichtig ist? Kann man von einer Stichprobe gut verallgemeinern oder ist sie möglicherweise zu klein, verzerrt oder hat wichtige Faktoren außer Acht gelassen? Zusätzlich ist es hilfreich, wenn Sie sich mit den wichtigsten kognitiven Verzerrungen (Biases) vertraut machen und sich und Ihre Mitarbeiter_innen darin trainieren, diese zu vermeiden (Debiasing).

Hier geht es zum zweiten Teil.

Quellen

Bazerman, M. H., & Moore, D. A. (2008). Judgment in managerial decision making.

Crawford, K. (2013): The Hidden Biases in Big Data. Harvard Business Review

URL: https://hbr.org/2013/04/the-hidden-biases-in-big-data; abgerufen: 28.09.2017

International Data Corporation (2017). Worldwide Semiannual Big Data and Analytics Spending Guide. URL: https://www.idc.com/getdoc.jsp?containerId=IDC_P33195; abgerufen: 28.09.2017

Kahneman, D., & Tversky, A. (1979). Prospect theory: An analysis of decision under risk. Econometrica, 47, 263-291.

Keynes, J. M. (1921). A Treatise on Probability. Vol. 8 of Collected Writings (1973 ed.).

Knight, F. H. (1921). Risk, uncertainty and profit. New York: Hart, Schaffner and Marx.

Morrison, D., & Schmittlein, D. (1981). Predicting Future Random Events Based on Past Performance. Management Science, 27(9), 1006-1023.

Levin, I. P., Schneider, S. L., & Gaeth, G. J. (1998). All frames are not created equal: A typology and critical analysis of framing effects. Organizational Behavior and Human Decision Processes, 76, 149-188.

Malmendier, U., & Tate, G. (2005). CEO overconfidence and corporate investment. The Journal of Finance, 60(6), 2661-2700.

Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of general psychology, 2(2), 175.

Von Neumann, J., & Morgenstern, O. (2007). Theory of games and economic behavior. Princeton university press.

No Comments

Post A Comment