Research data management
Judith Schneider, BWL

Wie grafische Darstellungen unsere Interpretation von Daten beeinflussen

Interview mit Prof. Dr. Judith Schneider zu den Effekten von Visualisierungen

© Christian Wyrwa

Zur Person

Frau Professorin Schneider leitet das Institut für Versicherungsbetriebslehre und ist Mitglied des Forschungsclusters "Finance Group" der wirtschaftswissenschaftlichen Fakultät. Ihr Forschungsschwerpunkt liegt auf Entscheidungsprozessen in der Finanzwirtschaft und deren Beeinflussung durch bewusste und unbewusste Faktoren. In ihrem aktuellen Projekt "Belief Formation: Recency, Visual Salience, and Memory" untersucht sie unter anderem den Einfluss von Datenvisualisierungen auf Finanzentscheidungen.

Zur Person

Frau Professorin Schneider leitet das Institut für Versicherungsbetriebslehre und ist Mitglied des Forschungsclusters "Finance Group" der wirtschaftswissenschaftlichen Fakultät. Ihr Forschungsschwerpunkt liegt auf Entscheidungsprozessen in der Finanzwirtschaft und deren Beeinflussung durch bewusste und unbewusste Faktoren. In ihrem aktuellen Projekt "Belief Formation: Recency, Visual Salience, and Memory" untersucht sie unter anderem den Einfluss von Datenvisualisierungen auf Finanzentscheidungen.

Bei uns geht es um den Einfluss von historischen Aktienpreisen, die in einer Preiszeitreihe oder einem Preischart dargestellt werden. Wir gucken uns an, wie dieser Preispfad einen Einfluss auf die Erwartungsbildung am Aktienmarkt hat.

Service Team Forschungsdaten: Sie forschen derzeit zum Einfluss von Datenvisualisierungen auf Finanzentscheidungen von AnlegerInnen. Da würde uns interessieren: Welche Arten Daten generieren oder verarbeiten Sie selbst im Rahmen Ihrer Forschung und woher stammen diese?

Judith Scheider: Bei uns geht es um den Einfluss von historischen Aktienpreisen, die in einer Preiszeitreihe oder einem Preischart dargestellt werden, wie er zum Beispiel auch bei Yahoo! Finance zu sehen ist. Oder bei der Börse vor acht, da sieht man immer den DAX visualisiert. Wir gucken uns in dem Zusammenhang an, wie dieser Preispfad einen Einfluss auf die Erwartungsbildung am Aktienmarkt hat, oder auf die Entscheidung, ob man kaufen oder verkaufen möchte. Dabei verwenden wir experimentelle Daten, die wir über verhaltensökonomische Experimente selbst generieren. In denen schauen wir uns unter kontrollierten Bedingungen den Einfluss der Visualisierungen auf die Kaufentscheidung oder Erwartungsbildung an. Dann verwenden wir auch einen sogenannten machine learning-Algorithmus der prognostiziert, wo Leute in einem Bild – auch eben bei einem Aktienkursbild – ihre Aufmerksamkeit hinorientieren.

Als Letztes verbinden wir das Ganze und schauen uns an, wie sich der Einfluss dieser Visualisierungen wirklich in Finanzmarktdaten wiederfinden lässt. Dazu verwenden wir verschiedene Datenbanken, die relativ kostenintensiv sind. Das ist zum einen CRSP [Center for Research in Security Prices, an affiliate oft he University of Chicago, Anm .d. Redaktion], das ist so der Standarddatensatz bei uns. Dann Compustat oder auch zum Teil Optionsdaten, wenn es um Risiko und Risikowahrnehmung geht. Das heißt, Daten spielen in der Ökonomie eine ziemlich große Rolle. Zum einen selbst zu kreierende, zum anderen eben auch Standarddatensätze, und dann beide kombiniert mit Analysetools.

Service Team Forschungsdaten: Und wer stellt diese Standarddatensätze, von denen Sie eben gerade gesprochen haben, zur Verfügung?

Judith Scheider: Also es gibt WRDS [Wharton Research Data Services, online-Portal für verschiedene wirtschaftswissenschaftliche Datenbanken, Anm. d. Redaktion]. Das heißt aber, den Datenzugang muss man sehr teuer bezahlen. Auch etwas günstigere Möglichkeiten, die aber deutlich schlechter aufbereitet sind (solche nutzen wir in unserem Projekt), sind immer noch sehr teuer und können eigentlich nur im Verbund gezahlt werden. Das ist so der „Standard“. Ohne diese amerikanischen Aktiendaten kommt man nicht wirklich viel weiter, wenn man Finanzmarktforschung macht. Die anderen Daten kreieren wir zum größten Teil selber oder verwenden auch andere sekundäre Datensätze (Versicherungen). Aber in diesem Projekt verwenden wir entweder experimentelle Daten oder eben Daten von Finanzmärkten, die – gegen Bezahlung –  allgemein verfügbar sind.

Service Team Forschungsdaten: Sie werden ja wahrscheinlich, wenn Sie Ihre Forschungsergebnisse veröffentlichen, diese auch visuell aufbereiten. Da wäre jetzt unsere Frage: Wie groß ist da der Einfluss der Visualisierung der Daten?

Judith Scheider: Also grundsätzlich ist es natürlich so, dass Datenvisualisierungen in vielen Feldern stark verbreitet sind. In der kognitiven Psychologie geht’s darum, wie wirken eigentlich Visualisierungen auf Entscheidungen? In der Informationstechnologie wird darüber nachgedacht, wie man bestimmte Sachen visualisieren kann, damit sie leichter verständlich sind. Es gibt auch Zweige, die nennen sich „Graph Literacy“, also wie können Leute überhaupt Graphen verstehen? Grundsätzlich beschäftigen sich verschiedenste Bereiche damit, wie Datenvisualisierungen auf Menschen wirken. Und in dem Zusammenhang gibt es verschiedene Ansätze, diese Wirkungen ein bisschen zu strukturieren und besser zu verstehen.

Der Mechanismus, der in der Verarbeitung, beziehungsweise dem Verständnis von Datenvisualisierungen eine Rolle spielt, ist Bottom-Up salient [unbewusst die Aufmerksamkeit auf sich ziehend, Anm. d. Redaktion]. Bottom-Up-Einflüsse sind unbewusste Einflüsse, wie spezifische visuelle Effekte. Das sind oftmals zum Beispiel saliente Bereiche in einem Bild oder, in dem Fall, einem Aktienkurs, die die Aufmerksamkeit auf sich ziehen und wiederum die Entscheidung beeinflussen. Die Forschung hat gezeigt, dass diese Art von Aufmerksamkeit durch eben diese Bottom-Up-Effekte sowohl Entscheidungen begünstigen kann, weil das wenig Nachdenken erfordert und deswegen schnell verständlich ist, aber natürlich auch Einflüsse verzerren kann, weil sie eben unterbewusst passieren und man nicht direkt merkt, wie das Ganze auf einen wirkt. In dem Zusammenhang sagt man, dass es auch Verzerrungen gibt, die für Datenvisualisierungen spezifisch sind, die also nochmal anders sind, als alle anderen Verzerrungen in den Entscheidungen, die wir uns sonst in verhaltensökonomischen Experimenten anschauen.

Alle Arten von Verzerrungen können im Endeffekt durch einen zweiten Einflussfaktor, der Top-Down ist, gemindert werden. Das heißt, dass man sich viel bewusster und expliziter Gedanken darüber macht, was möchte ich eigentlich für eine Entscheidung treffen und wieso ist diese Datenvisualisierung da und was sagt sie mir und wie hilft mir das? Im Endeffekt müssen diese ganzen Arten von Verzerrungen oder eben auch Einflüsse, die negativ für die Entscheidung sind, durch Top-Down-Wissen unterdrückt werden. Insgesamt kann man eben nicht sagen, ob die Einflüsse grundsätzlich positiv oder negativ oder groß oder klein sind. Deswegen gibt es so viel Forschung in verschiedenen Bereichen zu den Einflussfaktoren, um sich darüber bewusst zu werden, welche Bereiche wie beeinflusst werden.

Bottom-Up-Einflüsse sind unbewusste Einflüsse, wie spezifische visuelle Effekte. Das sind oftmals saliente Bereiche in einem Bild oder, in dem Fall, einem Aktienkurs, die die Aufmerksamkeit auf sich ziehen und wiederum die Entscheidung beeinflussen.
Letztendlich sollen Grafiken nicht Informationen dazu dichten oder irrelevante Informationen präsentieren, sondern Informationen, die da sind, prägnanter oder schneller verständlich machen.

Ein ganz einfaches Beispiel wäre: Sie sehen eine Zeitreihe vom einem Aktienkurs, und der steigt immer weiter an. Dieser Aktienkurs kann auf zwei Wochen basieren, der kann aber auch auf zwei Jahren oder zehn Jahren basieren. Je nachdem, wie ich das wähle, kann ich diesen Trend besonders salient oder besonders deutlich machen. Forschungsergebnisse haben gezeigt, dass so ein Aufwärtstrend positive Erwartungen mit sich bringt, genauso wie ein Abwärtstrend offensichtlich negative Erwartungen. Das heißt also, abhängig davon, wie ich diesen Zeitraum wähle, kann ich relativ gut manipulieren, wie Leute das Investment wahrnehmen. Das spielt besonders eine Rolle, wenn ich mir darüber Gedanken mache, dass in vielen Aktienfonds-Verkaufsprospekten eben solche historischen Zeitreihen gezeigt werden. Da kann ich entsprechend dem gewählten Ausschnitt auch eine Erwartungshaltung oder eine Erwartungsbildung beeinflussen.

Das gleiche gilt zum Beispiel auch für Farben. Bei uns wird oft rot für Verluste verwendet oder grün für Gewinne. Dadurch, dass ich dieses Rot und Grün verwende, kann ich schon einen Einfluss darauf nehmen, wie Leute die Aktie oder den Fonds wahrnehmen. Das ist etwas, auf das wir achten, wenn wir selber Darstellungen verwenden, zum Beispiel in Experimenten, wo wir Verluste oder Gewinne darstellen wollen oder solche Sachen. Da achten wir darauf, dass wir eben nicht diese typischen Signalfarben verwenden, sondern das ein bisschen neutraler gestalten. Wir versuchen, Grafiken eher in Grautönen abzubilden, damit die nicht so prägnant sind. Wir achten darauf, wenn wir in unserer Forschung Grafiken nehmen, dass die wirklich das vereinfachen, was wir auch mit einer Tabelle darstellen könnten. Wir wollen nicht hingehen und sagen, dieser Trend ist besonders prägnant oder so etwas, sondern wir wollen Grafiken nutzen, um Verständnis zu verbessern und zu vereinfachen, und nicht um marketingmäßig bestimmte saliente Effekte hervorzurufen.

Jetzt muss man aber auch sagen – und das finde ich ganz interessant – dass es Studien dazu gibt, dass auch in der Wissenschaftskommunikation, wenn es um Visualisierungen geht, Gutachter zum Beispiel 3D-Grafiken oftmals für hochwertiger oder wissenschaftlicher halten, als 2D-Grafiken. Wir haben uns auch schon aus Spaß gesagt, ja, dann bauen wir noch irgendeine fancy Grafik ein, dann wirkt das sofort wichtiger oder schöner. Da sollte man schon drauf achten, dass das nicht der Hauptmotivationsgrund ist, eine Grafik in einer wissenschaftlichen Publikation einzufügen, sondern dass es wirklich darum geht, dem Leser, und zwar auch dem Fachleser, Arbeit abzunehmen. Und zwar insofern, als dass das, was man als Aussage trifft, deutlicher und schneller zu verstehen ist, als wenn man in Form von Tabellen komplizierte Interaktionseffekte in Regressionen abbildet. Man kann das eben auch visualisieren, was dabei hilft, das schneller zu verstehen. Letztendlich sollen ja Grafiken nicht Informationen dazu dichten oder irrelevante Informationen präsentieren, sondern Informationen, die da sind, prägnanter oder schneller verständlich machen.

Service Team Forschungsdaten: Ja, so ein Bild kann man natürlich schneller erfassen, als eine Tabelle mit Zahlenreihen, wo man erstmal schauen muss, wie stark die sich unterscheiden. Dann kommen wir schon zu unserer letzten Frage: Sie haben ja erwähnt, worauf Sie achten, wenn Sie selbst Grafiken erstellen. Haben Sie vielleicht noch so die top-drei Punkte, von denen Sie sagen, darauf sollte man auf jeden Fall achten? Und vielleicht noch einen Tool-Tipp, falls Sie ein bestimmtes Tool benutzen, mit dem Sie gut zurechtkommen?

Judith Scheider: Wir benutzen Python oder MatLab oder Stata, je nachdem, was es gerade für ein Projekt ist. Damit wir nicht zu viele verschiedene Programme haben, bleiben wir meistens bei dem Programm, das wir gerade benutzt haben. Theoretisch lassen sich zum Beispiel Experimente wunderbar auch in Stata auswählen. Da muss ich nichts Kompliziertes machen. Wenn ich große Datensätze habe, bräuchte ich eher Python oder MatLab. Und Python hat den Vorteil, dass es nichts kostet. Aber im Endeffekt können die alle fast dasselbe. Früher hätte ich gesagt, das eine geht damit schöner oder das andere geht damit schöner. Mittlerweile, würde ich sagen, gibt es Skripte, die man verwenden und adaptieren kann, so dass das eigentlich relativ egal ist, was für eine Software man verwendet.

Man muss sich nur wirklich Gedanken machen: Ist es nützlich? Bringt es dem Leser etwas? Man sollte immer den Adressanten im Kopf haben. Ich möchte ja nicht, dass der Adressat denkt: ‚Was soll denn das? Also die Grafik, die hilft mir gar nicht, die verwirrt mich.‘ Das heißt, ich sollte schon darauf achten, dass die Grafik eine Verbesserung des Verständnisses mit sich bringt, und nicht eine Verschlechterung. Wir benutzen in Experimenten oft Formen von Visualisierungen. Da spielt das natürlich noch viel mehr eine Rolle, weil man sonst Verzerrungen rein kriegt, die man nicht haben möchte. Deswegen sollte man sehr stark darauf achten.

Service Team Forschungsdaten: Vielen Dank für diesen sehr spannenden Einblick. Mit dem Thema muss man sich auch erst einmal beschäftigen. Wenn man deskriptive Statistiken oder so etwas macht, dann geht das ja auch ganz gut in Excel. Dann hat man sein Diagramm, und die Farben sind ja meistens vorausgewählt. Man macht sich nicht unbedingt Gedanken drüber, was das eigentlich mit dem Betrachter macht, wenn da in rot und grün oder vielleicht blau oder eher in Grautönen gearbeitet wird.

Judith Scheider: Genau, und das gleiche gilt eben auch bei Zeitreihen zu Trends und so weiter. Also, man kann da schon ein bisschen überlegen, wie man die Spannweite wählt und so.

Service Team Forschungsdaten: Ganz herzlichen Dank für das Interview!

Judith Scheider: Gerne.

Früher hätte ich gesagt, das eine geht damit schöner oder das andere geht damit schöner. Mittlerweile, würde ich sagen, gibt es Skripte, die man verwenden und adaptieren kann, so dass das eigentlich relativ egal ist, was für eine Software man verwendet.