ChapterPDF Available

Abstract

Die visuelle Projektion von heterogenen (z.B. Forschungs-)Daten auf einer 2-dimensionalen Fläche, wie etwa einem Bildschirm, wird als Datenvisualisierung bezeichnet. Datenvisualisierung ist ein Oberbegriff für verschiedene Arten der visuellen Projektion. In diesem Kapitel wird zunächst der Begriff definiert und abgegrenzt. Der Fokus des Kapitels liegt auf Informationsvisualisierung und Visual Analytics. In diesem Kontext wird der Prozess der visuellen Transformation vorgestellt. Es soll als Grundlage für eine wissenschaftlich valide Generierung von Visualisierungen dienen, die auch visuelle Aufgaben umfassen. Anwendungsszenarien stellen den Mehrwert der hier vorgestellten Konzepte in der Praxis vor. Der wissenschaftliche Beitrag liegt in einer formalen Definition des visuellen Mappings.
Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
5.4 Datenvisualisierung
Abstract: Die visuelle Projektion von heterogenen (z. B. Forschungs-)Daten auf einer
2-dimensionalen Fläche, wie etwa einem Bildschirm, wird als Datenvisualisierung
bezeichnet. Datenvisualisierung ist ein Oberbegriff für verschiedene Arten der visu-
ellen Projektion. In diesem Kapitel wird zunächst der Begriff definiert und abge-
grenzt. Der Fokus des Kapitels liegt auf Informationsvisualisierung und Visual Ana-
lytics. In diesem Kontext wird der Prozess der visuellen Transformation vorgestellt.
Es soll als Grundlage für eine wissenschaftlich valide Generierung von Visualisie-
rungen dienen, die auch visuelle Aufgaben umfassen. Anwendungsszenarien stel-
len den Mehrwert der hier vorgestellten Konzepte in der Praxis vor. Der wissen-
schaftliche Beitrag liegt in einer formalen Definition des visuellen Mappings.
Einleitung
Datenvisualisierung umfasst jegliche Art der visuellen Repräsentation von digitalen
Daten in computerbasierten Systemen. Auch wenn sogenannte Infografiken nicht
immer eine computerbasierte Projektion aufweisen, können diese ebenfalls der Da-
tenvisualisierung zugeordnet werden. Somit ist Datenvisualisierung ein Oberbegriff
für die visuelle Projektion von Daten auf einer 2-dimensionalen Ebene, auch wenn
die Darstellung einen 3-dimensionalen Raum simuliert. Für die Klassifikation von
Datenvisualisierung sind zum einen die zugrundeliegenden Daten und die Art der
Projektion von Bedeutung. Eine Projektion eines Realweltobjekts, wie etwa des
menschlichen Herzens mittels Computertomographie, ist eine virtuelle Darstellung,
die oft als Scientific Visualizationbezeichnet wird.1Das Ziel hierbei ist durch com-
puterbasierte grafische Simulationen neue oder unbekannte Erkenntnisse über ei-
nen bestimmten meist wissenschaftlichen Sachverhalt zu erlangen.2Werden dage-
gen abstrakte Daten visualisiert, etwa Text, Bilder, Ontologien etc., spricht man im
Allgemeinen von Informationsvisualisierung.3Der bedeutende Unterschied liegt
nicht nur in den Daten, die keine reine Realweltobjekte mehr sind, sondern auch in
der Art der visuellen Projektion. Sie visualisiert abstrakte Daten unter besonderer
Berücksichtigung der menschlichen Kognition und Wahrnehmung und ermöglicht
per Definition menschliche Interaktionen mit der visuellen Repräsentation, um die
Open Access. © 2021 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below, publiziert von De Gruyter.
Dieses Werk ist lizenziert unter der Creative Commons Attribution 4.0 Lizenz.
https://doi.org/10.1515/9783110657807-026
1Vgl. West 1999, 15.
2Vgl. Earnshaw und Wiseman 1992, 17.
3Vgl. Card, Mackinlay und Shneiderman 1999, 7.
Kognition zu stärken, neue Erkenntnisse aus den Daten zu erhalten und diverse
analytische Aufgaben durchzuführen. Die Visualisierung abstrakter Daten kann
weiter klassifiziert werden, etwa unter Berücksichtigung des Grades der menschli-
chen bzw. der maschinellen Verarbeitung der visuellen Transformation bzw. der
grafischen Projektion. Eine solche Klassifikation wurde von Kohlhammer et al. auf-
gestellt.4Diese unterscheiden zwischen Information Design (Infografik), Informati-
onsvisualisierung, Semantik Visualisierung, Visual Analytics und den meist nicht-
visuellen Knowledge Discovery in Databases.
Abb. 1: Visualisierungsklassifikation nach Kohlhammer et al.5
Dieses Kapitel geht auf Informationsvisualisierung und somit auch auf Visual Ana-
lytics ein, die allein aufgrund der enormen Menge an Daten eine essentielle Rolle
spielen. Forschungsdaten werden meist genau mit diesen Methoden der Datenvi-
sualisierung verarbeitet und dargestellt. Zunächst wird eine kurze Abgrenzung und
Definition der Informationsvisualisierung vorgestellt mit dem Ziel Informationsvi-
sualisierung und Visual Analytics besser differenzieren zu können. Anschließend
werden die Kernaspekte, wie etwa Daten und Datenklassifikation, visuelle Reprä-
sentation und visuelle Aufgaben eingeführt. Diese sollen dazu befähigen, ein grund-
legendes Verständnis zur Erzeugung von Informationsvisualisierungen zu erlangen.
Im weiteren Verlauf werden Anwendungsbeispiele für verschiedene Szenarien gege-
ben, um den heterogenen Einsatz der Visualisierungen nachvollziehen zu können.
478 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
4Vgl. Kohlhammer et al. 2012, 8587.
5Vgl. Kohlhammer et al. 2012, 85.
1 Informationsvisualisierung
Informationsvisualisierung ist die wohl am meisten verbreitete Form der Datenvi-
sualisierung. Eine klare Abgrenzung wurde bereits 1999 von Card et al. eingeführt,
die Informationsvisualisierung als computer-basierte, interaktive visuelle Repräsen-
tation von abstrakten Daten zur Stärkung der Kognition definierten6. Ein wesentli-
cher Unterschied zur Datenvisualisierung besteht hier in der Einführung des Terms
abstrakt, der eine offensichtliche räumliche Projektion der Daten auf einer 2-dimen-
sionalen Fläche ausschließt. Ohne eine solche räumliche Zuordnung, besteht die
Herausforderung darin, die Daten in eine ausdrucksstarke visuelle Repräsentation
zu überführen. Die Stärkung der Kognition, definierten sie als Erwerb und Nutzung
des menschlichen Wissens. Diese soll zu Erkenntnissen (insights) führen, etwa
durch Erkundung, Analyse, Entscheidungsfindung oder Erläuterung.7Um diesen
Prozess zu beschreiben, führten sie das Referenzmodell der Informationsvisualisie-
rung ein (siehe Abb. 2).
Abb. 2: Referenzmodell der Informationsvisualisierung nach Card et al.8
Das Referenzmodell sieht eine Transformation von Rohdaten bis hin zu interaktiven
Visualisierungen vor, die hier als Sichten (Views) dargestellt sind. Das Modell sieht
drei Transformationsschritte vor. Die Datentransformation überführt die Daten in
eine für Visualisierung adäquate Form. Hier finden meist lernende und statistische
Verfahren Einsatz. So können etwa aus unstrukturiertem Text mittels Latent Dirich-
let Allocation9Topics extrahiert werden.10 Die Datenqualität ist hierbei entschei-
dend. Auch die Extraktion von Variablen, die eine aspektorientierte Visualisierung
erlauben, etwa temporale oder geographische Visualisierungen etc., spielen eine
5.4 Datenvisualisierung 479
6Vgl. Card, Mackinlay und Shneiderman 1999, 7.
7Vgl. Nazemi 2016, 4; Card und Mackinlay 1997, 6.
8Vgl. Card, Mackinlay und Shneiderman 1999, 17.
9Vgl. Blei, Ng und Jordan 2003, 9961002.
10 Vgl. Nazemi et al. 2015b, 6.
wesentliche Rolle. Die Datenstruktur ist in der Stufe des visuellen Mappings aus-
schlaggebend für die Erzeugung der visuellen Struktur. Sie stellt die zugrundeliegen-
den Daten idealerweise unter Berücksichtigung der Variablen und einer für den Men-
schen gut wahrnehmbaren visuellen Repräsentation dar.11 Die letzte Transformations-
stufe ermöglicht die Interaktion der Benutzer mit der graphischen Repräsentation und
auch mit jedem Zwischenschritt des Modells. Dabei sind die Aufgaben der Benutzer
von besonderer Bedeutung. So sollen je nach Bedarf auch etwa die Daten verändert
(reduziert/erweitert) oder alternative visuelle Strukturen ausgewählt werden können.
Visual Analytics verbindet Informationsvisualisierung mit automatischen Ana-
lysetechniken, um ein effektives Verständnis, Schlussfolgerung und Entscheidungs-
findung zu ermöglichen.12 Demnach erlaubt es im direkten Vergleich zu Informati-
onsvisualisierung auch die Interaktion mit den Transformationsschritten und wird
definiert als die Wissenschaft der analytischen Schlussfolgerung durch interaktive
Visualisierungen.13 Keim et al. haben dazu ein Referenzmodell14 erstellt, das über
die Jahre verschiedene Revisionen und Erweiterungen je nach Anwendungsfall er-
hielt.15 Eine klare Unterscheidung zur Informationsvisualisierung kann demnach
durch (1) die Ziele, die sich auf analytische Aufgaben fokussieren, (2) eine direkte
Kopplung der Methoden der automatischen Analyse und Datenmodellierung und
(3) die Visualisierung sehr großer Datenmengen entstehen.
Zusammenfassend ist festzustellen, dass drei wesentliche Aspekte das Design
und die Entwicklung von Informationsvisualisierungen besonders beeinflussen: (1)
Daten sind von besonderer Bedeutung, denn diese sind die Grundlage zur Wahl der
visuellen Struktur und der visuellen Variablen, etwa Farbe oder Größe, (2) die Vi-
sualisierung selbst, die im Idealfall eine einfache Interpretation der Daten ermög-
licht, und (3) die zu lösenden Aufgaben, die die Wahl der Visualisierung stark be-
einflussen.
2 Daten und Datenklassifikation
Der Ausgangspunkt jeglicher Visualisierungen sind die zugrundeliegenden Daten.16
Dabei kann zwischen Datentyp, Daten-Dimensionalität und Art der Daten unter-
schieden werden (siehe Abb. 3).
480 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
11 Vgl. Nazemi 2016, 111114.
12 Vgl. Keim 2010, 7.
13 Vgl. Thomas und Cook 2005, 4.
14 Vgl. Keim 2010, 10.
15 Vgl. Stoffel et al. 2014, 1604; Nazemi 2018, 187; El-Assady et al. 2020, 1002.
16 Vgl. Keim 2010, 3; Keim 2001, 15; Card und Mackinlay 1997, 1; Card, Mackinlay und Shneider-
man 1999, 3.
Abb. 3: Schematische Darstellung der Zusammenhänge zwischen verschiedenen Datentypen, der
Dimensionalität und Datenarten in Beziehung zu Rohdaten
Datentypen beziehen sich darauf, ob in den Daten eine natürliche Ordnung der ex-
trahierten oder bereits vorhandenen Variablen vorliegt, ob sie mit lexikalischen, se-
mantischen etc. Transformationen generiert werden können oder ob eine solche
Ordnung nicht vorhanden und möglich ist. In der Informationsvisualisierung wer-
den folgende Datentypen unterschieden:17
Nominal: Daten ohne Ordnung (Operatoren: = und )
Ordinal: Daten besitzen eine natürliche Ordnung (Operatoren: < und >)
Quantitativ: Numerische Werte mit natürlicher Ordnung und der Möglichkeit
der arithmetischen Rechenoperationen (Operatoren: +, -, *, /)
Datentypen, die keine natürliche Ordnung besitzen, sind nominal.18 Sie dienen zur
Unterscheidung von Entitäten z. B. in Form von Kategorien oder Namen. Dabei soll
beachtet werden, dass Hilfsvariablen und statistische Verfahren dazu dienen kön-
nen eine Ordnung zu schaffen, etwa eine lexikalische Ordnung für Namen oder die
physikalische Ordnung der Farben. Datentypen, die eine natürliche Ordnung besit-
zen, sind ordinal,19 etwa eine kategorisierte Tagestemperatur in heiß, warm und
kalt. Dabei können ordinale Datentypen, binär (0 und 1), diskret oder kontinuierlich
5.4 Datenvisualisierung 481
17 Vgl. Card und Mackinlay 1997, 1; Card, Mackinlay und Shneiderman 1999, 12.
18 Vgl. Stevens 1946, 678.
19 Vgl. Ward, Grinstein und Keim 2010, 46.
sein20 und können mit den Operatoren < und > in genau einem Vorgänger und ei-
nem Nachfolger unterteilt werden. Numerische Werte, die eine arithmetische Opera-
tion zulassen werden generell als quantitativ bezeichnet und weisen ebenfalls eine
durch die Zahlen gegebene natürlich Ordnung auf. Diese Arten von Daten können
anhand ihrer Wertigkeit geordnet werden (z. B. natürliche Zahlen). Die Einteilung
(nominal, ordinal, quanitativ) ist nicht unumstritten,21 kann jedoch durch vielfache
Nutzung und starke Verbreitung in der Informationsvisualisierung als wissenschaft-
lich akzeptiert angesehen werden.
Jeder Datensatz wiederum kann mittels der Dimensionalität kategorisiert wer-
den. So können Datensätze in 1-dimensional, 2-dimensional oder multi-dimensional
unterschieden werden.22 Dabei beziehen sich die Dimensionen auf die Anzahl der
Variablen in den Daten.
Tab. 1: Kategorisierung der Daten mittels unterschiedlicher Dimensionen23
Daten Dimensionalität
1-dimensional (univariat) Lineare Datentypen
2-dimensional (bivariat) Planare Datentypen
Multi-dimensional (multivariat) Daten mit mehr als drei Dimensionen, auch multivariate Daten
genannt
2.1 Eindimensionale Daten
Eindimensionale Daten können in diskreten Sequenzen, Text, kategorischen Werten
oder in temporalen und Streaming Daten enthalten sein und verfügen über eine Va-
riable. Siehe Abb. 4 für eine eindimensionale Ereigniskette mit natürlicher Ordnung
(gegeben durch die Jahreszahl). Nominale Listen ohne Ordnung sind ebenfalls Teil
der Daten. Diskrete Strukturen, z. B. Abfolgen kodierte Gene innerhalb des Ge-
noms können ebenfalls eindimensional vorliegen. Die Visualisierung geschieht
über die relative Position des Gens. Reiner Text ohne Vorverarbeitung ist ebenfalls
als nominal eindimensional einzustufen.
482 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
20 Vgl. Ward, Grinstein und Keim 2010, 46.
21 Vgl. Velleman und Wilkinson 1993, 57.
22 Vgl. Shneiderman 1996, 337338; Ward und Keim 2010, 382; Keim, Panse und Sips 2005, 34.
23 Vgl. Keim, Panse und Sips 2005, 34.
Abb. 4: Eindimensionale Ereigniskette
2.2 Zweidimensionale Daten
Zweidimensionale Daten haben genau zwei Variablen, die miteinander verknüpft
sind. Dabei wird häufig eine abhängige Variable zu einer unabhängigen Variablen
in Korrelation gesetzt. Die Werte können z. B. mittels zwei Spalten innerhalb einer
Tabelle repräsentiert werden. Die Variablen selbst können wiederum ordinal, nomi-
nal oder quantitativ sein. Typische Beispiele sind temporale Daten, Streaming Daten
oder räumliche planare Daten (siehe Abb. 3). Zweidimensionale Daten lassen sich
vereinfacht in X-Y-Plots darstellen. Die Visualisierung 2-dimensionaler Daten gestal-
tet sich recht einfach, etwa mit Balkendiagrammen oder Line-Charts (siehe Abb. 5).
Abb. 5: Zeitreihen als Beispiel zweidimensionaler Datensätze
2.3 Multidimensionale Daten
Multidimensionale Datensätze oder auch multivariate Datensätze enthalten drei
und mehr Variablen. Beispiele finden sich als temporale Daten, Streaming Daten,
Hierarchien und Graphen oder als räumliche Daten. Beispielsweise existieren inner-
halb einer Fertigungsstraße hunderte von Sensoren, die synchronisiert Daten erfas-
sen, etwa Temperaturwerte oder Bewegungen. Das Abfrageergebnis kann hunderte
Spalten umfassen. Die Variablen der Spalten können wieder ordinal, nominal oder
quantitative sein. Auch wenn nur drei Dimensionen vorliegen, sollten 3-dimensio-
nale Projektionen vermieden werden, diese führen oft zu Interpretationsschwierig-
keiten. Statt der Einführung eines X-Y-Z-Plots kann der Einsatz visueller Variablen
in X-Y-Plots die Wahrnehmung stark vereinfachen und die Interpretation der Daten
5.4 Datenvisualisierung 483
erleichtern (siehe Abb. 6). Eine Erhöhung der Anzahl der visuellen Variablen geht
mit einer Komplexitätssteigerung innerhalb der Visualisierung einher. Multivariate
Daten mit mehr als drei Dimensionen lassen sich oft sehr gut mit Matrizenvisualisie-
rungen darstellen. Dabei stehen zur besseren Übersicht jeweils zwei Variablen in
Korrelation (siehe Abb. 6). Es existieren verschiedene Ansätze der Interaktion mit
multidimensionalen Visualisierungen,24 die die Lösung analytischer Aufgaben er-
möglichen.
Abb. 6: Visualisierung multivariater Daten, links: Visualisierung von vier Dimensionen durch Nut-
zung von visuellen Variablen. Rechts: Visualisierung von fünf Dimension mit einem Scatterplot-Ma-
trix nach Viau et al.25
Die Klassifikation der Daten in Dimensionen wird oft gleichgestellt mit der Datenart-
klassifikation.26 So wird oft im Kontext der Datendimensionen auch in Graphen,
Hierarchien, Text oder Netzwerke unterschieden.27 Diese Differenzierung ist für das
visuelle Mapping von Bedeutung. Liegt etwa eine klare Hierarchie in den Daten vor,
ist evtl. eine andere Visualisierung besser geeignet.
3 Visuelles Mapping
Visuelles Mapping beschreibt die Projektion der zugrundeliegenden Daten auf mög-
lichst effektive visuelle Repräsentationen. Es bezieht sich auf die Fragestellung
wieDaten visualisiert werden sollten. Dabei spielen zwei Faktoren der Daten eine
484 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
24 Vgl. Inselberg und Dimsdale 1990, 361378; Gahegan 1998, 4356; May und Kohlhammer 2008,
911918; May, Davey und Kohlhammer 2010, 985994; Viau et al. 2010, 11001108.
25 Vgl. Viau et al. 2010, 1100.
26 Vgl. Keim, Panse und Sips 2005, 23.
27 Vgl. Keim, Panse und Sips 2005, 23; Nazemi 2016, 142143.
Schlüsselrolle: (1) die Art der Daten und somit die Dimensionen bzw. etwaige Struk-
turen in den Daten und (2) die Datentypen, die vereinfacht in nominal, ordinal und
quantitativ differenziert werden können. Das visuelle Mapping ist somit ein zweistu-
figer Prozess, das auf die Arbeiten von Bertin zurückgeht28 und erweitert wurde.29
Dabei wird zunächst die Positionierung der graphischen Objekte auf einer 2-dimen-
sionalen Ebene je nach Datendimension oder der vorliegenden Struktur vorgenom-
men (Imposition). Diese Positionierung wird häufig als Placementoder Layou-
tingbezeichnet.30 Das Layouting stellt somit das Skeletteiner Visualisierung
dar. Dabei können bei multivariaten Daten oder komplexen Strukturen Layout- oder
Placement-Algorithmen durchaus kombiniert werden. Als Beispiel soll hier die in
Abb. 6 dargestellte Scatterplot-Matrix dienen. Diese ist eine Kombination aus einer
Matrix-Visualisierung und dem Scatterplot. Diese Layouts können sowohl nebenein-
ander liegen (juxtaposing Layouts), wie in diesem Fall, aber auch übereinander (su-
perimposing Layouts).31
Datentypen sind besonders für die Wahl der retinalen bzw. visuellen Variablen
von großer Bedeutung. Frühe Arbeiten hierzu gehen ebenfalls auf Bertin zurück,32
die für die unterschiedlichen Datentypen die entsprechenden Variablen bezüglich
ihrer Eignung ordnen. Dabei ist stets die Position, die durch das Layout definiert
wird für jeden Datentypen am besten geeignet (siehe Abb. 7).
Abb. 7: Retinale Variablen sortiert nach ihrer Eignung für verschiedene Datentypen (adaptiert nach
Mackinlay33)
5.4 Datenvisualisierung 485
28 Vgl. Bertin 1983, 6.
29 Vgl. Mackinlay 1986, 125; Nazemi 2016, 113114.
30 Vgl. Nazemi 2016, 220223.
31 Vgl. Nazemi 2016, 55, 222.
32 Vgl. Bertin 1983, 4244.
33 Vgl. Mackinlay 1986, 125.
Da die Position für alle Datentypen am besten geeignet ist und Bertin34 eine Diffe-
renzierung zwischen Positionierung (Imposition) und den retinalen Variablen (Im-
plantation) propagiert hat, wird die Position hier nicht weiter als Bestandteil der re-
tinalen Variablen betrachtet. Hilfreicher ist eine Differenzierung zwischen Layout
und Präsentation. Das Layout stellt somit die Positionierung der graphischen Objek-
te auf dem Bildschirm, deren Relation zum Bildschirm und zueinander dar, wobei
Präsentation die retinalen Variablen ohne Position enthält.
Visualisierung in Form des visuellen Mappings kann somit als Kreuzprodukt
aus Layout und Präsentation beschrieben werden. Es ermöglicht sowohl das Über-
einanderlegen (superimposing) von visuellen Layouts als auch eine Darstellung ne-
beneinander (juxtaposing). Das Layout wird anhand der Dimensionalität und der
Datenstruktur ermittelt. So können beispielsweise bivariate Daten mit Hilfe von
Scatter-, Line-, Area-, Bar-Charts etc. visualisiert werden. Multivariate Daten können
z. B. mit Line Plots, Stacked Bars, Sliced River, Stacked River, Theme River etc. dar-
gestellt werden, vgl. Abb. 8 für eine Auswahl an möglichen Layouts und Präsenta-
tionen.
Abb. 8: Unterteilung des visuellen Layouts als Tupel aus Layout und Präsentation zur gezielten und
effektiven Gestaltung von Visualisierungen
486 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
34 Vgl. Bertin 1983, 5052, 79, 189.
Die Präsentation setzt sich zusammen aus den retinalen Variablen wie etwa Farb-
wert,Sättigung,Helligkeit,Größe,Länge,Neigung,Winkel,Form und der Krümmung.
Eine Visualisierung (V) kann als Kreuzprodukt aus Layout (L) und Präsentation (P)
wie folgt definiert werden:
V¼LP
Somit wird z. B. bei vierdimensionalen Daten, eine vierdimensionale Projektion in
den zweidimensionalen Raum möglich. In Abb. 6 (links) liegt die Zeit auf der X-Ach-
se und der Temperaturwert auf der Y-Achse, zusätzlich wird die Luftfeuchtigkeit per
Größe und die Regenwahrscheinlichkeit per Sättigung dargestellt. Mackinlay präzi-
sierte die einzelnen Präsentationsmöglichkeiten und ordnete diese nach Genauig-
keit bzw. Aussagekraft (siehe Abb. 7).35
Dies wird nützlich, um möglichst aussagekräftige Visualisierungen für verschie-
dene Datentypen zu erstellen. Eine Visualisierung mit der bestmöglichen Aussage-
kraft für verschiedene Daten der Datentypen Dist somit definiert als:
V¼LP¼fðli;fðdiÞÞji2N^l2L^d2Dg
Dabei liefert die Funktion f:DPeine bestmögliche Präsentation Pfür einen be-
stimmten Datentyp D. Gegeben sei als Beispiel ein X-Y-Plot mit einem Datensatz be-
stehend aus quantitativen, ordinalen und nominalen Daten ([099, kleingroß,
ProduktAProduktC]). Die quantitativen und nominalen Daten werden der X, sowie
der Y-Achse zugeordnet, somit werden die Datenwerten mittels der Position abgebil-
det, so bleibt für die ordinalen Daten nur noch die Darstellung über die Dichte und
für die nominalen Daten die Darstellung über verschiedene Farbwerte, um die Aus-
sagekraft der Visualisierung dieses Beispiels zu maximieren.
4 Visuelle Aufgaben
Eine Interaktion durch die Benutzenden mit einer Visualisierung dient der Beant-
wortung einer bestimmten Frage oder Hypothese. Einer Interaktion liegt dabei eine
Fragestellung zugrunde, die als zu lösende Aufgabe verstanden werden kann. Diese
Fragestellung wird auch als visuelle Aufgaben bezeichnet und bezieht sich auf die
Frage, warumsoll etwas auf diese Art visualisiert werden. Erstmalig formalisierte
Bertin diese Fragestellung.36 Bertin konstatierte, eine Frage ist aufgeteilt in den
Fragentypen (Question Type) und das Abstraktionslevel (Level Of Reading). Die In-
5.4 Datenvisualisierung 487
35 Vgl. Mackinlay 1986, 125.
36 Vgl. Bertin 1983, 141, 178.
formation, die gefunden werden muss, bestimmt der Fragentyp.37 Zusätzlich existie-
ren drei Abstraktionslevel zu jedem Typ:
Elementar (Elementary)
Intermediär (Intermediate)
Übergreifend (Overall)
Elementare Fragen beziehen sich auf einen Zeitpunkt oder einen Datenwert. Bei in-
termediären Fragen umfasst das Ergebnis eine Gruppe von Daten, jedoch bezieht
sich die Frage nicht auf den kompletten Datensatz. Wohingegen übergreifenden
Fragen den kompletten Datensatz betreffen. Dazu zwei Beispiele visueller Aufga-
ben:38
Wie hoch ist der Preis einer Aktie X an einem bestimmten Datum?
Zu welchem Datum wurde ein bestimmter Preis für eine Aktie X erreicht?
Frage 1 ist eine elementare Frage, da die Frage auf ein Datum bzw. einen Datenwert
abzielt. Als übergreifend kann Frage 2 bezeichnet werden, da die Frage den kom-
pletten Datensatz umfasst. Andrienko und Andrienko unterscheiden hier nochmals
in grundlegende Aufgaben (Elementary Tasks) und zusammenfassende Aufgaben
(Synoptic Tasks39). Aigner et al. fasst die Erkenntnisse von Andrienko et al. in einer
Übersicht zusammen (vgl. Abb. 9).40 Grundlegende Aufgaben beziehen sich hier auf
einen Punkt oder Datenwert. Nachschlagen (Lookup) bezeichnet hier das Suchen
nach einem bestimmten Datenwert. In der Beziehungssuche (Relation Seeking) wer-
den Aufgaben zusammengefasst, die eine Relation zwischen den Entitäten offenle-
gen sollen, während vergleichende Aufgaben (Comparison) die Charakteristiken
einzelner Datenpunkte oder Gruppen gegenüberstellt. Sowohl das Nachschlagen
von Werten wie auch das Vergleichen kann sowohl direkt oder invers passieren.
Dazu gibt Aigner et al. folgendes Beispiel für das Nachschlagen:41
Direkt: What was the price of Google stocks on January 14?
Invers: On which day(s) was the lowest stock price for Amazon in 2010?
488 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
37 Vgl. Andrienko und Andrienko 2006, 50.
38 Vgl. Bertin 1983, 141, 178; Andrienko und Andrienko 2006, 50.
39 Vgl. Andrienko und Andrienko 2006, 136.
40 Vgl. Aigner et al. 2011, 7275.
41 Vgl. Aigner et al. 2011, 7275.
Abb. 9: Visualization Task Categorization, adaptiert von Aigner et al.42
Zusammenfassende Aufgaben (Synoptic Tasks) bestehen aus beschreibende Aufga-
ben (Descriptive Tasks) und verbindende Aufgaben (Connective Tasks). Beschrei-
bende Aufgaben geben Charakteristika oder Referenzen von Gruppen wieder, wo-
hingegen verbindende Aufgaben zwei oder mehr Datensätze in Beziehung
zueinander setzen. Aigner et al. machen hier folgende Beispiele:43
Beschreibend: What was the trend of Oracle stocks during January?
Verbindend: Is the behavior of Nokia stocks influencing the behavior of Moto-
rola stocks?
Munzner geht noch einen Schritt weiter und formalisiert die visuelle Aufgabe.44
Eine visuelle Aufgabe besteht aus einer Aktion und einem Ziel.45 Munzner führt
dazu die gruppierenden Aktionen: Analysieren (Analyze), Suchen (Search) und An-
fragen (Query) ein. Dazu werden zusätzlich die gruppierenden Ziele: alle Daten (All
Data), Attribute (Attributes), Netzwerkdaten (Network Data) und räumliche Daten
(Spatial Data) definiert. Die Analyse unterscheidet in vereinnehmende Aktionen,
wie das Entdecken und Präsentieren, sowie in produzierende Aktionen, wie das An-
notieren oder die Aufnahme von Daten. In der Suche wird differenziert nach Nach-
schlagen, Durchsuchen, Lokalisieren und Explorieren. Als Anfrage ist definiert:
Identifizieren, Vergleichen und Zusammenfassen.46 Als mögliche Ziele auf der Ge-
samtheit der Daten wird das Erkennen von Trends, Ausreißern oder Features ge-
nannt. Innerhalb von Attributen können Verteilungen, Extremwerte, Abhängigkei-
ten, Korrelationen oder Ähnlichkeiten gefunden werden. In Netzwerkdaten können
Topologien oder Pfade analysiert werden und in räumlichen Daten kann die Darstel-
lung von Umrissen sinnvoll sein. Das durch Munzner erzeugte Framework47 bietet
5.4 Datenvisualisierung 489
42 Vgl. Aigner et al. 2011, 74.
43 Vgl. Aigner et al. 2011, 75.
44 Vgl. Munzner 2014, 4361.
45 Vgl. Munzner 2014, 43.
46 Vgl. Munzner 2014, 54.
47 Vgl. Munzner 2014, 43.
die Möglichkeit der Erweiterung. So können weitere visuelle Aufgaben durch Hinzu-
fügen von Aktionen und Zielen erzeugt werden und eine visuelle Aufgabe (T) kann
demnach als Tupel von Aktion (A) und Ziel (Z) definiert werden.
T¼ðA; ZÞ
Anhand der vereinfachten Darstellung in Abb. 10 können Aufgaben identifiziert
werden, die der Benutzer mit einer Visualisierung lösen möchte.
Abb. 10: Definition einer visuellen Aufgabe (vereinfacht), mit Erlaubnis adaptiert von Munzner48
5 Anwendungsszenarien
Informationsvisualisierung und Visual Analytics spielen in fast allen Bereichen eine
essentielle Rolle. Dabei werden nicht nur sehr unterschiedliche Daten herangezo-
gen, sondern auch sehr heterogene Aufgaben gelöst. Dieser Abschnitt verdeutlicht
einige der möglichen Anwendungsszenarien zur Verdeutlichung des Mehrwerts sol-
cher interaktiven Visualisierungen anhand einiger ausgewählter Anwendungsdo-
mänen. Ein Großteil der Visualisierungen ist mit JavaScript umgesetzt, wobei hier
Scalable Vector Graphics (SVG) eingesetzt wurden.
490 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
48 Vgl. Munzner 2014, 43.
5.1 Visualisierung wissenschaftlicher Literaturdaten
Durch die massive Open-Access-Bewegung stellen heute bibliothekarische Daten
eine wichtige Ressource für verschiedene Anwendungsbereiche dar. Insbesondere
mit Methoden des maschinellen Lernens in Kombination mit interaktiven Visualisie-
rungen, also Visual Analytics, lässt sich nicht nur nach bestimmten Publikationen,
Personen oder Themen suchen, diese Daten erlauben zudem komplexe analytische
Aufgaben. Als Beispiel soll die Erkennung von Trends und Technologien dienen. Ba-
sierend auf das bereits vorgestellte Referenzmodell der Informationsvisualisierung49
wurde zunächst ein Transformationsmodell erstellt, das beginnend mit der Extrak-
tion von Literaturdaten aus dem Web (Web-Mining) bis hin zu interaktiven Visuali-
sierungen den gesamten Transformationsprozess abdeckt.50 Die Analysemöglichkei-
ten wurden mit lernenden Modellen erweitert und ein neuer Algorithmus zur Tren-
derkennung entwickelt.51 Dabei wurde auch der Prozess erweitert und an den
speziellen Fall der Literaturdaten angepasst (vgl. Abb. 11).
Abb. 11: Transformationsmodell für wissenschaftliche Literatur nach Nazemi und Burkhardt52
5.4 Datenvisualisierung 491
49 Vgl. Card, Mackinlay und Shneiderman 1999, 17.
50 Vgl. Nazemi et al. 2015b, 3.
51 Vgl. Nazemi und Burkhardt 2019b, 194200.
52 Vgl. Nazemi und Burkhardt 2019b, 194.
Abb. 12: Analyse-, Interaktions- und Visualisierungsmöglichkeiten zur visuellen Trendanalyse wis-
senschaftlicher Literatur53
In Abb. 11 erkennt man, dass die Datenmodellierung aspektorientiert durchgeführt
wurde. Dazu wurden insgesamt fünf Datenmodelle erstellt. Basierend darauf wurde
ein Modell der Suche und Exploration eingeführt, das die unterschiedlichen Such-,
Visualisierungs- und Interaktionsmöglichkeiten abbildet.54 Basierend auf den Er-
kenntnissen aus dem Technologie- und Innovationsmanagement wurden hier Über-
blicke über den gesamten Datenbestand, über die Resultate einer Suche und weitere
Explorationsmöglichkeiten eingeführt, die auch das Lösen analytischer Aufgaben
erlauben (siehe Abb. 12).
Die visuelle Projektion erlaubt das Lösen sehr unterschiedlicher Aufgaben, die
über das Recherchieren hinausgehen. Dazu wurden nicht nur sehr unterschiedliche
Visualisierungen realisiert, die unterschiedliche Aspekte der Daten aufzeigen, wie
etwa temporale oder semantische Visualisierungen. Es wurden diverse Interaktions-
konzepte eingeführt, die den Benutzenden erlauben sogenannte emerging Trends
zu entdecken. Abb. 13 zeigt einige Visualisierungen und auch die Interaktionstech-
niken.
492 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
53 Vgl. Nazemi und Burkhardt 2019a, 286.
54 Vgl. Nazemi und Burkhardt 2019a, 285288.
Abb. 13: a) Macro-Level Übersicht der emerging Trendsin der gesamten Datenbank; b) temporale
Übersicht (Micro-Level) nach einer Suche; c) graphical search: graphische Suche nach eigenen Ter-
men; d) temporale Übersicht der Subthemen zu einer Technologie; e) stacked-graph zur temporalen
Übersicht extrahierter Themen; f) semantische Visualisierung etwa zur Koautoren-Relation etc.55
5.2 Visualisierung von Government Data
Im Rahmen von Open Data Initiativen haben Behörden weltweit begonnen, Teile
ihre Daten öffentlich bereitzustellen. Speziell im EU-Open-Data-Portal,56 in dem
auch sehr umfassende Daten von EuroStat57 und EUR-Lex58 einbezogen sind, lassen
5.4 Datenvisualisierung 493
55 Vgl. Nazemi und Burkhardt 2019a, 287293; Nazemi und Burkhardt 2019b, 196198.
56 S. https://data.europa.eu/euodp/. Letztes Abrufdatum der Internet-Dokumente ist der
15.11.2020.
57 S. https://ec.europa.eu/eurostat/.
sich sehr große Mengen an öffentlichen Daten für diverse Anwendungsmöglichkei-
ten abfragen und in Systeme einbinden. Zudem ist davon auszugehen, dass die ver-
öffentlichte Datenmenge aufgrund diverser Transparenzregelungen in allen Berei-
chen staatlichen Handelns weiter zunehmen.59 Dabei gibt es eine Reihe von Anwen-
dungsmöglichkeiten, darunter solche, die die Transparenz und Partizipation und
somit die Qualität staatlicher Entscheidungen in beträchtlichem Maße unterstüt-
zen.60 Grundsätzlich lassen sich diese in die drei aufeinander aufbauenden Stufen
gliedern: (1) e-Enabling, (2) e-Engaging und (3) e-Empowering,61 wobei die unterste
Stufe sich im Wesentlichen auf die reine Bereitstellung von Daten beschränkt, um
eine grundsätzliche Teilhabe von Bürgern und Organisationen zu ermöglichen.
Wenn basierend auf den bereitgestellten Daten eine Meinungsbildung stattfinden
soll, etwa im Rahmen von öffentlichen Debatten über eine politische Agenda, so er-
fordert dies das e-Engaging. Dieses kann gestärkt werden, in dem man Bürgerinnen
und Bürger sowie Organisationen zusätzlich motiviert, sich an der politischen Agen-
da und den Debatten zu beteiligen diese Form bezeichnet man als e-Empowering.
Insbesondere e-Engaging und e-Empowering liefert in der Regel zusätzliche Daten
in Form von Stellungnahmen und Meinungen, die ihrerseits Veröffentlichung fin-
den und im Rahmen der Visual Analytics genutzt werden können.
Abb. 14: Ein vereinfachter Prozess zur Modellierung von politischen Maßnahmen. Alle drei Stufen
beinhalten heterogene Datenquellen, um die Analyse verschiedener Standpunkte, Meinungen und
Möglichkeiten zu ermöglichen.62
494 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
58 S. https://eur-lex.europa.eu.
59 Ein anschauliches Beispiel bietet etwa der Bereich der europäischen Chemikalienregulierung.
Das dort seit dem Jahr 2016 eingeführte lernende Systemsieht einen öffentlichen Zugang zu Stoff-
daten, Stellungnahmen und Begründungen an diversen Stellen des Entscheidungsprozesses vor.
Siehe mit weiteren Nachweisen Below 2018.
60 Siehe Für die Hintergründe, Gestaltungskriterien und Möglichkeiten der Transparenz und Par-
tizipation am Beispiel der Chemikalienregulierung Below 2018.
61 Vgl. Macintosh 2004, 23; Burkhardt et al. 2014, 48.
62 Vgl. Kohlhammer et al. 2012, 85.
Wie bereits erwähnt, ist eine Grundvoraussetzung der Bürgerbeteiligung die Mög-
lichkeit des Zugriffs auf politische Daten. Speziell in Bezug auf Visualisierungssys-
teme für politische Daten, lassen sich dabei drei elementare Stufen zum Einsatz von
visuellen Systemen definieren:63 (1) Die Informationsbeschaffung, etwa im Zuge der
Recherche zu bestehenden Problemen oder zu allgemeinen gesellschaftlichen Her-
ausforderungen, (2) die Politikgestaltung, eine Phase, die konkrete politische Maß-
nahmen definiert, und (3) die Folgenanalyse, die die Auswirkung von definierten
politischen Maßnahmen ermittelt und prüft, ob eine Maßnahme das beabsichtigte
Problem adressiert.64 Abhängig von den aktuellen Analysephasen können unter-
schiedliche visuell-analytische Methoden sinnvoll sein.
Bei der Visualisierung von Government Daten lassen sich darüber hinaus for-
melle Daten von erhobenen bzw. maschinell extrahierten Daten unterscheiden. For-
melle Daten sind dabei konkrete Beschreibungen etwa von Gesetzen, Maßnahmen
oder gesellschaftspolitischen Zielen. Viele dieser formellen Daten werden beispiels-
weise in Amtsblättern oder Bundesanzeigern veröffentlicht und sind Ergebnisse po-
litischer Entscheidungen. Für solche Daten ist eine Visualisierung oftmals schwierig
(wie z. B. Abb. 15), da sie vergleichsweise sehr spezifisch und fachbezogen sind. Da-
her gibt es nur wenige spezialisierte Visualisierungsmöglichkeiten.65 Für erhobene
Daten gibt es in der Regel deutlich mehr Visualisierungen, da sie auf gängigen For-
men basieren. Den Großteil stellen statistische Daten dar. Zahlen zur Bevölkerungs-
entwicklung, Migration, Bruttoinlandsprodukt oder diverse Wirtschaftsindikatoren
lassen sich temporal visualisieren. Aber auch Abhängigkeiten zwischen verschiede-
nen Daten zu Entitäten wie zu Behörden oder konkreten Ansprechpartnern lassen
sich teilweise abfragen und visualisieren.
5.4 Datenvisualisierung 495
63 Vgl. Kohlhammer et al. 2012, 8485.
64 Ein Beispiel für Folgenanalysen ist die in Deutschland über § 44 Absatz 1 der Gemeinsamen
Geschäftsordnung der Bundesministerien (GGO) rechtlich vorgeschriebene Gesetzesfolgenabschät-
zung (GFA). Sie befasst sich im klassischen Sinne mit der Aufgabe, wahrscheinliche Folgen und
Nebeneffekte von Regelungsvorhaben (prospektive GFA), entstehenden (begleitende GFA) oder be-
stehenden Gesetzen (retrospektive GFA) zu ermitteln und diese zu beurteilen. Siehe zur Praxis der
Gesetzesfolgenabschätzung Böhret und Konzendorf, 2001, S. 1 oder das Impact Assessment der Eu-
ropäischen Union unter https://ec.europa.eu/info/law/law-making-process/planning-and-propo-
sing-law/impact-assessments_en. Ein konkretes Anwendungsbeispiel findet sich in Below 2018.
65 Vgl. Burkhardt und Nazemi 2018, 157160.
Abb. 15: Visualisierung von formalen Government Daten, wie z. B. Gesetze, sind oftmals sehr spezi-
ell und erfordern individuelle Ansätze66
5.3 Visualisierung von verknüpftem Wissen
Ein spezielles Feld nimmt die Verknüpfung von Wissen ein.67 Da durch die Ver-
knüpfung über verschiedene Datenbasen hinweg, die Daten stetig anwachsen, ist
deren Verwendung sehr weitreichend. Sie eignen sich für eine Vielzahl an Auswer-
tungen und haben ebenfalls eine Vielzahl an potentiellen Einsatzszenarien. Am be-
kanntesten ist dabei das Semantic Web, wie es etwa durch DBpedia68 umgesetzt ist.
Dabei handelt es sich bei DBpedia im Wesentlichen um eine semantisch-angerei-
cherte Variante der Wikipedia,69 jedoch wird sie von diversen weiteren Datenban-
ken ergänzt. Zur Identifikation von Ressourcen über die Datenbanken hinweg wer-
den sogenannte URI (Abkürzung für: Uniform Resource Identifier) verwendet. Über
diese URI können Drittquellen Ressourcen um weitere Information ergänzen oder
sie in Relation zu anderen Ressourcen stellen. Damit entsteht ein großes Informati-
onsnetz mit heterogenen Daten. Aus diesem Wissensnetz lassen sich verschiedene
Visualisierungen entwickeln, von analytischen Systemen bis hin zu explorativen
Systemen (in Abb. 16 dargestellt).
496 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
66 Vgl. Burkhardt und Nazemi 2018, 159160.
67 Vgl. Nazemi et al. 2015a, 7677.
68 S. https://www.dbpedia.org.
69 S. https://www.wikipedia.org.
Abb. 16: Screenshot von einer Semantic-Web Visualisierungslösung, die sich aus verschiedenen
Linked-Open Daten Quellen die Ergebnisse visualisiert70
5.4 Visualisierung von Produktions- und Manufakturdaten
Informationsvisualisierung und Visual Analytics in Smart Manufacturing bekommt
immer mehr Aufmerksamkeit durch die Wissenschaft. Eine hohe Anzahl an Senso-
ren und die Verknüpfung untereinander führt zu immer größeren Datenmengen. Im
Fehlerfall präzise und schnell reagieren zu können, kann helfen die Ausfallzeit zu
vermindern und Kosten einzusparen.71 Ein Fehlerfall geht meist im Vorfeld mit Ano-
malien innerhalb des Datenstroms einher. Diese Anomalien zu erkennen, bevor der
Fehlerfall eintritt, bildet dabei den Schlüssel zum Erfolg.
Neuere Visual Analytics Ansätze (vgl. Abb. 17), wie bei Xu et al. vorgestellt,72
ermöglichen eine Echtzeitüberwachung von gesamten Fertigungsstrecken mit Hilfe
einer durchdachten Oberfläche. Mit KI-Methoden können schon heute große Daten-
mengen analysiert werden.73 Dabei kann ein Visual Analytics-System aktiv dabei
unterstützen die richtigen Parameter für eine KI-Anwendung zu setzen und die Er-
gebnisse zu evaluieren.74 Diese zwei Publikationen stehen stellvertretend für zwei
Forschungsrichtungen innerhalb des Smart Manufacturing Forschungsfeldes. Zum
5.4 Datenvisualisierung 497
70 Vgl. Nazemi 2016, 284.
71 Vgl. Kaupp et al. 2017, 8397; Beez et al. 2018, 163180.
72 Vgl. Xu et al. 2017, 291300.
73 Vgl. Kaupp et al. 2019, 5565.
74 Vgl. Xu et al. 2018, 109119.
einen, von der Maschine ausgehend, den kompletten Fertigungsprozess zu visuali-
sieren,75 zum anderen die verwendeten Methoden transparenter zu gestalten.76
Beide setzen damit auf Anomaly Detection oder auch Novelty Detection. Wobei
im Kontext des Smart Manufacturing große Mengen multivariater Daten meist unsu-
pervised anomaly detection Algorithmen genutzt werden. Dabei können auch Ver-
fahren des maschinellen Lernens eingesetzt werden. Ein Datensatz innerhalb des
maschinellen Lernens besteht dabei immer aus Eingangswerten (Ausgangsituation)
und der passenden Beschreibung (Label). Bei großen Datenmengen (in der Regel
mehrere Terabytes) jeden Datensatz händisch zu annotieren, ist dabei sehr zeit- und
arbeitsintensiv, also schlussendlich kostenintensiv und fehleranfällig. Weshalb hier
auf unüberwachte (unsupervised) Techniken zurückgegriffen wird. Hier fehlt das
Label und die Anomalie wird mittels mathematischer Operationen auf Basis der
Ausgangsituation bestimmt. Ke Xu et al. erzeugen automatische Verbünde (Ensem-
bles) von vordefinierten Anomalie-Detektions-Algorithmen auf Basis der verschiede-
nen Datentypen und visualisieren deren Effektivität. So können für bestimmte Da-
ten die besten Ensembles ausgewählt werden, um innerhalb der großen Menge
multivariater Daten effektiv Anomalien zu entdecken. Mit dieser Methodik wird der
Weg von den Daten zur Anomalie transparent gestaltet.
Abb. 17: ViDX Visual Diagnostics of Assembly Line Performance in Smart Factories77
498 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
75 Vgl. Xu et al. 2017, 291300.
76 Vgl. Xu et al. 2018, 109119.
77 Vgl. Xu et al. 2017, 291.
Xu et al. zeigen mit ViDX (Visual Diagnostics of Anssembly Line Performance for
Smart Factories) ein Dashboard, das den Fertigungsprozess visualisiert. Unterteilt ist
die Oberfläche in fünf Abschnitte; die Station-Map, Histogramme, einen erweiterten
Marey-Graphen, darüberliegend eine Timeline mit Kalender (vgl. Abb. 17). Mittels Sta-
tion Map werden (links außen in Abb. 17) der Ablauf und die Verbindungen der einzel-
nen Stationen visualisiert. Das Histogramm zeigt die Auslastung der Station. Der er-
weiterte Marey-Graph gibt durch die parallele Betrachtung aller Stationen gleichzeitig
einen Überblick über Ausfälle (Lücken) oder Verzögerungen (zusammenlaufender
Graph mit verzögerter Weiterverarbeitung). Anhand der Timeline kann der Ausschuss
der Fertigungsstraße verglichen und Anomalien können so schneller gefunden wer-
den. Der Kalender aggregiert dabei die Timeline auf Monatsbasis. Ke Xu et al.
76
über-
wachen in der Historie, also über die Zeit, die physische Anordnung und den Ausstoß
einer ganze Fabrik. Heutige Fabriken emittieren meist noch komplexere Datensätze,
welche noch speziellere Visualisierungen in Zukunft nötig machen. Die Datenvisuali-
sierung bildet damit eine wesentliche Grundlage innerhalb des Smart Manufacturing
und sorgt dafür sehr komplexe Sachverhalte sinnbringend darzustellen.
Fazit
Die steigende Menge an Daten stellt eine große Herausforderung zur Bearbeitung,
Analyse und Gewinnung neuer Erkenntnisse dar. Methoden der Datenvisualisie-
rung, insbesondere jene der Informationsvisualisierung und Visual Analytics bieten
hier Möglichkeiten, aus enorm großen Datenmengen Erkenntnisse zu gewinnen,
Wissen zu generieren und Muster in den Daten zu erkennen. Dieser Trend hat dazu
geführt, dass Visual Analytics und Informationsvisualisierung längst zu etablierten
Methoden der Datenanalyse gehören. Dies beschränkt sich nicht nur auf Forschung,
sondern erweitert den Nutzerkreis auf Akteure der Wirtschaft. So gibt es diverse
Werkzeuge von fast allen Softwareanbietern im Bereich der Business Intelligence,
die teilweise für wissenschaftliche Zwecke frei genutzt werden können. Beispielhaft
sollen hier die bekanntesten Systeme genannt werden. Microsoft bietet mit Power-
BI78 eine Lösung an, die vergleichsweise einfach strukturierte Daten mit verschiede-
nen visuellen Layouts darstellen kann. Dabei können visuelle Variablen auch perso-
nalisiert werden. Die Nutzung der Desktop-Variante ist kostenlos.79 Tableau80 ist
ebenfalls eine Lösung zur Visualisierung strukturierter Daten. Diese hat ähnliche
Funktionen wie PowerBI und ist zu Lehr- und Forschungszwecken als Desktop-Vari-
5.4 Datenvisualisierung 499
78 S. https://powerbi.microsoft.com/de-de/.
79 S. https://powerbi.microsoft.com/de-de/desktop/?WT.mc_id=Blog_Desktop_Update.
80 S. https://www.tableau.com/de-de.
ante kostenlos. Microsoft Azure81 steht an den meisten Hochschulen kostenlos zur
Verfügung. Der Trend des kombinierten Einsatzes von maschinellen Lernverfahren
bzw. Methoden der künstlichen Intelligenz und Visualisierungen ist in der For-
schung zum Zeitpunkt des Erscheinens dieses Buches von enormer Bedeutung und
wird in Zukunft zu vielen weiteren Entwicklungen im Bereich Visual Analytics füh-
ren, die auch zur Laufzeit die Auswahl der Methode und Parametrisierungen erlau-
ben wird. Um die oben genannten Werkzeuge adäquat nutzen zu können, wurden
in diesem Kapitel kanonische und wissenschaftlich etablierte Aspekte der Visuali-
sierung dargestellt.
Literaturverzeichnis
Letztes Abrufdatum der Internet-Dokumente ist der 15.11.2020.
Aggarwal, Charu C., Hg. 2017. Outlier Analysis. 2nd ed. 2017. Cham: Springer International Publi-
shing.
Aigner, Wolfgang, Silvia Miksch, Heidrun Schumann und Christian Tominski. 2011. Visualization of
Time-Oriented Data. London: Springer.
Andrienko, Natalia und Gennady Andrienko. 2006. Exploratory Analysis of Spatial and Temporal
Data. Berlin, Heidelberg: Springer-Verlag.
Beez, Ulrich, Lukas Kaupp, Tilman Deuschel, Bernhard G. Humm, Fabienne Schumann, Jürgen Bock
und Jens Hülsmann. 2018. Context-Aware Documentation in the Smart Factory.In Semantic
applications: Methodology, technology, corporate use. Bd. 23, hg. v. Thomas Hoppe, Bernhard
Humm und Anatol Reibold, 16380. Berlin: Springer.
Bertin, Jacques. 1983. Semiology of Graphics: Diagrams, Networks, Maps. Übersetzt von J. B. Berg.
Madison, Wis. Univ. of Wisconsin Press.
Below, Nicola. 2018. Partizipation und Transparenz der europäischen Chemikalienregulierung - Ju-
ristische Analyse der Inklusionsleistung der europäischen Chemikalienregulierungsbehörden,
FORUM Wirtschaftsrecht 24, Kassel: kassel university press.
Blei, David M., Andrew Y. Ng und Michael I. Jordan. 2003. Latent Dirichlet Allocation.The Journal
of Machine Learning Research 3: 9931022.
Böhret, Carl; Konzendorf, Götz. 2001. Handbuch Gesetzesfolgenabschätzung (GFA), Gesetze,
Verordnungen, Verwaltungsvorschriften, Baden-Baden: Nomos Verlag.
Burkhardt, Dirk und Kawa Nazemi. 2018. Visualizing Law A Norm-Graph Visualization Approach
based on Semantic Legal Data.In The 4th International Conference of the Virtual and Augmen-
ted Reality in Education: I3M.
Burkhardt, Dirk, Kawa Nazemi, Jan R. Zilke, Jörn Kohlhammer und Arjan Kuijper. 2014. Fundamen-
tal Aspects for E-Government.In Handbook of research on advanced ICT integration for gover-
nance and policy modeling, hg. v. Dirk Burkhardt, Giorgio Prister, Kawa Nazemi, Peter Sonn-
tagbauer und Susanne Sonntagbauer, 118. (Advances in Electronic Government, Digital Divi-
de, and Regional Development.) Hershey, Pa.: IGI Global.
500 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
81 S. https://azure.microsoft.com/de-de/.
Card, S. K. und J. Mackinlay. 1997. The Structure of the Information Visualization Design Space.In
Proceedings of VIZ 97: Visualization Conference, Information Visualization Symposium and
Parallel Rendering Symposium,9299. Los Alamitos: IEEE Computer Society Press.
Card, Stuart K., Jock D. Mackinlay und Ben Shneiderman, Hg. 1999. Readings in Information Visuali-
zation: Using Vision to Think. [Nachdr.]. (The Morgan Kaufmann series in interactive technolo-
gies.) San Francisco, Ca.: Morgan Kaufmann.
Earnshaw, Rae A. und Norman Wiseman. 1992. What Scientific Visualization Can Do!.InAn Intro-
ductory Guide to Scientific Visualization, hg. v. Rae A. Earnshaw und Norman Wiseman, 519.
Berlin, Heidelberg: Springer.
El-Assady, Mennatallah, Rebecca Kehlbeck, Christopher Collins, Daniel Keim und Oliver Deussen.
2020. Semantic Concept Spaces: Guided Topic Model Refinement Using Word-Embedding
Projections.IEEE transactions on visualization and computer graphics 26 (1): 100111.
doi:10.1109/TVCG.2019.2934654.
Gahegan, Mark. 1998. Scatterplots and scenes: visualisation techniques for exploratory spatial
analysis.Computers, Environment and Urban Systems 22 (1): 4356. doi:10.1016/S0198-9715
(98)00018-0.
Inselberg, A. und B. Dimsdale. 1990. Parallel coordinates: a tool for visualizing multi-dimensional
geometry.In Proceedings of the 1st Conference on Visualization 90, 36178. VIS 90. Los Ala-
mitos, CA. http://dl.acm.org/citation.cfm?id=949531.949588.
Kaupp, Lukas, Ulrich Beez, Jens Hülsmann und Bernhard G. Humm. 2019. Outlier Detection in
Temporal Spatial Log Data Using Autoencoder for Industry 4.0.In Engineering Applications of
Neural Networks. Bd. 1000, hg. v. John Macintyre, Lazaros Iliadis, Ilias Maglogiannis und Chri-
sina Jayne, 5565. Cham: Springer International Publishing.
Kaupp, Lukas, Ulrich Beez, Bernhard G. Humm und Jens Hülsmann. 2017. From Raw Data to Smart
Documentation: Introducing a Semantic Fusion Process for Cyber-Physical Systems.In
CERC2017 Collaborative European Research Conference: Proceedings,8397. Karlsruhe.
Keim, Daniel, Hg. 2010. Mastering the Information Age: Solving Problems with Visual Analytics.
Goslar: Eurographics Association.
Keim, Daniel, Christian Panse und Mike Sips. 2005. Information Visualization: Scope, Techniques
and Opportunities for Geovisualization.In Exploring Geovisualization. Dykes, J. et al. (Hrsg.).
Oxford, Elsevier, 2005. S. 117.
Kohlhammer, Jörn, Kawa Nazemi, Tobias Ruppert und Dirk Burkhardt. 2012. Toward Visualization
in Policy ModelingIEEE computer graphics and applications 32 (5): 8489. doi:10.1109/
MCG.2012.107.
Macintosh, A. 2004. Characterizing E-Participation in Policy-Making.In Proceedings of the 37th
Annual Hawaii International Conference on System Sciences: Abstracts and CD-ROM of full pa-
pers: 58 January, 2004, Big Island, Hawaii, hg. v. Ralph H. Sprague. Los Alamitos, Ca.: IEEE
Computer Society Press.
Mackinlay, Jock. 1986. Automating the design of graphical presentations of relational informati-
on.ACM Trans. Graph. 5 (2): 11041. doi:10.1145/22949.22950.
May, T. und J. Kohlhammer. 2008. Towards closing the analysis gap: Visual generation of decision
supporting schemes from raw data.Computer Graphics Forum 27 (3): 91118. doi:10.1111/
j.1467-8659.2008.01224.x.
May, Thorsten, James Davey und J. Kohlhammer. 2010. Combining Statistical Independence
Testing, Visual Attribute Selection and Automated Analysis to Find Relevant Attributes for Clas-
sification.In IEEE Symposium on Visual Analytics Science and Technology (VAST), 2010: 25
26 Oct. 2010, Salt Lake City, Utah, USA; proceedings /sponsored by IEEE Computer Society Vi-
sualization and Graphics Technical Committee. Ed. by Alan MacEachren, 23940. Piscataway,
NJ: IEEE Press.
5.4 Datenvisualisierung 501
Munzner, Tamara. 2014. Visualization Analysis and Design. AK Peters Visualization Series. Hobo-
ken: Taylor and Francis.
Nazemi, Kawa. 2016. Adaptive Semantics Visualization. Studies in computational intelligence Volu-
me 646. ORT: Springer.
Nazemi, Kawa. 2018. Intelligent Visual Analytics a Human-Adaptive Approach for Complex and
Analytical Tasks.In Advances in Intelligent Systems, hg. v. Ahram Karwowski und Tareq
Ahram, 180190. Cham: Springer International Publishing.
Nazemi, Kawa und Dirk Burkhardt. 2019a. A Visual Analytics Approach for Analyzing Technological
Trends in Technology and Innovation Management.In Advances in Visual Computing. Bd.
11845, hg. v. George Bebis, Richard Boyle, Bahram Parvin, Darko Koracin, Daniela Ushizima,
Sek Chai, Shinjiro Sueda et al., 283294. (Lecture Notes in Computer Science.) Cham: Springer
International Publishing.
Nazemi, Kawa und Dirk Burkhardt. 2019b. Visual Analytics for Analyzing Technological Trends
from Text.In Information Visualisation: Biomedical visualization and geometric modelling &
imaging, hg. v. E. Banissi, 191200. Los Alamitos, CA: IEEE Computer Society, Conference Pu-
blishing Services.
Nazemi, Kawa, Dirk Burkhardt, Egils Ginters und Jorn Kohlhammer. 2015a. Semantics Visualizati-
on Definition, Approaches and Challenges.Procedia Computer Science 75: 7583.
doi:10.1016/j.procs.2015.12.216.
Nazemi, Kawa, Reimond Retz, Dirk Burkhardt, Arjan Kuijper, J. Kohlhammer und Dieter W. Fellner.
2015b. Visual trend analysis with digital libraries: Proceedings of the 15th International Confe-
rence on Knowledge Technologies and Data-driven Business i-KNOW 15, New York, USA,
ACM Press, 2015.
Shneiderman, B. 1996. The eyes have it: a task by data type taxonomy for information visualizati-
ons.In Proceedings 1996 IEEE Symposium on Visual Languages, 33643.
Stevens, S. S. 1946. On the Theory of Scales of Measurement.Science 103 (2684): 677680.
doi:10.1126/science.103.2684.677.
Stoffel, Sacha, Andreas Stoffel, Florian Kwon, Bum Chul, Geoffrey Ellis und Daniel Keim. 2014.
Knowledge Generation Model for Visual Analytics.IEEE transactions on visualization and
computer graphics 20 (12): 16041613. doi:10.1109/TVCG.2014.2346481.
Thomas, James J. und Kristin A. Cook. 2005. Illuminating the Path: The Research and Development
Agenda for Visual Analytics. United States US Department of Homeland Security: National Vi-
sualization and Analytics Center, IEEE Press.
Velleman, Paul F. und Leland Wilkinson. 1993. Nominal, Ordinal, Interval, and Ratio Typologies are
Misleading.The American Statistician 47 (1): 6572. doi:10.1080/00031305.1993.10475938.
Viau, Christophe, Michael McGuffin, Yves Chiricota und Igor Jurisica. 2010. The FlowVizMenu and
Parallel Scatterplot Matrix: Hybrid Multidimensional Visualizations for Network Exploration.
IEEE transactions on visualization and computer graphics 16 (6): 11001108. doi:10.1109/
TVCG.2010.205.
Ward, Matthew O., Georges Grinstein und Daniel Keim. 2010. Interactive Data Visualization: Foun-
dations, Techniques, and Applications. Hoboken: 360 Degree Business.
West, Thomas G. 1999. Images and reversals: James Clerk Maxwell, working in wet claySIGGRAPH
Comput. Graph. 33 (1): 15. doi:10.1145/563666.563671.
Xu, Ke, Meng Xia, Xing Mu, Yun Wang und Nan Cao. 2018. EnsembleLens: Ensemble-Based Visual
Exploration of Anomaly Detection Algorithms with Multidimensional Data.IEEE transactions
on visualization and computer graphics. doi:10.1109/TVCG.2018.2864825.
Xu, Panpan, Honghui Mei, Liu Ren und Wei Chen. 2017. ViDX: Visual Diagnostics of Assembly Line
Performance in Smart Factories.IEEE transactions on visualization and computer graphics 23
(1): 291300. doi:10.1109/TVCG.2016.2598664.
502 Kawa Nazemi, Lukas Kaupp, Dirk Burkhardt und Nicola Below
ResearchGate has not been able to resolve any citations for this publication.
Chapter
Full-text available
Industry is changing rapidly under industry 4.0. The manufacturing process and its cyber-physical systems (CPSs) produce large amounts of data with many relationships and dependencies in the data. Outlier detection and problem solving is difficult in such an environment. We present an unsupervised outlier detection method to find outliers in temporal spatial log data without domain-specific knowledge. Our method is evaluated with real-world unlabeled CPS log data extracted from a quality glass inspection machine used in production. As a measurement metric for success, we set reasonable outlier areas in cooperation with a domain expert. Using our proposed method, we were able to find all known outlier areas. In addition, we found outliers that were not previously known and have been verified as outliers by a domain expert ex post.
Conference Paper
Full-text available
Laws or in general legal documents regulate a wide range of our daily life and also define the borders of business models and commercial services. However, legal text and laws are almost hard to understand. From other domains it is already known that visualizations can help understanding complex aspects easier. In fact, in this paper we introduce a new approach to visualize legal texts in a Norm-graph visualization. In the developed Norm-graph visualization it is possible to show major aspects of laws and make it easier for users to understand it. The Norm-graph is based on semantic legal data, a so called Legal-Concept-Ontology.
Chapter
Full-text available
When machine errors occur in factories, it is important to act quickly in an appropriate way. Depending on the complexity of the error situation and the skill level of the personnel, it is important to identify the appropriate technical documentation quickly. This paper presents a methodology for semantically matching symptoms and causes in error situations, and automatically presenting solutions to end-users in an intuitive way. For demonstration purposes, the use case of robotics application development is chosen.
Book
Full-text available
This book introduces a novel approach for intelligent visualizations that adapts the different visual variables and data processing to human’s behavior and given tasks. Thereby a number of new algorithms and methods are introduced to satisfy the human need of information and knowledge and enable a usable and attractive way of information acquisition. Each method and algorithm is illustrated in a replicable way to enable the reproduction of the entire “SemaVis” system or parts of it. The introduced evaluation is scientifically well-designed and performed with more than enough participants to validate the benefits of the methods. Beside the introduced new approaches and algorithms, readers may find a sophisticated literature review in Information Visualization and Visual Analytics, Semantics and information extraction, and intelligent and adaptive systems. This book is based on an awarded and distinguished doctoral thesis in computer science.
Conference Paper
The awareness of emerging technologies is essential for strategic decision making in enterprises. Emerging and decreasing technological trends could lead to strengthening the competitiveness and market positioning. The exploration, detection and identification of such trends can be essentially supported through information visualization, trend mining and in particular through the combination of those. Commonly, trends appear first in science and scientific documents. However, those documents do not provide sufficient information for analyzing and identifying emerging trends. It is necessary to enrich data, extract information from the integrated data, measure the gradient of trends over time and provide effective interactive visualizations. We introduce in this paper an approach for integrating, enriching, mining, analyzing, identifying and visualizing emerging trends from scientific documents. Our approach enhances the state of the art in visual trend analytics by investigating the entire analysis process and providing an approach for enabling human to explore undetected potentially emerging trends. (Best Paper Award at IV2019)
Article
We present a framework that allows users to incorporate the semantics of their domain knowledge for topic model refinement while remaining model-agnostic. Our approach enables users to (1) understand the semantic space of the model, (2) identify regions of potential conflicts and problems, and (3) readjust the semantic relation of concepts based on their understanding, directly influencing the topic modeling. These tasks are supported by an interactive visual analytics workspace that uses word-embedding projections to define concept regions which can then be refined. The user-refined concepts are independent of a particular document collection and can be transferred to related corpora. All user interactions within the concept space directly affect the semantic relations of the underlying vector space model, which, in turn, change the topic modeling. In addition to direct manipulation, our system guides the users' decisionmaking process through recommended interactions that point out potential improvements. This targeted refinement aims at minimizing the feedback required for an efficient human-in-the-loop process. We confirm the improvements achieved through our approach in two user studies that show topic model quality improvements through our visual knowledge externalization and learning process.
Article
The results of anomaly detection are sensitive to the choice of detection algorithms as they are specialized for different properties of data, especially for multidimensional data. Thus, it is vital to select the algorithm appropriately. To systematically select the algorithms, ensemble analysis techniques have been developed to support the assembly and comparison of heterogeneous algorithms. However, challenges remain due to the absence of the ground truth, interpretation, or evaluation of these anomaly detectors. In this paper, we present a visual analytics system named EnsembleLens that evaluates anomaly detection algorithms based on the ensemble analysis process. The system visualizes the ensemble processes and results by a set of novel visual designs and multiple coordinated contextual views to meet the requirements of correlation analysis, assessment and reasoning of anomaly detection algorithms. We also introduce an interactive analysis workflow that dynamically produces contextualized and interpretable data summaries that allow further refinements of exploration results based on user feedback. We demonstrate the effectiveness of EnsembleLens through a quantitative evaluation, three case studies with real-world data and interviews with two domain experts.
Chapter
Visual Analytics enables solving complex and analytical tasks by combining automated data analytics methods and interactive visualizations. The complexity of tasks, the huge amount of data and the complex visual representation may overstrain the users of such systems. Intelligent and adaptive visualizations system show already promising results to bridge the gap between human and the complex visualization. We introduce in this paper a revised version of layer-based visual adaptation model that considers the human perception and cognition abilities. The model is then used to enhance the most popular Visual Analytics model to enable the development of Intelligent Visual Analytics systems.
Article
Visual analytics plays a key role in the era of connected industry (or industry 4.0, industrial internet) as modern machines and assembly lines generate large amounts of data and effective visual exploration techniques are needed for troubleshooting, process optimization, and decision making. However, developing effective visual analytics solutions for this application domain is a challenging task due to the sheer volume and the complexity of the data collected in the manufacturing processes. We report the design and implementation of a comprehensive visual analytics system, ViDX. It supports both real-time tracking of assembly line performance and historical data exploration to identify inefficiencies, locate anomalies, and form hypotheses about their causes and effects. The system is designed based on a set of requirements gathered through discussions with the managers and operators from manufacturing sites. It features interlinked views displaying data at different levels of detail. In particular, we apply and extend the Marey's graph by introducing a time-aware outlier-preserving visual aggregation technique to support effective troubleshooting in manufacturing processes. We also introduce two novel interaction techniques, namely the quantiles brush and samples brush, for the users to interactively steer the outlier detection algorithms. We evaluate the system with example use cases and an in-depth user interview, both conducted together with the managers and operators from manufacturing plants. The result demonstrates its effectiveness and reports a successful pilot application of visual analytics for manufacturing in smart factories.