Augmented Reality in Architektur und Stadtplanung

Article (PDF Available) · January 2015with118 Reads
Abstract
„Augmented Reality“ und „Virtual Reality“, beim Gedanken an diese Begriffe sind Beispiele aus Kinofilmen wie „Iron Man“ oder „Terminator“ präsent. Der Einsatz in der Architektur und Stadtplanung liegt dagegen zunächst nicht direkt auf der Hand. Bei einer Betrachtung des Aufgabenprofils von Architekten und Planern, zu denen insbesondere die Teilbereiche Visualisierung und Kommunikation gehören, verwundert es dagegen nicht, dass die Potenziale dieser neuen Anwendungen zunehmend betrachtet werden. Insbesondere aufgrund der rasanten Entwicklungen im Smartphone-Bereich und somit der Verbreitung dieser Techniken in der Bevölkerung könnten sie eine völlig neue Art des Informationszugangs bieten. Nachdem im theoretischen Teil dieses Beitrags die Grundzüge der Augmented Reality und die technischen Voraussetzungen zur Umsetzung von AR-Umgebungen erklärt werden, liegt der Schwerpunkt anschließend auf der Herausarbeitung der Möglichkeiten aktueller AR-Techniken. Diese werden anhand ausgewählter praktischer Beispiele aufgezeigt, die sich nach dem damit umsetzbaren Detaillierungsgrad der Darstellung aufgliedern und zunehmend steigern. Dabei wird nicht nur auf Beispiele aus dem Bereich der Augmented Reality-Methoden, sondern ebenso auf den Übergang zu Mixed Reality- und Virtual Reality-Verfahren eingegangen.
3 Figures

Full-text (PDF)

Available from: Wolfgang Höhl, Apr 14, 2016
Science
LEITBILD
SMART CITIES
Technologische und
planerische Aspekte.
URBAN
EMOTIONS
Neue und bürgerzentrierte
Sichtweise auf die Stadt.
AUGMENTED
REALITY
Potenziale für Architektur
und Stadtplanung.
LEERSTANDS-
MANAGEMENT
Entwicklung einer Plattform
für Bürger und Verwaltung.
ISSN 1869-9391
1/2015
Die Zeitschrift für Geoinformatik
www.gisPoint.de
AUGMENTED REALITY IN ARCHITEKTUR UND STADTPLANUNG
gis.SCIENCE 1/201520 I
Ludwig-Maximilians-Universität München; Technische Universität Kaiserslautern
AUGMENTED REALITY IN ARCHITEKTUR UND STADTPLANUNG
Wolfgang Höhl, Daniel Broschart
Zusammenfassung: Der Begriff der Augmented Reality (AR; erweiterte Realität) mag zunächst nach Science-Fiction klingen, aber
insbesondere aufgrund der technischen Entwicklungen im Smartphone-Bereich wird ein Einsatz in der Architektur und Stadtplanung
zunehmend interessanter. Der Beitrag versucht, grundsätzliche AR-Techniken aufzuzeigen und deren Potenziale darzulegen. Zur Er-
klärung dieser Techniken werden Forschungsprojekte herangezogen, die sich anhand eines zunehmend umsetzbaren Detaillierungs-
grads gliedern.
Schlüsselwörter: Augmented Reality, Virtual Reality, Architektur, Stadtplanung, Smartphone, GPS, Marker
AUGMENTED REALITY IN ARCHITECTURE AND URBAN PLANNING
Abstract: Augmented Reality (AR) sounds a bit like science fiction. But while there is a fast development in the smartphone-sector the
usage in both architecture and urban planning gets more and more interesting. This paper tries to present basic augmented reality
techniques and their potentials. To explain these techniques there are a certain mount of research projects which are arranged by
the level of detail that can be realized while using the different techniques.
Keywords: Augmented reality, virtual reality, architecture, urban planning, smartphone, GPS, marker
Autoren
Dr.-Ing. Wolfgang Höhl
Ludwig-Maximilians-Universität München
Lehrstuhl für Medieninformatik
Amalienstraße 17
D-80333 München
E: wolfgang.hoehl@lmu.de
M. Sc. Daniel Broschart
Technische Universität Kaiserslautern
Fachgebiet Computergestützte Planungs- und Entwurfsmethoden
Pfaffenbergstraße 95
D-67663 Kaiserslautern
E: dbroscha@rhrk.uni-kl.de
1 MOTIVATION
„Augmented Reality (AR)“ und „Virtual Rea-
lity (VR)“– beim Gedanken an diese Begrif-
fe sind Beispiele aus Kinofilmen wie „Iron
Man“ oder „Terminator“ präsent. Der Ein-
satz in der Architektur und Stadtplanung
liegt dagegen zunächst nicht direkt auf der
Hand. Bei einer Betrachtung des Aufga-
benprofils von Architekten und Planern, zu
denen insbesondere die Teilbereiche Visua-
lisierung und Kommunikation gehören, ver-
wundert es dagegen nicht, dass die Poten-
ziale dieser neuen Anwendungen zuneh-
mend betrachtet werden. Insbesondere
aufgrund der rasanten Entwicklungen im
Smartphone-Bereich und somit der Verbrei-
tung dieser Techniken in der Bevölkerung
könnten sie eine völlig neue Art des Infor-
mationszugangs bieten.
Nachdem im theoretischen Teil dieses
Beitrags die Grundzüge der Augmented
Reality und die technischen Voraussetzun-
gen zur Umsetzung von AR-Umgebungen
erklärt werden, liegt der Schwerpunkt an-
schließend auf der Herausarbeitung der
Möglichkeiten aktueller AR-Techniken.
Diese werden anhand ausgewählter
praktischer Beispiele aufgezeigt, die sich
nach dem damit umsetzbaren Detaillie-
rungsgrad der Darstellung aufgliedern
und zunehmend steigern. Dabei wird
nicht nur auf Beispiele aus dem Bereich
der Augmented-Reality-Methoden, son-
dern ebenso auf den Übergang zu
Mixed-Reality- und Virtual-Reality-Verfah-
ren eingegangen.
gis.SCIENCE 1 (2015) 20-29
gis.SCIENCE 1/2015 I
21
2 AUGMENTED REALITY (AR)
2.1 BEGRIFFSDEFINITION UND TECH-
NISCHE VORAUSSETZUNGEN
Direkt übersetzt bedeutet Augmented Reali-
ty „erweiterte Realität“ oder „angereicherte
Realität“ und wird den sogenannten
Mensch-Maschine-Interaktionsmethoden
zugeordnet (Zeile 2010, S.28). Nach ei-
ner allgemeinen Betrachtung werden mit
Augmented Reality die Möglichkeiten einer
computergestützten Überlagerung mensch-
licher Sinneswahrnehmungen in Echtzeit
bezeichnet (Milgram & Colquohoun
1999). Folglich kann die Realität mithilfe
eines solchen AR-Systems um visuelle, akus-
tische als auch haptische Informationen er-
weitert werden (Höhl 2008, S. 10). Um
eine AR-Darstellung umsetzen zu können,
werden grundsätzlich vier Komponenten
benötigt (Zeile 2011):
X Eine Rendereinheit, d. h. ein Computer
mit entsprechender Software,
Xein Trackingsystem, wobei es sich da-
bei entweder um einen GPS-Empfänger
oder ein Bilderkennungssystem handeln
kann,
Xein Aufnahmesensor in der Form einer
Kamera und
Xeine Anzeigekomponente, d. h. ein
Monitor.
Werden diese Voraussetzungen gewähr-
leistet, d. h. alle Komponenten sind vorhan-
den, lassen sich mit ihnen vier unterschied-
liche AR-Darstellungsverfahren umsetzen
(Höhl 2008):
XProjective Augmented Reality (PAR): Die
digitalen Inhalte werden mithilfe von
Beamern auf real existierende Objekte
projiziert.
XVideo See-Through (VST): Die zu über-
lagernden Inhalte werden auf zwei klei-
ne vor dem Auge platzierte Bildschirme
einer nach außen abgeschlossenen
Datenbrille projiziert.
XOptical See-Through (OST): Bei diesem
Verfahren wird ebenfalls eine Datenbril-
le eingesetzt, jedoch wird die Realitäts-
überlagerung auf einem halbdurchlässi-
gen Spiegel dargestellt.
XMonitor Augmented Reality (MAR): Die-
se Methode verwendet einen Monitor
als Anzeigekomponente. Kamera und
Rendereinheit spielen zusammen und
erzeugen auf dem Display eine Abbil-
dung der Realität mit virtueller Überla-
gerung.
Jüngste Smartphone- und Tablet-Generatio-
nen erfüllen die oben aufgeführten Voraus-
setzungen ebenfalls und so handelt es sich
bei der Monitor Augmented Reality um die-
jenige AR-Methode, die von diesen „Com-
putern im Hosentaschenformat“ umgesetzt
werden können. Dazu ist lediglich das Auf-
spielen einer App in Form eines sogenann-
ten AR-Browsers erforderlich, um die Funkti-
onen der Rendereinheit übernehmen zu
können. Diese AR-Form kann auch als mo-
bile Monitor Augmented Reality (mMAR)
bezeichnet werden und stellt eine Weiter-
entwicklung der MAR dar: Der Betrachter
ist nicht länger an einen festen Standort
gebunden und kann sich frei im Raum be-
wegen. Dadurch lässt sich die mMAR na-
hezu überall einsetzen (Allbach et al.
2011).
2.2 GEOLOKALISIERUNG, MARKER-
BASIERTES UND MARKERLOSES
TRACKING
Bei einer Fokussierung auf die eingesetzte
Trackingtechnik aktueller AR-Techniken fällt
auf, dass sich diese wiederum in drei
grundsätzliche Verfahrensarten unterschei-
den lassen: GPS-Tracking, markerloses und
markerbasiertes Tracking. Beim GPS-Tra-
cking wird auf das integrierte GPS-Modul
zurückgegriffen. Markerbasierte Systeme
beruhen auf einem Bilderkennungsverfah-
ren und setzen sogenannte optische Mar-
ker ein. Markerlose Trackingsysteme arbei-
ten mit einer Kanten- und Flächenerkennung
im aktuellen Kamerabild und gleichen die
Abbildung der erkannten Kanten und Flä-
chen mit der Lage der entsprechenden
Geometrie in einem vorher angefertigten
3D-Modell ab. Dies erfordert eine vorher-
gehende genaue Kalibrierung und Skalie-
rung von 3D-Modell und Bild (vgl. Schattel
et al. 2014). Beim Verfahren der Geoloka-
lisierung werden die anzuzeigenden Inhal-
te mit den zugehörigen Geoinformationen
ausgestattet. Auf diese Weise lassen sich
diese Inhalte am Ort des Geschehens be-
trachten, sofern dieser vom Betrachter und
seinem Smartphone erreicht wird. Eine Li-
mitierung erfährt diese Technik aufgrund
der nicht immer gewährleisteten oder unge-
nauen GPS-Ortung. Dieses Problem tritt vor
allem an solchen Stellen auf, an denen
eine enge Bebauung oder dichte Baumkro-
nen vorherrschen und die Ortung zusätz-
lich erschweren. Das GPS-Signal und somit
auch die hinterlegten Inhalte der AR-Darstel-
lung beginnen zu „springen“. Die durch
das GPS-Tracking gewonnenen Daten sind
unter anderem die Voraussetzung für die
Bestimmung der Lage der Kamera im Raum
(Kamerapose). Diese präzise und perfor-
mante Ermittlung der Raumlage bestimmt
ebenfalls wesentlich die Integration der vir-
tuellen Inhalte in den Echtzeitstream der
Kamera. Die Performance der aktuell han-
delsüblichen Hardware in mobilen Endge-
räten erlaubt momentan aber nur wenige
Mixed-Reality-Anwendungen. Markerba-
sierte Techniken versuchen, diese Problem-
kreise anders zu lösen. Es gibt zurzeit unter-
schiedliche Markertypen: QR-Codes, an-
dere erkennbare Schwarz-Weiß-Muster
oder Natural Feature Marker. Die Szene,
in die der virtuelle Inhalt später überlagert
werden soll, wird als Bild auf einem Server
hinterlegt. Wird diese vom Nutzer durch
die Aufnahme eines Fotos innerhalb des
AR-Browsers gescannt und mit den Informa-
tionen auf dem Server abgeglichen, wird
der entsprechende zu überlagernde Inhalt
auf das Smartphone des Betrachters ge-
streamt und angezeigt. Ein GPS-Signal
wird bei diesem Verfahren nicht benötigt,
kann aber in einigen Anwendungen als un-
terstützende Trackingeinheit zugeschaltet
werden. Das Verfahren der markerbasier-
ten Augmented Reality wurde ursprünglich
für Printmedien ausgelegt, kann aber – et-
was Anpassungsarbeit vorausgesetzt – in
die gebaute Realität übertragen werden.
Die spätere Bilderkennung erschwerende
störende Elemente müssen dabei zunächst
mithilfe eines Bildbearbeitungsprogramms
entfernt werden. Da diese Trackingsysteme
auf einen hohen Kontrast im Markerbild an-
gewiesen sind, um diesen später eindeutig
zuordnen zu können, kann es durchaus
passieren, dass unterschiedliche Lichtver-
hältnisse über den Tag und zugehörige
Schattenwürfe die Erkennung einer Szene
deutlich erschweren.
Bekannte Vertreter aktueller AR-Browser
sind Layar (Layar 2014) oder Junaio (Juna-
io 2014). Diese sowohl für Apples iOS als
auch für Googles Android verfügbaren Ap-
plikationen vereinen beide der erwähnten
Trackingsysteme innerhalb einer Anwen-
dung. Um Points of Interest (POI) in der Um-
gebung erkunden zu können, muss der
Nutzer bei der geolokalisierten Variante
lediglich die entsprechende Ebene aus-
wählen und kann fortan „passiv“ durch sei-
ne Umgebung spazieren. Beim Erreichen
AUGMENTED REALITY IN ARCHITEKTUR UND STADTPLANUNG
gis.SCIENCE 1/201522 I
der zur Information zugehörigen Geo-Posi-
tion werden deren Inhalte automatisch an-
gezeigt. Beim Verfahren der Bilderkennung
muss der Nutzer seine Umgebung dage-
gen „aktiv“ wahrnehmen. Schließlich wer-
den hinterlegte Inhalte erst dann in seinem
AR-Browser angezeigt, wenn er eine Sze-
ne durch die Aufnahme eines Fotos selbst
gescannt und diese mit dem Server abge-
glichen hat.
2.3 STREAMING VS. LOKALE
SPEICHERUNG
Beide oben beschriebenen Verfahren –
egal ob es sich um die Variante der Geolo-
kalisierung oder markerbasierten AR von
Layar oder Junaio handelt – benötigen ei-
nen Server, von dem die hinterlegten Inhal-
te auf das Smartphone des Nutzers ge-
streamt werden. Um eine angenehme Visu-
alisierung zu ermöglichen, wird damit
gleichzeitig eine jederzeit entsprechend
gute mobile Internetverbindung vorausge-
setzt. Die Abhängigkeit von der mobilen
Internetverbindung stellt im gleichen Zug
den „Flaschenhals“ beim umsetzbaren De-
taillierungsgrad dieser Variante dar: Große
oder komplizierte Modelle können nicht
ohne längere Wartezeiten in den AR-Brow-
ser gestreamt werden.
AR-Anwendungen, bei denen der zu
überlagernde Inhalt lokal auf dem Endge-
rät gespeichert werden kann, rücken an
dieser Stelle in den Vordergrund der Be-
trachtung. 3D-Modelle können bei dieser
Art Applikation direkt auf das Endgerät syn-
chronisiert werden und in einer Bibliothek
innerhalb der Anwendung gespeichert
werden. Der Vorteil solcher Apps liegt auf
der Hand: Es können auch solche Inhalte
auf dem Smartphone visualisiert werden,
die für das Verfahren des Streamings zu
große Datenmengen aufweisen. Die Limi-
tierung stellt theoretisch nur noch die Hard-
warekonfiguration des Endgeräts dar.
Gleichzeitig bedeutet die Ablage der In-
halte im internen Speicher des Smartpho-
nes eines Nutzers auch eine Beschränkung
hinsichtlich der Nutzerzahlen: Es können
nur die Betrachter erreicht werden, die sich
den 3D-Inhalt auf ihr Endgerät laden.
3 AKTUELLE AR-TECHNIKEN UND
POTENZIELLE EINSATZFELDER
Welche Möglichkeiten bieten AR-Techniken
der Architektur und Stadtplanung? Die Aus-
wahl der Technik soll später zielgerichtet
auf das spezifische Einsatzfeld erfolgen.
Um diese Zuordnung vorab zu testen, müs-
sen die einzelnen aktuellen AR-Techniken
auf ihre jeweiligen Eigenschaften geprüft
werden, die sich aufgrund dieser unter-
schiedlich hohen Detaillierungsgrade um-
setzen lassen. Die Wahl auf eine Strea-
mingvariante oder ein Verfahren, bei dem
die Inhalte lokal gespeichert werden, stellt
hinsichtlich der erreichbaren Nutzerzahlen
ebenso einen wesentlichen Aspekt dar. Um
die aktuellen AR-Techniken und deren Po-
tenziale aufzuzeigen, werden in diesem
Kapitel eine Reihe von Projekten vorgestellt,
bei denen die erwähnten Techniken zum
Einsatz kamen.
3.1 TALKING PLACES UND
LOCATION-BASED-AUDIO
Mit AR-Browsern wie Layar oder Junaio las-
sen sich Inhalte in Form von einfachen Text-
informationen, Audio- und Videodateien,
aber auch 3D-Modelle an einer gewünsch-
ten Geo-Position verortet hinterlegen. Diese
POI werden beim Erreichen der jeweiligen
Position auf dem Smartphone des Betrach-
ters angezeigt, sobald sein Endgerät die
richtige Geo-Position und mithilfe des integ-
rierten Lagesensors die Ausrichtung des
Smartphones ermittelt hat. Die Smartphone-
kamera erfasst die Situation und zeigt sie
auf dem Bildschirm mitsamt der virtuellen
Überlagerung an. Diese Überlagerung in
der gebauten Realität lässt sich beispiels-
weise zur Visualisierung historischer Bau-
substanz am ehemaligen Standort oder
aber auch zur Darstellung baulicher Vorha-
ben am Ort des Geschehens einsetzen. So
ermöglicht der Einsatz der AR-Technik ei-
nen Blick in die Vergangenheit oder in die
Zukunft einer städtebaulichen Situation.
In dem in Kooperation mit dem DFKI
Kaiserslautern entstandenen Projekt „Tal-
king Places“ wird deshalb der Ansatz ver-
folgt, nicht mehr existierende Bausubstanz
im Stadtgebiet von Kaiserslautern wiederer-
lebbar zu machen. Es geht dabei um Ge-
bäude, die entweder während des Zwei-
ten Weltkriegs zerstört oder zwischenzeit-
lich abgerissen wurden. Die Geschichte
dieser Gebäude und ihr Beitrag zur Stadt-
geschichte sollen auf diese Weise virtuell
„am Leben“ gehalten werden (Hesch
2011). Das Projekt greift auf die vom DFKI
Kaiserslautern entwickelte RADAR-Plattform
zurück, die es ermöglicht, die virtuellen In-
halte einer zuvor definierten Geo-Position
zuzuordnen und somit die Server-Umge-
bung für die AR-Browser Layar und Junaio
stellt, über die die Inhalte jeweils angezeigt
werden können (Memmel & Groß 2011).
Das Erzählen von Geschichten wurde
im Projekt „Location-Based-Audio“ weiter
Abbildung 1: Baukultur in der Praxis trifft Technologie; Rundgang und Infostand am Tag des offenen Denkmals 2013 (Biwer et al. 2013)
gis.SCIENCE 1 (2015) 20-29
gis.SCIENCE 1/2015 I
23
verfolgt. Durch die Hinterlegung von Au-
diofiles an entsprechenden Geo-Positionen
im Stadtgebiet von Wien lässt sich so ein
Audiowalk umsetzen. Um diesen Rund-
gang zu erleben, benötigt der Nutzer nur
den AR-Browser Layar auf seinem Smart-
phone, wählt den gewünschten Geo-Ka-
nal aus und bekommt während seines
Spaziergangs durch die Stadt an den je-
weiligen Orten deren Geschichte abge-
spielt (Dörrzapf 2012).
3.2 BAUKULTUR MIT ALLEN
SINNEN ENTDECKEN
Nachdem in vorangegangenen Projekten
die Geo-Variante von Layar zum Einsatz
kam, wurde im darauf aufbauenden Studi-
enprojekt „Baukultur mit allen Sinnen entde-
cken und erleben“ mit der markerbasierten
Layar-Variante weitergearbeitet. Der inhalt-
liche Fokus lag dabei auf der Sensibilisie-
rung der Bürger Saarbrückens für die Be-
sonderheiten der 1950er-Jahre-Architektur
in der Eisenbahnstraße in Saarbrücken.
Insbesondere aufgrund anstehender Mo-
dernisierungsarbeiten und der Schwierig-
keit, dass die Details dieser Gebäude oft-
mals erst auf den zweiten Blick entdeckt
werden, gilt es ein Bewusstsein in der Be-
völkerung für diese Besonderheiten zu
schaffen, um sie auch zukünftig zu erhal-
ten. Bei der Erstellung des „Smartwalks“
durch die Eisenbahnstraße wurde das ge-
samte Spektrum an Medienmöglichkeiten
eingesetzt, das Layar bietet. An mehreren
über die Eisenbahnstraße verteilten Statio-
nen können zum einen Originalfotos aus
den 1950er-Jahren als „Zeitzeugen“ be-
trachtet werden, andere Stationen bieten
dagegen eine Visualisierung der noch heu-
te erkennbaren Gebäudestrukturen im
Stadtbild, während die dritte Stationskate-
gorie einen Blick in die Zukunft und die
Darstellung der einzelnen Schritte im Rah-
men der Modernisierungsarbeiten bietet.
Die Ergebnisse dieses Rundgangs wurden
im Rahmen der Eröffnung des „Tag des of-
fenen Denkmals 2013“ in Saarbrücken der
Bevölkerung vorgestellt. Außer der Vor-
schau an einem zentralen Informations-
stand wurde der zugehörige Rundgang
durch die Eisenbahnstraße als geführte
Tour angeboten. Für diejenigen Personen,
die am Rundgang durch die Eisenbahnstra-
ße nicht teilnehmen konnten, wurden am
Infostand zudem weitere AR-Modelle auf
einem Marker und augmentierten Postern
gezeigt (Biwer et al. 2013).
3.3 VARIANTENDISKUSSION WÄH-
REND DES ENTWURFSPROZESSES
Um ein hohes Maß an Details visualisieren
zu können, kommen die bisher vorgestell-
ten Streaming-AR-Techniken schnell an ihre
Grenzen. Hier knüpfen solche Anwendun-
gen an, die eine Speicherung auf dem
Endgerät zulassen, auf dem der Inhalt ge-
zeigt werden soll.
Die Anwendung AR Media (Inglobe
Technologies 2014) arbeitet auf diese
Weise. Dabei handelt es sich um ein Plug-
in für gängige CAD-Programme. Sie wurde
in diesem Fall am Beispiel Trimble Sket-
chUp ausprobiert. Mithilfe des Plug-ins
wird diese Anwendung um eine zusätzli-
che Exportfunktion erweitert, die eine Um-
wandlung des zuvor erstellten 3D-Modells
in ein eigenes AR-Dateiformat zulässt. Um
dieses Modell betrachten zu können, muss
der Nutzer den entsprechenden Viewer auf
seinem Rechner oder Smartphone installie-
ren, das Modell herunterladen und den
zugehörigen Marker ausdrucken. Der Mar-
ker dient dabei der Skalierung des Modells
und lässt ein Drehen und Betrachten von
allen Seiten zu. Zusätzlich zu diesen Eigen-
schaften lassen sich durch die Verwendung
mehrerer Marker Entwurfsvarianten darstel-
len, austauschen und diskutieren.
Sightspace 3D lässt eine Kombination
der bisher vorgestellten Trackingsysteme
zu. Das heißt, dass 3D-Modelle nicht nur
anhand eines Markers oder einer Geo-Po-
sition verortet werden können, sondern
auch durch deren Kombination (ein Modell
wird nur dann auf einem Marker überlagert
dargestellt, wenn sich der Nutzer an einer
entsprechenden Position befindet). Liegt
weder ein Marker noch eine Geo-Position
vor, kann der Nutzer seine Position alterna-
tiv auch selbst definieren. Dazu wechselt
die Anwendung in eine Draufsicht, inner-
halb der der Nutzer seinen Standpunkt per
Fingertipp eingibt. Sightspace 3D wechselt
umgehend in die AR-Ansicht, in der der Be-
trachter seine Position anhand eines Steuer-
kreuzes anpassen kann. Um mithilfe von
Sightspace 3D Entwurfsvarianten diskutie-
ren zu können, muss lediglich innerhalb der
integrierten Bibliothek zwischen den einzel-
nen 3D-Modellen gewechselt werden.
Das für Nemetschek Vectorworks erhält-
liche Plug-in AR-Works funktioniert prinzipi-
ell ähnlich und erweitert Vectorworks um
eine markerbasierte AR-Exportfunktion. Im
Gegensatz zu anderen Viewern wird da-
bei die Layerstruktur des 3D-Modells mitex-
portiert und lässt sich am Beispiel des AR-
Modells einzeln ab- und zuschalten. Durch
das Ausblenden einer Außenwand wird so
Abbildung 2: AR-Visualisierung zur Variantendiskussion anhand von Markern mit AR Media (links) und AR-Works (rechts) (Broschart 2013)
AUGMENTED REALITY IN ARCHITEKTUR UND STADTPLANUNG
gis.SCIENCE 1/201524 I
ein Blick in das Gebäudeinnere ermög-
licht, das Durchschalten mehrerer Entwürfe
lässt dagegen die Diskussion von Varianten
zu. Zudem lässt sich eine Schattendarstel-
lung innerhalb des AR-Viewers simulieren.
Im Gegensatz zu den vorherigen Beispie-
len gibt es den AR-Works-Viewer zurzeit
nur als reine Desktopanwendung.
3.4 AR-BEBAUUNGSPLAN
Ein Bebauungsplan umfasst Festsetzungen,
welche den einzelnen Bürger in den Mög-
lichkeiten der Bebauung seines Grund-
stücks betreffen. Trotz diesem persönlichen
Zusammenhang stellen sich Lesbarkeit und
somit Verständnis dieser Inhalte aufgrund
der abstrakten zweidimensionalen Darstel-
lung als eher schwierig dar. Wie soll es
dem interessierten Laien im Rahmen der
Auslegung ermöglicht werden, eine eigene
Meinung zu diesem Plan bilden zu können,
wenn er dessen Inhalte nicht nachvollzie-
hen kann? Im Rahmen eines Projekts wur-
den bereits Ansätze verfolgt, wie die Dar-
stellung der planerischen Festsetzungen
durch die Erstellung dreidimensionaler Pen-
dants für den Bürger erleichtert werden
könnte. Ein solcher 3D-Bebauungsplan
kann mit verhältnismäßig geringem Auf-
wand in virtuellen Umgebungen aus allen
Winkeln betrachtet werden (Broschart
2011). Um aber die Lesbarkeit des ausge-
hängten Plans verbessern zu können, stellt
der Bereich der AR-Techniken eine weitere
Möglichkeit zur Verbesserung der Plankom-
munikation dar. Durch die Verwendung des
bereits vorgestellten markerbasierten AR-
Systems von Layar wird die Planzeichnung
selbst als Marker eingesetzt, weitere Erklä-
rungen oder 3D-Modelle zum Verständnis
können anschließend im AR-Browser direkt
über dem Plan angezeigt werden, sodass
ein direkter Bezug vom gedruckten Plan-
werk zum virtuellen Inhalt hergestellt wer-
den kann (Broschart & Zeile 2014).
3.5 CG MIXED REALITY
ARCHITECTURAL WORKSPACE
Mit dem Ziel der Gestaltung eines Einfami-
lienhauses in Echtzeit-3D entstand in Ko-
operation des Research & Design Lab mit
dem Masterstudiengang Architektur (ARC)
an der FH JOANNEUM – University of Ap-
plied Sciences in Graz im Rahmen einer
Forschungsarbeit das Projekt „CG Mixed
Reality Architectural Workspace“.
Ein Team um Andreas Behmel, Wolf-
gang Höhl und Thomas Kienzl beschäftigte
sich mit der Umsetzung eines computerge-
stützten Mixed-Reality-Präsentationssystems
für die Firma Haslerhaus GmbH & Co KG.
Realisiert wurde dieses System mit Unity in
einem Kommerz MRI Framework. Das Sys-
tem besitzt zurzeit zwei wesentliche Kom-
ponenten: a) einen virtuellen Baukasten zur
Bemusterung und b) eine Echtzeit-Simulati-
onsoberfläche mit virtuellem 3D-Walk-
Through und einer integrierten Sonnen-
standsimulation.
Vergleichbare Entwicklungen von Col-
laborative Virtual Environments (CVE) nen-
nen Ponto et al. (2011), Künz et al.
(2007), Tizani (2011), Peña-Mora et al.
(2011), Yabuki (2011), Yi-Luen Do (2011)
und nicht zuletzt Ren & Tang (2011).
Im Mittelpunkt dieser Arbeit steht die
Fragestellung, inwieweit der herkömmliche
Entwurfsprozess durch interaktive computer-
gestützte Werkzeuge verbessert werden
kann. Der hier präsentierte CG Mixed Rea-
lity Architectural Workspace vereinfacht
den Entwurfsprozess durch eine evolutionä-
re, iterative Vorgehensweise, kombiniert
mit einem benutzerfreundlichen, intuitiven
Interface.
Der traditionelle Entwurf entsteht in ei-
ner Reihe von Iterationsschritten in verschie-
Abbildung 3: Augmentierter Bebauungsplan (Broschart & Zeile 2014)
Abbildung 4: CG Mixed Reality Architectural Workspace mit „Natural Interface“ (Behmel et al. 2013)
gis.SCIENCE 1 (2015) 20-29
gis.SCIENCE 1/2015 I
25
denen Medien (Gespräch, Skizze, CAD-
Planung und manuelle Korrekturen). Das
hier vorliegende Modell (Realtime 3D-An-
wendung mit „Natural Interface“) bildet
eine gemeinsame digitale Plattform, kann
ohne spezielle CAD-Kenntnisse bedient
werden, reduziert die Medienvielfalt, ver-
einfacht die Benutzerinteraktion und macht
den Entwurf unmittelbar erlebbar. Mehrere
iterative Entwurfsschritte können so in kürze-
rer Zeit erfolgen. Dem Entwurf im virtuellen
Baukasten folgt die kritische Reflexion in
der Simulationsoberfläche. Dort können
Fehler festgestellt werden, die in einer
nächsten Optimierungsschleife wieder in
die Entwurfskorrektur einfließen. Mehrere
Gestaltungsvarianten können an einem ein-
zigen Gesprächstermin und in einem ge-
meinsamen digitalen Medium entworfen
und gleichzeitig visualisiert werden.
Umgesetzt wurde dieses Projekt mit der
3D-Echtzeit-Engine Unity, integriert in ein
Mixed Reality Interface (MRI). Momentan
existiert das System als Mixed-Reality-Instal-
lation mit optischem Tracking. Die MRI-
Plattform erlaubt aber auch, unterschied-
lichste Hard- und Software gemeinsam
einzubinden. Interessant erscheinen dabei
Kombinationen eines 3D-Walkthrough
über optische Marker und die simultane
Sonnenstandssimulation über einen Tablet-
PC.
Vorteilhaft gegenüber anderen Entwick-
lungen ist die einfache Verständlichkeit
auch für ungeübte Benutzer und die intuiti-
ve Bedienbarkeit über optische Marker. Im
Endergebnis generiert das System auch ei-
nen personalisierten Prospekt mit selbst ent-
worfenen Hausvarianten. Zukünftig denk-
bar wäre die Erweiterung des virtuellen
Baukastens und des Simulationstools zu ei-
nem umfassenden Werkzeug für den inter-
aktiven Echtzeitentwurf. Dieses Paket wür-
de in dieser erweiterten Form die Entwick-
lung des Raumprogramms unterstützen,
aber auch die Möblierung, Beleuchtung,
die gesamte Innenraumgestaltung und die
nachfolgende Simulation.
Das Gesamtsystem läuft auf einem han-
delsüblichen Spielecomputer in einer unte-
ren Preisklasse, einem herkömmlichen Bild-
schirm (HD 1920/1080, Diagonale 46
Zoll) mit einem optischen, markerbasierten
Trackingsystem der Firma KOMMERZ. Das
KOMMERZ MRI ist ein Tangible User Inter-
face, das in unterschiedlichen Designs am
Markt verfügbar ist: Vom Do-it-yourself-Kit
bis zum hier verwendeten MRI-Tabletop. Es
basiert auf einer Bilderkennung runder
Marker, die unter gestalterischen Gesichts-
punkten entwickelt wurden. Das Besondere
ist die automatische Plankalibrierung im
richtigen Maßstab mithilfe einer speziellen
Steuerfigur, die auch dem Benutzer die Ori-
entierung erleichtert. Verwendet wird eine
USB-Kamera der Firma IDS mit einem
3-mm-Weitwinkelobjektiv. Das 3D-File wird
aus Nemetschek Allplan in Cinema 4D im-
portiert, dort vorbereitet und texturiert.
Dann kann die Datei in Unity importiert
werden. Die Steuerfiguren im MRI liefern
Position und Drehung via einer Plug-in Echt-
zeit-3D-Software. Das Unity-File kann von
einem Mediendesigner erstellt werden,
ohne spezielle Programmierkenntnisse. Er-
Bestellen Sie jetzt: (030) 34 80 01-222 oder www.vde-verlag.de/140962
Preisänderungen und Irrtümer vorbehalten. Das Kombiangebot bestehend aus
Buch und E-Book ist ausschließlich auf www.vde-verlag.de erhältlich.
Technikwissen punktgenau:
Beherrschen Sie alle
Funktionen von ArcGIS?
Dieses zweibändige Werk bietet Ihnen anhand von realistischen,
leicht nachvollziehbaren Beispielen eine Einführung in die Basis-
und erweiterten Funktionen und deren anwendungsbezogene
Nutzung in eigenen Projekten.
Auch als Set
erhältlich!
88,– €
Band 2
2014. XVI, 296 Seiten
49,– € (Buch/E-Book)
68,60 € (Kombi)
Band 1
2014. XVI, 300 Seiten
49,– € (Buch/E-Book)
68,60 € (Kombi)
AUGMENTED REALITY IN ARCHITEKTUR UND STADTPLANUNG
gis.SCIENCE 1/201526 I
möglicht wird das über das KOMMERZ
Unity Framework, eine Scriptsammlung,
die unterschiedlichste Funktionen in Unity
bereitstellt, um interaktive 3D-Applikationen
zu erstellen. Das Betriebssystem ist Win-
dows OS.
Problemlos lassen sich bereits heute
weitere Interfaces für weitere Nutzer und
Funktionen in das System integrieren, wie
Tangible User Interfaces, Multitouch-Tab-
les oder ein iPad für die Sonnenstandsi-
mulation. Zu testen wäre, inwieweit zu-
künftig auch Umgebungsfaktoren wie
Schall, Wind und Verkehr in die Simulati-
on eingebunden werden könnten. Die
existierenden Anwendungsbereiche könn-
ten damit geeignet erweitert werden und
der computergestützte Gebäudeentwurf
könnte dahingehend optimiert werden.
Als Anwendungsbereiche bieten sich
auch folgende Szenarien an:
XEntwurfsunterstützung bei Architektur-
wettbewerben;
Xvirtuelle Design-Evaluierung und Bürger-
beteiligung im öffentlichen Bereich;
Xvisuelle Leitsysteme für öffentliche Ge-
bäude und Verkehrsbauten;
Xinteraktives Präsentationssystem für kom-
munale Planungen;
XInformationsvisualisierung für „Urban
Code“ und “Big Data”.
Eine Chance zum besseren Modellieren im
Entwurf und zur Integration in den Echtzeit-
Planungsprozess gibt es in verschiedenen
Detail- und Interaktionsebenen. Mittels glo-
baler und lokaler physischer Selektions-
und Interaktionselemente können interaktiv
einzelne Informationselemente selektiert
und manipuliert werden. Zugehörige De-
tailinfo erscheint in verschiedenen Ansichts-
modi der 3D-Ansicht. Denkbar wäre aber
auch eine Erweiterung um weitere Daten-
banken für einen „Virtuellen Baukasten“
oder eine Anbindung an ein geeignetes
Building Information Modeling (BIM). Mit
einem weiteren Ausbau der Kommunikati-
onstools entwickelt sich auch die Möglich-
keit zu einer weiteren Vernetzung mit nicht-
lokalen Nutzern, Datenbanken und ande-
ren virtuellen Umgebungen zu einer neuen,
asynchronen und multilokalen kollaborati-
ven Umgebung.
3.6 EDDDISON MRI PLATFORM
Die edddison MRI platform ist eine interak-
tive Mixed-Reality-Plattform zur Bewertung
von gestalterischen Alternativen für Archi-
tektur, Serious Games und Engineering. Zur
Bedienung werden ausschließlich „Natural
Interfaces“ verwendet. Entwickelt wurde
sie von Thomas Kienzl, edddison Technolo-
gies, Graz.
Viele der heute gebräuchlichen Syste-
me zur Entwurfsoptimierung benötigen spe-
zielle Programmierkenntnisse und aufwen-
dige Hard- und Software. Oft ist die Inter-
aktion mit 3D-Daten sehr kompliziert. Heute
sind fünf wesentliche Problemkreise bei in-
teraktiven Design Review Systemen be-
kannt: Interaktion mit den 3D-Daten, Navi-
gation im dreidimensionalen Raum, Steue-
rung und Veränderung der gestalterischen
Alternativen, die Entwurfspräsentation ohne
aufwendige Hardware und die weitere
Content-Entwicklung ohne spezielle Soft-
ware-Kenntnisse.
Vergleichbare Entwicklungen beschrei-
ben Lancelle et al. (2008). Sie entwickel-
ten DAVE (Definitely Affordable Virtual Envi-
ronment) an der Technischen Universität
Graz. Dieses Cage-basierte System wurde
genutzt, um die Gestaltung des neuen
Wiener Hauptbahnhofs virtuell zu überprü-
fen. Shiratuddin & Thabet (2011) benutz-
ten die Torque 3D Game Engine, um ein
virtuelles Design Review System zu entwi-
ckeln. Schließlich entwarfen Dunston et al.
(2011) ein immersives Virtual Reality Mock-
up zur Überprüfung von Gestaltungsalter-
nativen für Patientenzimmer in Krankenhäu-
sern. Diese genannten Beispiele basierten
Abbildung 5: edddison MRI platform mit „Natural Interface” (Behmel et al. 2014)
Abbildung 6: Samsung Gear VR powered by Oculus (Oculus VR 2014)
gis.SCIENCE 1 (2015) 20-29
gis.SCIENCE 1/2015 I
27
auf herkömmlichen und teils kommerziellen
Game Engines. Als immersive Präsentati-
onsoberfläche verwendeten sie Caves
oder Power Walls.
Die edddison MRI platform ist ein ein-
fach bedienbares Mixed Reality Interface
zur Design-Evaluierung und zur Präsentati-
on. Sie integriert viele gebräuchliche Hard-
waresysteme, wie das edddison Tangible
User Interface, herkömmliche Desktop
Computer, Tablets und Touch Screens.
Auch softwareseitig gibt es viele Plug-ins für
andere Standard-3D-Softwarepakete, wie
Autodesk Navisworks und Showcase, Uni-
ty3D, Trimbles SketchUp und Web GL.
Edddison ermöglicht es auch Laien,
ihren eigenen interaktiven 3D-Content zu
erzeugen. Ohne Programmierkenntnisse
können 3D-Modelle mit Standardsoftware
erstellt, verändert und präsentiert werden.
Das Steuern, Verändern und Interagieren
mit 3D-Modellen erfolgt ausschließlich mit
natürlichen Interfaces und handelsübli-
chen mobilen Endgeräten! Die Navigati-
on im dreidimensionalen Raum geschieht
durch die Verwendung des Touchpads ei-
nes Tablets. Komplexe Gebäude können
relativ einfach über den Grundriss und ei-
nen Touchscreen erlebt, erfahren und
räumlich begriffen werden. Die Systeman-
forderungen sind soweit reduziert, dass
einfache Standardsoftware wie SketchUp
und Unity3D verwendet werden kann.
Edddison macht es auch sehr einfach, ver-
schiedene gestalterische Entwicklungsstu-
fen ohne aufwendige Hardware zu prä-
sentieren. Aktuell kann die Plattform in
folgenden Bereichen angewendet wer-
den: Architekturentwurf und -präsentation,
Digital Prototyping, industrielle Simulati-
on, Serious Games und branchenüber-
greifende Produktpräsentation.
Zurzeit gibt es zwei wesentliche An-
wendungsfälle: Ein Set-up zeigt eine Web-
GL-Demo, die auf iPad oder einem Andro-
id Tablet läuft. Das System benutzt eine
WebGL/HTML5-Cloud-Solution und macht
die interaktive Technologie einer breiten
Öffentlichkeit zugänglich. Der zweite An-
wendungsfall ist die einfache Navigation
in einer simplen SketchUp-Datei, die über
optisches Tracking und ein ausgedrucktes
natürliches Interface verfügbar gemacht
wird.
Edddison erweitert die herkömmlichen
Design Review Systeme mit einer benutzer-
freundlichen Kombination aus Hard- und
Software. Damit vereinfacht edddison den
gesamten Designprozess mit einem iterati-
ven, evolutionären Ansatz, kombiniert mit
benutzerfreundlichen, intuitiven und natürli-
chen Interfaces.
3.7 VR-DATENBRILLEN UND IHRE
ENTWICKLUNG ZUR
MIXED-REALITY-ERFAHRUNG
Während die vorgestellten Techniken aus
dem Bereich der Augmented Reality versu-
chen, virtuelle Informationen und reale Situ-
ationen in Bezug zu bringen, konzentrieren
sich die aktuellen Entwicklungen aus dem
Mixed-Reality-Bereich auf die Verbesserung
der Interaktion zwischen Mensch und Ma-
schine.
Parallele Entwicklungen lassen sich im
VR-Bereich beim Einsatz von Datenbrillen
wie der Oculus Rift beobachten. Ihr auf
den ersten Blick als reine Visualisierungs-
technik entwickeltes Einsatzgebiet wird
durch die Anbindung weiterer Sensoren
zunehmend erweitert.
Durch den integrierten Lagesensor er-
möglicht bereits die Basisversion dieser VR-
Brille dem Nutzer ein „natürliches“ Umse-
hen in der virtuellen Welt: Durch eine Bewe-
gung des Kopfs kann der Betrachter den
Blickwinkel anpassen. Bereits aufgrund die-
ser Eigenschaften entwickelt sich diese Tech-
nik in den Bereich der Mixed Reality; die
Mensch-Maschine-Interaktion steht im Vor-
dergrund der Visualisierungserfahrung.
Während die Navigation innerhalb der
virtuellen Welt nach wie vor per Tastatur
oder Joystick erfolgt, gibt es über die Grund-
ausstattung hinaus schon erste Entwicklun-
gen, die eine natürliche Veränderung der
Position zulassen. Durch die Anbindung ei-
nes Laufbands bewegt sich der Nutzer
zwar in der realen Welt auf der Stelle, kann
aber die virtuelle Welt beliebig begehen.
4 ZUSAMMENFASSUNG UND FAZIT
Welche der vorgestellten Techniken ihren
Einsatz findet, wird sich immer danach rich-
ten, welcher Inhalt visualisiert und kommuni-
ziert werden soll. Die Auswahl der Technik
kann anschließend anhand ihrer spezifi-
schen Eigenschaften erfolgen, die eben die-
sen Anforderungen gerecht werden müssen.
Sollen Informationen möglichst weit ge-
streut werden, bietet sich der Einsatz von
Streamingvarianten an. Dabei muss aller-
dings auch beachtet werden, dass dieser
Inhalt nicht allzu detailliert ausfallen darf,
weil große Datenmengen die mobile Inter-
netverbindung schnell überfordern können
und die virtuelle Erfahrung einschränken
Abbildung 7: Realisierbarer Detaillierungsgrad in Abhängigkeit der eingesetzten Methode und denkbare Anwendungsfälle (Broschart 2013)
AUGMENTED REALITY IN ARCHITEKTUR UND STADTPLANUNG
gis.SCIENCE 1/201528 I
könnten. Verfahren, bei denen die Inhalte
lokal auf dem Endgerät gespeichert wer-
den, bieten den Vorteil eines hohen Detail-
lierungsgrads, lassen dagegen nur einen
kleinen Nutzerkreis zu, da hierbei zunächst
mehrere Voreinstellungen getroffen werden
müssen, bevor der virtuelle Inhalt betrachtet
werden kann. In Bezug auf den umsetzba-
ren Detaillierungsgrad bildet die jeweilige
Hardwarekonfiguration des Endgeräts da-
bei theoretisch die einzige Grenze. Rei-
chen auch die Möglichkeiten einer mobi-
len AR-Visualisierung nicht mehr aus, um
den gewünschten Detaillierungsgrad der
virtuellen Information umzusetzen, können
solche technische Varianten herangezogen
werden, die sich über Notebooks oder
Desktop-PCs realisieren lassen. Die Darstel-
lung in einer rein virtuellen Realität lässt hin-
sichtlich des Detaillierungsgrads der eigent-
lichen Computergrafik einen noch höheren
Detaillierungsgrad zu.
Lassen sich mit den vorgestellten Strea-
mingvarianten beispielsweise einfache Text-
informationen, aber auch Audio-, Video-
oder kleine 3D-Modelldateien hinterlegen,
bieten die Varianten einer lokalen Speiche-
rung die Visualisierung hochdetaillierter 3D-
Modelle bis hin zur Darstellung von Innen-
einrichtungen in reinen VR-Umgebungen.
Insbesondere beim Vorliegen einer per-
sönlichen Betroffenheit durch eine Planung
können die präsentierten Visualisierungs-
techniken ihre Potenziale während der
Kommunikation mit interessierten Laien zei-
gen. Bürger können auf diese Weise auf
spielerische Weise für durchaus ernste The-
men der Stadtplanung sensibilisiert werden
und sich eine eigene Meinung bilden, die
sie in weiteren Planungsphasen äußern
können. Bei diesen Kommunikationsprozes-
sen können die vorgestellten Techniken un-
terstützend eingesetzt werden, jedoch muss
dabei beachtet werden, dass soziale
Gruppen, die (noch) nicht über das ent-
sprechende Endgerät verfügen, aufgrund
technischer Barrieren ausgegrenzt werden.
Dieser „Digital Divide” kann durch geführte
Touren, kommentierte Visualisierungen usw.
umgangen werden, bei denen der Planer
eine vermittelnde Anwaltsfunktion einnimmt,
um dem interessierten Bürger diejenigen
Inhalte erklären zu können, die er aufgrund
reiner Plandarstellungen und Visualisierun-
gen noch nicht verstanden hat. Erst durch
diesen Austausch wird aus reiner Visualisie-
rung ein Kommunikationsvorgang. Zwar
unterstützen die Darstellungstechniken Ar-
chitekten und Planer bei der Plankommuni-
kation, können aber das direkte Gespräch
nicht ersetzen. Oder kurz: Das Online funk-
tioniert nicht ohne das Offline!
DANKSAGUNG
Die Autoren danken Andreas Behmel vom
Research & Design Lab der FH Joanneum
in Graz, Thomas Kienzl von edddison
Technologies in Graz, Heimo Sandtner
vom FH Campus Wien für die wertvollen
Hinweise und die Zusammenarbeit bei den
Projekten CG Mixed Reality Architectural
Workspace und edddison MRI platform so-
wie der Deutschen Forschungsgesellschaft
(DFG) und Dr. Peter Zeile, innerhalb dessen
DFG-Forschungsprojekt „Methodenentwick-
lung im Rahmen von GeoWeb und Mobile
Computing“ alle weiteren hier vorgestellten
Projekte entstanden sind.
Literatur
Allbach, B.; Memmel, M.; Zeile, P.; Streich, B.
(2011): Mobile Augmented City – New Meth-
ods for urban analysis and urban design pro-
cesses by using mobile augmented reality ser-
vices. In: Schrenk, M.; Popovich, V. V.; Zeile,
P.(Eds.): Proc. REAL CORP 2011, 18.-20.05.,
Essen. Wien, 633-641.
APA Press Release (2013): Grazer Fraunhofer
Institut testet Leitsysteme. In: futurezone.at,
22.10.2013. http://futurezone.at/science/
grazer-fraunhofer-institut-testet-leitsysteme/32.
100.676, Zugriff 12/2013.
Behmel, A.; Gründler, J.; Höhl, W.; Kienzl, T.;
Sandtner, H. (2013): CG Mixed Reality Archi-
tectural Workspace. In: Schrenk, M.; Popovich,
V. V.; Zeile, P.; Elisei, P. (Eds.): Proc. REAL CORP
2013, 20.-23.05. Rom. Wien, S.149-158.
Behmel, A.; Hohl, W.; Kienzl, T. (2014): MRI
design review system: A mixed reality interactive
design review system for architecture, serious
games and engineering using game engines,
standard software, a tablet computer and natural
interfaces. In: Mixed and Augmented Reality (IS-
MAR) 2014, IEEE International Symposium on,
S.327-328.
Biwer, J.; Brack, C.; Broschart, D.; Schneider,
M.; Zemla, A. (2013): Baukultur mit allen Sinnen
entdecken und erleben. Masterprojekt, TU Kai-
serslautern.
Broschart, D. (2011): Bebauungsplan 3D? – Die
Möglichkeiten der Visualisierung planerischer
Festsetzungen. Bachelorarbeit, TU Kaiserslautern.
Broschart, D. (2013): ARchitektur – Die Fortent-
wicklung der Visualisierungs- und Kommunikati-
onsmethoden in der Architektur und Stadtpla-
nung. Masterarbeit, TU Kaiserslautern.
Broschart, D.; Zeile, P. (2014): ARchitecture –
Augmented Reality-Techniques and Use Cases in
Architecture and Urban Planning. In: Schrenk,
M.; Popovich, V. V.; Zeile, P.; Elisei, P. (Eds.):
Proc. REAL CORP 2014, 21.-23.05., Wien.
Wien, 75-82.
Chan, C. S.(2005): Visualizing the Effectiveness
gis.SCIENCE 1 (2015) 20-29
gis.SCIENCE 1/2015 I
29
of Work Space in a Virtual Environment.
AIA/GSA Project Final Report, Iowa State Uni-
versity, Ames.
Dörrzapf, L. (2012): Location-based Audio – Ein-
satzmöglichkeiten, Entwicklungstrends und kon-
zeptionelle Ansätze am Beispiel der Stadt Wien.
Diplomarbeit, TU Kaiserslautern.
Dunston, P. S.; Arns, L. L.; McGlothlin, J. D.;
Lasker, G.; Kushner, A. G. (2011): An Immersive
Virtual Reality Mock-Up for Design Review of Hos-
pital Patient Rooms. In: Wang, X.; Tsai, J. J.-H.
(Eds.): Collaborative Design in Virtual Environ-
ments. Springer Science + Business Media,
S.167-176.
edddison (2014): www.edddison.com, Zugriff
08/2014.
Fürst, D.; Scholles, F. (2008): Planungstheorie –
Wissenschaftliche- und kommunikationstheoreti-
sche Grundlagen der Planung. In: Fürst, D.;
Scholles, F. (Hrsg.): Handbuch Theorien und Me-
thoden der Raum- und Umweltplanung. Rohn,
Köln.
Hesch, G. (2011): Talking Places Kaiserslautern
– Making the invisible visible. Bachelorarbeit, TU
Kaiserslautern.
Höhl, W. (2008): Interaktive Ambiente mit
Open-Source-Software: 3D-Walk-Throughs und
Augmented Reality für Architekten mit Blender
2.43, DART 3.0 und ARToolKit 2.72. Springer,
Wien/NewYork.
Höhl, W. et. al. (2013): CG Mixed Reality Ar-
chitectural Workspace. REAL CORP 2013, 20.-
23.05, Rom.
Höhl, W. (2014): Sim Games, Simulation und
industrielle Anwendungen. Beitrag zur Ringvorle-
sung Games des Medien Campus Bayern. In:
Kaiser, M. (Hrsg.): Ringvorlesung Games. Retro-
Gaming | Gamification | Augmented Reality.
Hooffacker, Edition Medien Campus Bayern,
München, S.80-97.
Höhl, W., Behmel, A, Kienzl, T. (2014): [DEMO]
MRI Design Review System – A Mixed Reality In-
teractive Design Review System for Architecture,
Serious Games and Engineering using Game
Engines, Standard Software, a Tablet Computer
and Natural Interfaces. ISMAR 2014, 10.-
12.09., München.
Inglobe Technologies (2014): www.inglobetech-
nologies.com, Zugriff 07/2014.
Junaio (2014): www.junaio.com, Zugriff 07/2014.
Lancelle, M.; Settgast, V.; Fellner, D. (2008):
DAVE – Definitely Affordable Virtual Environment,
CGV – Computer Graphics and Knowledge Visu-
alization. Graz University of Technology, Proc. of
IEEE Virtual Reality. http://www.cgv.tugraz.at/
DAVE, Zugriff 12/2013.
Layar (2014): www.layar.com, 07/2014.
Majumdar, T.; Fischer, M. A.; Schwegler, B. R.
(2006): Conceptual Design Review with a Virtual
Reality Mock-Up Model. In: Rivard, H.; Miresco,
E.; Melham, H. (Eds.): Building on IT. Joint Inter-
national Conference on Computing and Decision
Making in Civil and Building Engineering, 14.-
16.06.2006, Montreal, Canada, S. 2902-
2911.
Maldovan, K. D.; Messner, J. I.; Faddoul, M.
(2006): Framework for Reviewing Mock-Ups in
an Immersive Environment. In: Raymond Issa, R.
(Ed.): CONVR 2006, 6th International Confer-
ence on Construction Applications of Virtual Real-
ity, 03.-4.08., Orlando, Florida.
Memmel, M.; Groß, F. (2011): RADAR – Poten-
tials for Supporting Urban Development with a
Social Geocontent Hub. In: Schrenk, M.; Popo-
vich, V. V.; Zeile, P. (Eds.): Proc. REAL CORP
2011, 18.-20.05., Essen. Wien. 777-784.
Milgram, P.; Colquohoun, H. (1999): A Taxono-
my of Real and Virtual World Display Integration.
In: Ohta, Y.; Tamura, H. (Eds.): International Sym-
posium on Mixed Reality, 1999. Berlin, 5-30.
Oculus VR (2014): www.oculusvr.com, Zugriff
09/2014.
Peña-Mora, F:, Golparvar-Fard, M:, Aziz, Z.;
Roh, S. (2011): Design Coordination and Pro-
gress Monitoring during the Construction Phase.
In: Wang, X. & Tsai, J. J.-H. (Eds.): Collaborative
Design in Virtual Environments. Springer Science
+ Business Media, S.89-99.
Ponto, K.; Doerr, K.; Wypych, T.; Kooker, J.; Kue-
ster, F. (2011): CGLXTouch: A multi-user multi-
touch approach for ultra-high-resolution collabo-
rative workspaces. Graphics, Visualization and
Virtual Reality Lab (GRAVITY), University of Cali-
fornia, San Diego, USA.
Reinwald, F.; Schober, C.; Damyanovic, D.
(2013): From Plan to Augmented Reality Work-
flow for Successful Implementation of AR Solution
in Planning and Participation Proccesses. In:
Schrenk, M.; Popovich, V. V.; Zeile, P. (Eds.):
Proc. REAL CORP 2013, 20.-23.05., Rom.
Wien, 339-348.
Ren, A.; Tang, F. (2011): Modeling of Buildings
for Collaborative Design in a Virtual Environment.
In: Wang, X.; Tsai, J. J.-H. (Eds.): Collaborative
Design in Virtual Environments. Springer Science
+ Business Media, S.153-165.
Schattel, D.; Tönnis, M.; Klinker, G.; Schubert,
G.; Petzold, F. (2014): [DEMO] On-Site Aug-
mented Collaborative Architecture Visualization.
ISMAR 2014 – International Symposium on
Mixed and Augmented Reality, 10.-12.09.,
München.
Shiratuddin, M. F.; Thabet, W. (2011): Utilizing
a 3D Game Engine to develop a Virtual Design
Review System. In: Journal of Information Technol-
ogy in Construction, 16, 39-68.
Streich, B. (2011): Stadtplanung in der Wissens-
gesellschaft. 2. Auflage. Springer VS, Wiesba-
den.
Tizani, W. (2011): Collaborative Design in Vir-
tual Environments at Conceptual Stage. In:
Wang, X.; Tsai, J. J.-H. (Eds.): Collaborative De-
sign in Virtual Environments. Springer Science +
Business Media, S.67-76.
Wang, X.; Schnabel M. A. (Eds.) (2009): Mixed
Reality in Architecture, Design and Construction.
Springer Science + Business Media.
Wang, X.; Tsai, J. J.-H. (Eds.) (2011): Collabora-
tive Design in Virtual Environments. Springer Sci-
ence + Business Media.
Yabuki, N. (2011): Impact of Collaborative Vir-
tual Environments on Design Process. In: Wang,
X.; Tsai, J. J.-H. (Eds.): Collaborative Design in
Virtual Environments. Springer Science + Business
Media, S.103-110.
Yi-Luen Do, E. (2011): Sketch that Scene for me
and meet me in Cyberspace. In: Wang, X.; Tsai,
J. J.-H. (Eds.): Collaborative Design in Virtual En-
vironments. Springer Science + Business Media,
S.121-130.
Zeile, P. (2010): Echtzeitplanung – Die Fortent-
wicklung der Simulations- und Visualisierungsme-
thoden für die städtebauliche Gestaltungspla-
nung. Dissertation, TU Kaiserslautern.
Zeile, P. (2011): Augmented City – erweiterte
Realität in der Stadtplanung. In: Stadtbauwelt,
24/2011, 34-39.
  • [Show abstract] [Hide abstract] ABSTRACT: this paper is to presentanumber of fundamental display integration and orientation issues related to the nascent #eld of Mixed Reality. Our approach is motivated #rst by the need for a more encompassing term to supplement the existing de#nition of Augmented Reality #AR#, which leads us to propose definitions of the associated concepts of Augmented Virtuality#AV# and then Mixed Reality #MR#. Following our discussion of the breadth of Mixed Reality displays in Section 1.1, we discuss the associated issues of viewpoint centricity and controldisplay mapping in Section 1.2. Finally, in Section 1.3, we present a taxonomy which we hope will be useful for di#erentiating between several of the issues raised with regard to the di#erent classes of Mixed Reality display systems.
    Full-text · Article · Jan 2001 · Electronic Journal of Information Technology in Construction
  • [Show abstract] [Hide abstract] ABSTRACT: A design review process is where information is exchanged between the designers and design reviewers to resolve any potential design related issues, and to ensure that the interests and goals of the owner are met. The effective execution of design review will minimize potential errors or conflicts, reduce the time for review, shorten the project life-cycle, allow for earlier occupancy, and ultimately translate into significant total project savings to the owner. However, the current methods of design review are still heavily relying on 2D paper-based format, sequential and lack central and integrated information base for efficient exchange and flow of information. There is thus a need for the use of a new medium that allow for 3D visualization of designs, collaboration among designers and design reviewers, and early and easy access to design review information. This paper documents the innovative utilization of a 3D game engine, the Torque Game Engine as the underlying tool and enabling technology for a design review system, the Virtual Design Review System for architectural designs. Two major elements are incorporated; 1) a 3D game engine as the driving tool for the development and implementation of design review processes, and 2) a virtual environment as the medium for design review, where visualization of design and design review information is based on sound principles of GUI design. The development of the VDRS involves two major phases; firstly, the creation of the assets and the assembly of the virtual environment, and secondly, the modification of existing functions or introducing new functionality through programming of the 3D game engine in order to support design review in a virtual environment. The features that are included in the VDRS are support for database, real-time collaboration across network, viewing and navigation modes, 3D object manipulation, parametric input, GUI, and organization for 3D objects.
    Full-text · Article · Jan 2011
  • [Show abstract] [Hide abstract] ABSTRACT: The conceptual design stage of a construction project has significant consequences on all the stages that follow. This stage involves multi-disciplinary design activities that would benefit from dedicated support from information technology systems. The use of real-time multi-disciplinary collaborative systems supporting design teams is still the subject of much research. The most challenging requirements for such systems are the design of a ’collaborative-aware’ information models, the implementation of concurrency in design, and the management of the design processes and workflow necessary for multi-disciplinary design teams. This chapter outlines the requirements of collaborative systems and briefly describes an experimental collaborative design environmental. It also proposes methodologies for the issues of concurrency and the management of processes. Concurrency of design was done through the automation of the synchronization of a shared information model. The management of design processes was done through controlling access-rights of designers to the shared information model.
    Full-text · Chapter · Jan 2011 · Electronic Journal of Information Technology in Construction
Show more