ThesisPDF Available

Nahbereichsfotogrammetrie als Methode zur archäologischen Funddokumentation und -analyse

Authors:
  • freelance Archaeologist and Formwerk3D, 3D scanning and printing

Abstract and Figures

Fotogrammetrische Vermessungen haben eine über 150 jährige Tradition in der Architektur und Landschaftsvermessung. Der Begriff Nahbereichsfotogrammetrie definiert sich über die Entfernung zum zu vermessenden Objekt. So gilt eine Entfernung unter 100 m bereits als Nahbereich. Durch die Größe der Objekte und den geringen Abstand zu ihnen während der Aufnahme könnte man, in dieser Arbeit, auch von Makrofotogrammetrie sprechen1. Da es allerdings keine Scharfen Kategoriegrenzen in diesem Bereich gibt wird weiterhin der Begriff Nahbereich verwendet. Die Schreibweise des Wortes Fotogrammetrie mit F ist orientiert an den Empfehlungen des Duden und ist ebenso gebräuchlich wie das alternative Ph. Moderne Softwarelösungen haben in den letzten 30 Jahren, herkömmliche Stereoauswertegeräte abgelöst und durch einfache Zugänglichkeit, die Fotogrammetrie für eine Breite Öffentlichkeit geöffnet. Gerade die Entwicklungen im Gebiet der Open source Software2, insbesondere die Bundler Tools erleichterten die Benutzung enorm. Durch einen gleichzeitigen sprunghaften Anstieg der Leistungsfähigkeit im Bereich der Personal Computer, können nun die komplexen Berechnungen der Bündelausgleichung und Szenenrekonstruktion auf Low-Cost Geräten durchgeführt werden. Obwohl die Mehrbildfotogrammetrie schon in den 60er Jahren fester Bestandteil der Unterwasserarchäologie war, wurde dieses Verfahren bis in die frühen 90er Jahre kaum auf Grabungen und zur Funddokumentation eingesetzt. Mit Beginn des 21. Jh. stieg das Interesse an den Möglichkeiten der Befund und Schnittdokumentation jedoch an und führte im Zuge der zunehmenden Digitalisierung archäologischer Arbeitsprozesse die Fotogrammetrie in die Feldarbeit ein. Seit den frühen 2000er Jahren steigt die Zahl der Publikationen zur Mehrbildauswertung stetig an. Trotz dieser grundsätzlich Akzeptanz der Methode wird sie nur selten zur reinen Funddokumentation eingesetzt. In dieser Arbeit soll nun untersucht werden ob und wie gut die Nahbereichsphotogrammetrie zur Fundaufnahme geeignet ist. Es werden hierzu Exemplarische Funde und Fundgruppen ausgewählt und diese durch das Programm, Agisoft Standard, prozessiert. Im Zuge dieser Untersuchung soll auch ein genereller Arbeitsablauf erstellt werden, anhand dessen weitere Fundaufnahmen durchgeführt werden können. Des weiteren sollen mögliche Fehlerquellen während der Aufnahme, festgestellt und Alternativen gefunden werden. Anhand der virtualisierten Funde soll gezeigt werden, welche maximalen Genauigkeiten erzielt werden können und inwiefern sich neue Wege der Fundanalyse eröffnen. Im letzten Abschnitt liegt der Fokus auf der Publikation mehrdimensionaler digitaler Objekte und der Vergleichbarkeit mit schon bestehenden zweidimensionalen Funden. Um diese Methode für eine breite Anwenderschicht Interessant zu machen, wird ein möglichst geringes Budget für Hardware und Software angelegt. So wird ein Mittelklasse PC verwendet und eine Standard Spiegelreflexkamera. Inklusive allem zusätzlichen Materials und Software liegt damit die initiale Investition bei etwa 1000Euro. In der Zusammenfassung wird ein kurzer Exkurs zu möglichen noch kommenden Anwendungen und Analysen erfolgen. Sämtliche Abbildungen in dieser Arbeit sind, sofern nicht anders gekennzeichnet, als digitales Rendering anhand der erfassten Modelle erstellt. Auch wurden sämtliche erstellten Modelle zusätzlich als interaktives 3DPDF auf der, der Arbeit beiliegenden DVD gespeichert.
Content may be subject to copyright.
Freie Universität Berlin
Fachbereich Geschichts- und Kulturwissenschaften
Institut für Prähistotische Archäologie
Nahbereichsfotogrammetrie als Methode zur
archäologischen Funddokumentation und -analyse
MASTERARBEIT
von
Eik Jagemann
.
Studiengang
Studiengang Prähistorische Archäologie
Matrikel-Nr. 4062471
am
3. August 2015
Erstgutachter: Prof. Dr. Michael Meyer
Zweitgutachter: Prof. Dr. Hans-Jörg Nüsse
Inhaltsverzeichnis
1 Einleitung 1
2 Grundlagen der Fotogrammetrie 3
2.1 eine kurze Geschichte der Fotogrammetrie . . . . . . . . . . . . . . . . 3
2.2 Algorithmen und technische Grundzüge . . . . . . . . . . . . . . . . . . 6
2.2.1 Digitale Bilder als Datengrundlage . . . . . . . . . . . . . . . . . 6
2.2.2 Aufnahmekonfigurationen . . . . . . . . . . . . . . . . . . . . . . 7
2.2.3 Mehrbildauswertung und Bündeltriangulation . . . . . . . . . . 8
2.3 Fotogrammetrie Software . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3.1 Open source Bundler Tools und VisualSFM . . . . . . . . . . . . 11
2.3.2 Autodesk 123D catch . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.3 AgisoftPhotoscan........................... 12
2.4 Vergleich mit anderen Methoden zur 3D Objekterfassung . . . . . . . . 13
2.4.1 Laserscanner.............................. 13
2.4.2 Streifenlichtscanner . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 Allgemeiner Workflow 15
3.1 Bildaufnahme ................................. 15
3.2 Punktwolkengenerierung . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2.1 Freistellen und Maskierung . . . . . . . . . . . . . . . . . . . . . 19
3.2.2 Szenenrekonstruktion und dünne Punktwolken . . . . . . . . . . 20
3.2.3 dichte Punktwolken.......................... 22
3.3 Vermaschung und Gittererstellung . . . . . . . . . . . . . . . . . . . . . 23
3.4 Texturierung.................................. 24
3.5 verwendetesSystem ............................. 26
3.5.1 PCHardware ............................. 26
3.5.2 Fotografische Ausrüstung . . . . . . . . . . . . . . . . . . . . . . 27
4 Anwendbarkeit in der Archäologie 28
4.1 Unterwasser- und Wrackarchäologie . . . . . . . . . . . . . . . . . . . . 28
4.2 Befund- und Schnitterfassung . . . . . . . . . . . . . . . . . . . . . . . . 29
4.3 Landschafts- und Architekturvermessung . . . . . . . . . . . . . . . . . 29
5 Erfassung mobiler archäologischer Einzelobjekte 31
5.1 Keramik .................................... 31
5.1.1 Materialeigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 32
5.1.2 Bildaufnahme und Modellberechnung . . . . . . . . . . . . . . . 32
5.1.3 Allgemeine Oberflächenformen . . . . . . . . . . . . . . . . . . . 33
I
5.1.4 Verzierungen und Werkzeugrekonstruktion . . . . . . . . . . . . 33
5.1.5 Gefäßrekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.1.5.1 Gefäßprofile und Mündungsdurchmesser . . . . . . . 37
5.1.5.2 Volumenberechnungen . . . . . . . . . . . . . . . . . . 41
5.1.6 keramische nicht Gefäßobjekte . . . . . . . . . . . . . . . . . . . 41
5.1.6.1 Spinnwirtel und Webgewichte . . . . . . . . . . . . . . 42
5.1.6.2 KleinMosaik ........................ 43
5.2 Metallobjekte.................................. 45
5.2.1 Materialeigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.2 Bildaufnahmen ............................ 48
5.2.3 digitalisierte Metallobjekte . . . . . . . . . . . . . . . . . . . . . . 49
5.2.3.1 Besonderheiten der Bildaufnahme für Fibeln . . . . . . 49
5.2.4 Analysemöglichkeiten an Metallfunden . . . . . . . . . . . . . . 50
5.2.4.1 Verformte Objekte, Materialdeformation . . . . . . . . 50
5.2.4.2 Materialabtrag . . . . . . . . . . . . . . . . . . . . . . . 51
5.2.4.3 Volumina .......................... 53
5.2.4.4 Verzierungen ........................ 54
5.2.4.5 Beschädigungen und Reperaturen . . . . . . . . . . . . 56
5.2.5 Münzen ................................ 59
5.3 Tierknochen .................................. 63
5.3.1 Materialeigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 63
5.3.2 Bildaufnahmen ............................ 64
5.3.3 Erfassung und Bemaßung . . . . . . . . . . . . . . . . . . . . . . 65
5.3.4 mechanische Spuren . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.3.4.1 Schnitt- und Hackspuren . . . . . . . . . . . . . . . . . 66
5.3.5 Halbfabrikate und Werkstücke . . . . . . . . . . . . . . . . . . . 69
5.3.6 Pathologien .............................. 71
5.4 Genauigkeit der Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.4.1 Reduktion der Gitter . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.5 Schlussbemerkungen zur Erfassung mobiler Einzelobjekte und Kritik . 75
6 Publizierbarkeit und Archivierung 77
6.1 Darstellung komplexer Modelle . . . . . . . . . . . . . . . . . . . . . . . 77
6.2 Archivierung fotogrammetrischer Modelle . . . . . . . . . . . . . . . . 77
6.2.1 Daten und Dateiformate . . . . . . . . . . . . . . . . . . . . . . . 78
6.3 Onlinepublikation............................... 79
6.3.1 Openaccess und DOI . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.3.2 virtuelle Sammlungen . . . . . . . . . . . . . . . . . . . . . . . . 79
6.4 3D-Druck.................................... 81
6.5 Urheberrecht an 3D-Modellen . . . . . . . . . . . . . . . . . . . . . . . . 82
6.6 Manipulationsmöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . 83
7 Zusammenfassung und Ausblick 85
7.1 Ausblick .................................... 87
8 Tafeln 88
II
9 Fotogrammetrisch erfasste Objekte 93
Literaturverzeichnis 106
Abbildungsverzeichnis 126
Tabellenverzeichnis 130
III
1 Einleitung
Fotogrammetrische Vermessungen haben eine über 150 jährige Tradition in der Ar-
chitektur und Landschaftsvermessung. Der Begriff Nahbereichsfotogrammetrie defi-
niert sich über die Entfernung zum zu vermessenden Objekt. So gilt eine Entfernung
unter 100 m bereits als Nahbereich. Durch die Größe der Objekte und den geringen
Abstand zu ihnen während der Aufnahme könnte man, in dieser Arbeit, auch von
Makrofotogrammetrie sprechen1. Da es allerdings keine Scharfen Kategoriegrenzen
in diesem Bereich gibt wird weiterhin der Begriff Nahbereich verwendet. Die Schreib-
weise des Wortes Fotogrammetrie mit F ist orientiert an den Empfehlungen des Du-
den und ist ebenso gebräuchlich wie das alternative Ph.
Moderne Softwarelösungen haben in den letzten 30 Jahren, herkömmliche Stereo-
auswertegeräte abgelöst und durch einfache Zugänglichkeit, die Fotogrammetrie für
eine Breite Öffentlichkeit geöffnet.
Gerade die Entwicklungen im Gebiet der Open source Software2, insbesondere die
Bundler Tools erleichterten die Benutzung enorm. Durch einen gleichzeitigen sprung-
haften Anstieg der Leistungsfähigkeit im Bereich der Personal Computer, können
nun die komplexen Berechnungen der Bündelausgleichung und Szenenrekonstrukti-
on auf Low-Cost Geräten durchgeführt werden.
Obwohl die Mehrbildfotogrammetrie schon in den 60er Jahren fester Bestandteil der
Unterwasserarchäologie war, wurde dieses Verfahren bis in die frühen 90er Jahre
kaum auf Grabungen und zur Funddokumentation eingesetzt. Mit Beginn des 21.
Jh. stieg das Interesse an den Möglichkeiten der Befund und Schnittdokumentation
jedoch an und führte im Zuge der zunehmenden Digitalisierung archäologischer Ar-
beitsprozesse die Fotogrammetrie in die Feldarbeit ein. Seit den frühen 2000er Jahren
steigt die Zahl der Publikationen zur Mehrbildauswertung stetig an.
Trotz dieser grundsätzlich Akzeptanz der Methode wird sie nur selten zur reinen
Funddokumentation eingesetzt. In dieser Arbeit soll nun untersucht werden ob und
1Luhmann 2010.
2Offene Software die durch jeden verändert und weitergeben werden kann.
1
wie gut die Nahbereichsphotogrammetrie zur Fundaufnahme geeignet ist. Es wer-
den hierzu Exemplarische Funde und Fundgruppen ausgewählt und diese durch das
Programm, Agisoft Standard, prozessiert. Im Zuge dieser Untersuchung soll auch
ein genereller Arbeitsablauf erstellt werden, anhand dessen weitere Fundaufnahmen
durchgeführt werden können. Des weiteren sollen mögliche Fehlerquellen während
der Aufnahme, festgestellt und aAlternativen gefunden werden.
Anhand der virtualisierten Funde soll gezeigt werden, welche maximalen Genau-
igkeiten erzielt werden können und inwiefern sich neue Wege der Fundanalyse er-
öffnen. Im letzten Abschnitt liegt der Fokus auf der Publikation mehrdimensionaler
digitaler Objekte und der Vergleichbarkeit mit schon bestehenden zweidimensiona-
len Funden.
Um diese Methode für eine breite Anwenderschicht Interessant zu machen, wird ein
möglichst geringes Budget für Hardware und Software angelegt. So wird ein Mit-
telklasse PC verwendet und eine Standard Spiegelreflexkamera. Inklusive allem zu-
sätzlichen Materials und Software liegt damit die initiale Investition bei etwa 1000
Euro.
In der Zusammenfassung wird ein kurzer Exkurs zu möglichen noch kommenden
Anwendungen und Analysen erfolgen.
Sämtliche Abbildungen in dieser Arbeit sind, sofern nicht anders gekennzeichnet, als
digitales Rendering anhand der erfassten Modelle erstellt. Auch wurden sämtliche
erstellten Modelle zusätzlich als interaktives 3DPDF auf der, der Arbeit beiliegenden
DVD gespeichert.
2
2 Grundlagen der Fotogrammetrie
2.1 eine kurze Geschichte der Fotogrammetrie
Bereits wenige Jahre nach Erfindung der Fotografie durch Niepce, Daguerre, Fox Tal-
bot und anderen, zwischen 1830 und 1840, wird der Messtechnische Fotografieeinsatz
unabhängig voneinander durch den französischen Offizier Laussedat (1848, Métro-
photographie) und den deutschen Architekten Meydenbauer (1858, Messbildverfahren,
Photometrographie) vorgenommen. Erstmals publiziert wird der Begriff Photogramme-
trie jedoch 1867 durch Meydenbauer3.
(a) St. Gotthard von Südwesten (b) St Gotthard von Süden, fotogramme-
trische Zeichnung.
Abbildung 2.1: Brandenburg an der Havel, Stadtpfarrkirche als Messbild und als Re-
produktion einer fotogrammetrischen Zeichnung, Beides von 1895 (BLDAM, Messbild-
archiv).
.
Bis zum Ende des 18. Jh. wurden Schadstellen an Gebäuden durch direkte Beklette-
rung der Fassaden analysiert. Dies barg eine große Gefahr für Architekten, Ingenieu-
3Luhmann 2010, S. 16.
3
re und Arbeiter. So stürzte einer der Erfinder der Messbildfotogrammetrie selbst fast
zu Tode. Dieser Unfall inspirierte Meydenbauer zur Verwendung von Verzerrungs-
freien Fotografien um etwaige Beschädigungen sicher vom Boden aus zu kartieren.
Dies senkte die Gefahr tödlicher Unfälle, jedenfalls für Ingenieure und Architekten,
beträchtlich. Zur Bildaufnahme entwickelte der deutsche Architekt eigene Aufnah-
mekameras in denen Glasplatten als Emulsionsträger genutzt wurden.
Zwischen 1885 und 1909 legte Meydenbauer im Auftrag des preußischen Staates ein
Archiv von 13000 Messbildern für etwa 1100 bedeutende architektonische Denkmä-
ler an4. Diese werden bis heute im Messbildarchiv des BLDAM5verwahrt.
In den letzten drei Jahrzehnten des 19. Jahrhunderts wurde das fotogrammetrische
Messverfahren kontinuierlich weiterentwickelt und neue Anwendungsbereiche er-
probt. Neben der Bauaufnahme wurde sie nun auch zur topografische Vermessung,
vor allem schwer zugänglicher Objektbereiche eingesetzt. Diese Entwicklungsphase
wird als Messtischphotogrammetrie bezeichnet.
Nach der Jahrhundertwende konnten erste stereoskopische Auswertegeräte realisiert
werden, z.B. von Pulfrich 1901 (Stereokomparator), mit denen erstmals Bildkoordina-
ten unter stereoskopischer Betrachtung gemessen werden konnten. Weitere Entwick-
lungen folgten bis zwischen den Weltkriegen vor allem die Luftbildauswertung im
Mittelpunkt stand. Diese Phase wird als Analogphotogrammetrie bezeichnet.
Bis zum Ende der siebziger Jahre dominierten sogenannte Messkammern, in denen
ab den fünfziger Jahren neben Glas auch Film als Emulsionsträger verwendet wur-
den. Dabei wurden vor allem in der Unfallaufnahme und Architekturphotogramme-
trie Stereoauswertegeräte, bestehend aus zwei baugleichen Messkammern, verwen-
det6.
Seit den sechziger Jahren kamen vermehrt Modell- und Bündelungsausgleichpro-
gramme zum Einsatz, die nicht nur die Aufnahme beliebig angeordneter Bildverbän-
de, sondern auch die simultane Berechnung der Kalibrierungsdaten der Aufnahme-
kameras erlauben, zum Einsatz. Dies wurde durch das Aufkommen elektronischer
Rechner in den fünfziger Jahren ermöglicht und markiert die Phase der Analytischen
Photogrammetrie. Die Bündelausgleichung führte zu einer Vereinfachung der Auf-
nahmesysteme, hin zu modifizierten professionellen Fotosystemkameras, wodurch
das Anwendungsspektrum der Nahbereichsfotogrammetrie beträchtlich erweitert wur-
4Driesch 1994, S. 286.
5Bradnenburgisches Landesamt für Denkmalpflege und Archäologisches Landesmuseum
6Luhmann 2010, S. 18-19.
4
de. Durch die elektronische Auswertbarkeit bedingt, verliert die traditionelle Stereo-
fotogrammetrie im Nahbereich an Bedeutung und spielt heute kaum noch eine Rol-
le. Seit Mitte der achtziger Jahre nahm die Nutzung optoelektronischer Bildsensoren
erheblich zu. Diese ermöglichten in Kombination mit der Leistungsfähigeren Rech-
nertechnologie, erste automatische Messungen und Korrelationen von Bildpunkten
anhand digitaler Bilder. Die nun beginnende Digitale Fotogrammetrie, ist in der La-
ge Echtzeitmessungen von Oberflächen in kontrollierten Umgebungen zu vollziehen
und findet Anwendungen in Industriellen Anlagen wie dem Automobilbau7.
Ab den neunziger Jahren bis heute, hat sich vor allem die komplett digitale Bildver-
arbeitung durchgesetzt. Durch die Entwicklung besserer Sensoren, stetig steigender
Auflösungen und Qualität der Bilder, in Kombination mit einfach zu bedienenden
Software Lösungen. Führte dies, zum praktisch vollständigen verschwinden analyti-
scher Plotter und mechanischer Auswertegeräte8.
Heute werden fotogrammetrische Verfahren in vielen Bereichen des täglichen Le-
bens, der herstellenden Industrie und Forschung eingesetzt. Neben einer raschen
fortgesetzten Verbesserung der Hard- und Software Komponenten sorgt vor allem ei-
ne vereinfachte Handhabung für diese Entwicklung. Neben der Luftbildvermessung
und der Architekturaufnahme werden fotogrammetrische Verfahren auch in der Kri-
minalistik, Archäologie, Verfahrenstechnik, bei Sportereignissen, und in zahlreichen
Fertigungsprozessen angewendet.
Heute sind leistungsfähige Computer in fast jedem Haushalt vorhanden und aus un-
serem täglichen Leben kaum mehr wegzudenken. Die sehr rechenintensiven Vorgän-
ge der Fotogrammetrie, die im ausgehenden zwanzigsten Jahrhundert noch ganze
Großrechner belegten, lassen sich Heute auch auf Heimrechnern durchführen. Nicht
zuletzt sorgte die Veröffentlichung frei zugänglicher Fotogrammetrie Software durch
Noah Snavely9, Yasatuka Furukawa10 und Changwang Wu11 für ein gesteigertes In-
teresse auch von nicht Technikern. Gerade in den letzten fünf Jahren nahm, bedingt
durch einen erhöhten Einsatz von Computer animierten Inhalten12 in den Medien,
die Veröffentlichung und Bandbreite von Fotogrammetrie Software für den Hausge-
brauch sprunghaft zu. Dies korreliert direkt mit günstigeren 3D Druckern, hochauf-
lösenden Digitalkameras und dem exponentiellen Wachstum der PC Leistungsfähig-
7Luhmann 2010, S. 20-21.
8Luhmann 2010, S. 22.
9Snavely et al. 2010.
10Furukawa et al. 2010.
11Changwang Wu 2012.
12CGI = Computer generated Image.
5
keit. So prognostizierte Gordon Moore eine Verdoppelung der Rechengeschwindig-
keit, in Masse hergestellter Rechenmaschinen, alle 12-24 Monate. Bei gleichzeitiger
Preisstabilität13. Daneben steigerte sich das Interesse und die Akzeptanz der Bevöl-
kerung an Computergenerierten Objekten, durch den zunehmenden Einsatz von CGI
Animationen in Film, Fernsehen, Computerspielen, dem Internet und auch in Muse-
en.
2.2 Algorithmen und technische Grundzüge
Das menschliche Auge ist in der Lage Tiefeninformationen aus Stereoskopisch aufge-
nommenen Bildern zu extrahieren und zu verarbeiten. Das beobachtete Objekt wird
dabei auf beiden Netzhäuten mit einem bekannten Versatz abgebildet und im Gehirn
beide Abbildungen trianguliert.
Auch mit nur einem Auge sind wir in der Lage Tiefeninformationen zu gewinnen
und einen Raum einzuschätzen. Dazu bedient sich das Auge einer Verschiebung des
Fokus, Reflexionen und Schatten sowie der Größe bekannter Objekte als Hilfsmit-
tel14.
Einem ähnlichen Prinzip folgt auch die Fotogrammetrie zur Erzeugung geometri-
scher Strukturen. Dieses soll im folgenden näher vorgestellt werden.
2.2.1 Digitale Bilder als Datengrundlage
Seit den achtziger Jahren wurden suksessive die analoge- durch die digitale Foto-
grafie abgelöst. Im selben Maße setzte sich die Verwendung von digitalen Bildern
in fotogrammetrischen Prozessen durch da viele Verarbeitungsprozesse, wie das di-
gitalisieren der Quellmedien, entfallen. Vor allem konnte der komplette Ablauf der
analog Bild Entwicklung umgangen werden, wodurch sich die Kosten pro Bild er-
heblich reduzierten.
Ein Digitalbild besteht aus N Zeilen mit jeweils M Bildpunkten, den sogenannten Pi-
xeln. Das Bildformat wird durch die räumliche Auflösung in Pixel x Pixel angegeben
sowie die Farbkodierung der einzelnen Pixel die in Bit gemessen wird. So enthält die
zweidimensionale Matrix (N x M) eines Farbbildes basierend auf dem verwendeten
Bildspeicherformat und Kompressionsgrad, einen der folgenden Werte je Pixel15:
13Schaller 1997, 52 ff..
14Torres et al. 2012, S.1 f.
15Steinmetz 1999, S. 50.
6
Drei Zahlen, die meistens die Intensität der Rot-, Grün- und Blaukomponenten
der Farbe des Pixels angeben (unkomprimiert).
Drei Zahlen, die Verweise in eine Tabelle darstellen, die die rot-. grün bzw. blau–
Intensität enthält (gering komprimiert).
Eine einzige Zahl, die als Verweis in eine Tabelle von Farbtripeln fungiert (kom-
primiert).
Ein Index zu einer anderen Menge von Datenstrukturen, die die Farben reprä-
sentiert (stark komprimiert).
Durch den maximalen Informationsgehalt unkomprimierter Bilder, beispielsweise
RAW oder Tif Dateien, verbrauchen diese zwar den meisten Speicherplatz, sind aber
besser für fotogrammetrische Zwecke geeignet.
Matrixbasierte Bilddaten werden durch ihre innere Struktur als Rasterdaten bezeich-
net. Sie besitzen eine feste Auflösung und rigide Struktur. Im Gegensatz dazu lassen
sich Vektor Grafiken Auflösungsunabhängig betrachten, da sie nicht auf einer festen
Matrix basieren sondern auf mathematischen Relationen einzelner Grafikobjekte un-
tereinander. Beispiele für diese Art digitaler Bilder sind gezeichnete Grafiken und
CAD Pläne. Vektorbilder können nicht direkt mithilfe digitaler Kameras aufgenom-
men werden. Und sind ungeeignet für fotogrammetrische Prozesse.
2.2.2 Aufnahmekonfigurationen
Grundsätzlich können drei verschiedene Aufnahmekonfigurationen unterschieden
werden.
Einzelbildaufnahme
Stereobildaufnahme
Mehrbildaufnahme
Um aus einem einzelnen Bild eine dreidimensionales Objekt zu rekonstruieren sind
zusätzliche geometrische Informationen über das Objekt erforderlich. So können mit
einem Bild Informationen über gegenseitige Lage und Orientierung zwischen zwei
7
Objekten im Raum bestimmt werden16. Dieses Verfahren kommt vor allem in der Er-
stellung von Orthophotos zum Einsatz und findet breite Anwendung in der Archäo-
logie. Beispielsweise in der planaren Orthophotoerstellung einzelner Befunde, Profile
und Flächen. Ein zusammengesetztes Mosaik aus mehreren Einzelbildaufnahmen ist
nur eine fortgesetzte Iteration der Einzelbildaufnahme und damit nicht Teil der als
Mehrbildauswertung bezeichneten fotogrammetrischen Technik.
Ohne praktische Bedeutung ist heute die Stereobildauswertung. Dabei werden Bild-
paare anhand eines bekannten Versatzes, in Winkel und Entfernung, zur Erfassung
dreidimensionaler Objektinformationen eingesetzt. Das sogenannte stereo image mat-
ching arbeitet ähnlich der menschlichen Tiefenwahrnehmung, in der auch zwei ver-
setzte Bilder miteinander zu räumlichen Informationen verarbeitet werden17. Dies
findet heute nur noch im umgekehrten Falle Einsatz. Beispielsweise in 3D Filmen,
Virtual Reality Umgebungen und Animationen in denen dem Auge zwei Bilder prä-
sentiert werden die im Gehirn zu einem räumlichen Eindruck verschmelzen18.
Die Mehrbildaufnahme unterliegt grundsätzlich keinerlei Einschränkungen hinsicht-
lich der Wahl von Aufnahmestandorten und -richtungen der Kameras. Das Objekt
wird durch beliebig vielen Bildern erfasst, die einen ausreichenden Schnittwinkel
der Strahlen(Im Bild erfassten Lichtsignale) im Objektraum ermöglichen. Mindestens
zwei Bilder müssen jeden Objektpunkt aus unterschiedlichen Aufnahmepositionen
erfassen. Durch Verfahren der Mehrbildtriangulation kann bei einer hinreichenden An-
zahl und Konfiguration von Bildstrahlen (mindestens 3–4 Bilder pro Objektpunkt)
eine in allen Koordinatenrichtungen genaue Objektrekonstruktion erfolgen19. Dies
bedingt den Aufnahmemodus wie er in dieser Arbeit verwendet wurde und in Ab-
schnitt 3.1 beschrieben wird.
2.2.3 Mehrbildauswertung und Bündeltriangulation
Auf eine detaillierte Beschreibung zur Auswertung von Stereobildaufnahmen und
Einzelbildern wird verzichtet da in dieser Arbeit vor allem das Verfahren der Mehr-
bildfotogrammetrie verwendet wird.
16Luhmann 2010, S. 131-132.
17Luhmann 2010, S. 132.
18Kuhlmann 2012, 96 ff..
19Luhmann 2010, S. 133.
8
Das auch als SfM bezeichnete Structure from Motion Verfahren, verwendet die Bewe-
gung (dies meint vor allem den Abstand) zwischen zwei Bildern als Hauptparameter
zur Rekonstruktion des fotografierten Objektes. Dabei wird von einer unveränderten
zu dokumentierenden Geometrie ausgegangen die aus verschiedenen Perspektiven
und Standorten fotografiert wird20.
Die Bündeltriangulation ist die Basis und das Hauptverfahren zur simultanen rechneri-
schen Einpassung beliebig vieler im Raum angeordneter Bilder (Strahlenbündel) un-
ter Berücksichtigung fotogrammetrisch gemessener Bildpunkte eines übergeordne-
ten Koordinatensystems. So werden Einzelne Bilder mithilfe identischer, korrespon-
dierender, Punkte zu einem Gesamtmodell verknüpft, in dem das Objekt bereits voll-
ständig dreidimensional rekonstruiert werden kann21. Das auf Basis der Kollineari-
tätsgleichungen beruhende mathematische Prinzip der Bündeltriangulation, ermöglicht
es die primär beobachteten Messgrößen (Bildkoordinaten einer Bildserie) als Funkti-
on sämtlicher für eine fotogrammetrische Abbildung benötigter Unbekannter auszu-
drücken und nach einer Linearisierung als Näherungswert zu bestimmen.
x=x
0+zr11(XX0)+r21(YY0)+r31(ZZ0)
r13(XX0)+r23(YY0)+r33(ZZ0)+x
y=y
0+zr12(XX0)+r22(YY0)+r32(ZZ0)
r13(XX0)+r23(YY0)+r33(ZZ0)+y
Allgemeine Kollinearitätsgleichungen nach Luhmann 2010.
Anhand beobachteter homologer Punkte und deren Bildkoordinaten, werden fehlen-
de Unbekannte iterativ bestimmt. Als Unbekannte werden dreidimensionale Objektko-
ordinaten für jeden Neupunkt i(up, je 3 Unbekannte), die äußere Orientierung für
jedes beteiligte Bild j(uB, je 6 Unbekannte) sowie die innere Orientierung für jede
beteiligte Kamera k(uK, 0 oder je 3 Unbekannte), bezeichnet.
Somit stellt die Bündeltriangulation eine Erweiterung des räumlichen Rückwärtsschritts
(zur Bestimmung der Objektkoordinaten anhand im Vorwärtsschritt aufgenommener
Bildkoordinaten) dar.
x+νx=F(X0j,Y0j,Z0j,ωj,ϕj,Kj,x
0k,ck,δx
k,Xi,Yi,Zi)
y+νy=F(X0j,Y0j,Z0j,ωj,ϕj,Kj,y
0k,ck,δx
k,Xi,Yi,Zi)
Bündeltriangulation als erweiterter Ansatz des räumlichen Rückwärtschrittes nach
Luhmann 2010.
20Torres et al. 2012, S. 3.
21Luhmann 2010, S. 301.
9
Anhand von Näherungswerten der in Klammern stehenden Unbekannten und die
nicht linearen Allgemeinen Kollinearitätsgleichungen nach Taylor linearisiert22.
Eingabe
Berechnung
Ausgabe
Gemessene
Bildkoordinaten
Verbesserung der
Bildkoordinaten
Bündelausgleichung
Passpunkte und
Objektelemente
Näherungswerte der
Unbekannten
Innere Orientierung
Statistik
Fehleranalyse
3D-Koordinaten
der Objektpunkte
Abbildung 2.2: Datenfluss für die Bündelausgleichung, nach Luhmann 2010.
Dieses robuste Verfahren der Bestimmung, vor allem intrinsischer Kameraparameter,
ist in der Lage auch eine Simultankalibrierung der verwendeten Bildaufnahmegeräte
durchzuführen. Zusätzlich ist es möglich mithilfe weiterer bekannter Parameter wie,
Lage und Rotation des Objekts im Raum, Kameraparameter, bekannter Strecken oder
bestimmter Einzelpunkte das resultierende Modell genauer zu rekonstruieren und
abzubilden23.
So werden beispielsweise codierte Marker als Orientierungshilfe im Raum verwendet
um die Szenenrekonstruktion zu beschleunigen und zu verbessern24.
2.3 Fotogrammetrie Software
In den letzten 15 Jahren versuchten sich zahlreiche Softwarelösungen, mit verschie-
densten technischen Ansätzen, am Markt zu etablieren. Dabei variieren die Preise je
22Luhmann 2010, S. 307 f.
23Luhmann 2010, S. 317-328.
24Agisoft 2014a, S. 37-38.
10
nach Anbieter stark. Neben kostenlosen Lösungen sind auch spezielle Softwarelösun-
gen für mehrere tausend Euro erhältlich. Ähnlich heterogen wie die Anwendungsge-
biete der jeweiligen Software gestalten sich auch die Systemvoraussetzungen die je
nach Programm stark unterschiedlich sind. Einige Programme benötigen, aufgrund
der genutzten Soft- und Hardwareschnittstellen, spezielle Systemkomponenten(so
wird u. a. eine feste Auswahl an Grafikkarten vorgegeben). Aus dieser Vielzahl von
Anwendungen möchte ich hier nur eine kleine Auswahl präsentieren.
2.3.1 Open source Bundler Tools und VisualSFM
Bundler ist ein open source Structure from Motion System das in der Lage ist aus unsor-
tierten Bildern, dünne Punktwolken zu generieren. Aufgrund seiner offenen Struktur
und freien Verfügbarkeit wurde es weltweit in vielen Institutionen eingesetzt, ange-
passt und weiterentwickelt. Entstanden sind daraus verschiedene Unterprogramme
die sich im Kern zwar ähneln aber auf jeweils andere Anwendungszwecke ihren Fo-
kus legen.
In VisualSFM wurden einige dieser Programme durch Changwang Wu in einer Gra-
fischen Benutzeroberfläche 25 zusammengeführt26. Diese Distribution enthält neben
Bundler auch die PMVS/CMVS Tools27, CMPMVS28 und weitere Softwarekompo-
nenten zur Objektrekonstruktion.
Obwohl diese OpenSource Anwendungen schon erflogreich in Archäologischen Pro-
jekten eingesetzt wurden habe ich mich in dieser Arbeit gegen diese Programme ent-
schieden. Zweifelsohne sind die Ergebnisse der Mehrbildanalysen gut und die ma-
nuelle Korrektur und Manipulation des Verarbeitungsvorganges jederzeit möglich.
Jedoch ist das eigentliche Arbeiten mit der Software relativ kompliziert. Sie ist in Tei-
len undokumentiert und wird, im Gegensatz zu dem hier eingesetzten Agisoft Pho-
toscan, nicht regelmäßig durch Updates weiterentwickelt29.
25GUI = Graphical User Interface
26Changwang Wu 2012.
27Zur Generierung dichter Punktwolken anhand kalibrierter Bilder; Furukawa et al. 2010.
28Eine Alternative Mehrbildrekonstruktionssoftware die neben Punktwolken auch vermaschte textu-
rierte Objekte erstellen kann; Jancosek et al. 2011.
29So erschienen im Verlauf dieser Arbeit fünf kleinere Updates für Agisoft Photoscan die den Zeitauf-
wand in einigen Arbeitschritten fast halbierten.
11
2.3.2 Autodesk 123D catch
Einen anderen Ansatz wählte die Firma Autodesk mit ihrer eigenen Softwarelösung.
In ihrem Programm 123D Catch30 werden die aufgenommenen Quellbilder nicht mit-
hilfe der jeweiligen lokal vorhandenen Technik ausgerichtet und das Modell berech-
net sondern über eine Internetverbindung hochgeladen und in einem Firmeneigenen
Serverpark berechnet. Nach Abschluss der Modellerstellung im Cloud Service wird
das fertiggestellte Modell wieder an den Auftraggeber zurückgesendet. Die sehr ein-
fache Benutzeroberfläche mit wenigen Einstellungsmöglichkeiten ist auf den eher un-
erfahrenen Nutzer zugeschnitten. Da lokal keine leistungsfähige Hardware benötigt
wird, ist dieses Programm auch für Mobile Endgeräte, Tablets, Handys und ausge-
wählte MP3 Player, erhältlich. Dieser online Fotogrammetrie Ansatz wird in ähnli-
cher Weise auch in der Industrie eingesetzt, dort allerdings zur Echtzeitrekonstrukti-
on gemessener Flächen31.
Die Vorteile liegen vor allem in der einfachen Modellerstellung, die Hardwareunab-
hängig durchgeführt werden kann. Allerdings, wird für das Hoch- und Herunterla-
den der Bilder und des fertigen Modells, eine Breitbandinternetverbindung benötigt.
Im Einsatz über eine Mobilfunkverbindung erhöhen sich so die Kosten für verbrauch-
tes Datenvolumen beträchtlich.
Das Programm selbst bietet wenig Einstellungsmöglichkeiten um gezielt Verände-
rungen am Modell vorzunehmen. Da die komplette Berechnung der Daten extern
durchgeführt wird bleibt dem Nutzer ein Einblick in den Verarbeitungsvorgang ver-
wehrt, ohne die fehlende Feinjustierung entstehen eher mäßige Oberflächenrekon-
struktionen bzw. defekte Modelle.
Auch ist Vorsicht angebracht da sämtliche Daten in einem Cloudservice verarbeitet
werden und daher vom Serviceanbieter beliebig gespeichert, verarbeitet und je nach
Allgemeinen Nutzungsbedingungen genutzt werden könnten.
2.3.3 Agisoft Photoscan
Unter den nicht industriellen Fotogrammetrie Programmen konnte sich das Programm
Photoscan32 der russischen Firma Agisoft im Bereich der kommerziellen Low-Cost Fo-
togrammetrie durchsetzten. Zum einen wird es mit einem vergleichsweise günstigen
30Autodesk 2015.
31Luhmann 2010, 7. ff.
32Agisoft 2015.
12
Preismodell33 angeboten und bietet zum anderen eine einfache intuitive Benutzero-
berfläche der Software sowie sehr gute Resultate. Gerade in der Archäologie erfreut
sich Photoscan wachsender Beliebtheit und wird sowohl unter Wasser34 wie auch zur
Dokumentation ganzer Landschaften und Baubefunde35 eingesetzt.
Wie auch Visual SFM nutzt Photoscan die lokal vorhandene Hardware um mittels
SfM Verfahren Quellbildreihen auszurichten und Oberflächen zu rekonstruieren. Da-
her benötigt die Software relativ starke Komponenten im Rechensystem. In dieser
Arbeit wurde auf die Standardversion von Photoscan36 zur Modellerstellung zurück-
gegriffen.
Sofern nicht anders kenntlich gemacht beziehen sich die weiteren Ausführungen zur
Mehrbildphotogrammetrie auf Arbeitsschritte in Photoscan.
2.4 Vergleich mit anderen Methoden zur 3D
Objekterfassung
2.4.1 Laserscanner
Lange Zeit galten Laserscanner als die genauesten Geräte zur Objekterfassung, dies
gilt mit Einschränkungen bis heute. So können zum Beispiel mit dem relativ gün-
stigen Next Engine Desktop 3D Scanner, verlässlich Auflösungen zwischen ±0, 127
mm (Macro Mode) und ±0, 381 mm (Wide Mode) erreicht werden. Neben ihrem ho-
hen Anschaffungspreis gelten für Laserscanner häufig weitere Einschränkungen. So
ist ihr Erfassungsbereich relativ klein, Im Falle des erwähnten Next Engine Scanners,
etwa 12, 95 ×9, 65 cm im Macro Mode und 34, 29 ×25, 65 cm im Wide Mode37. Zwar
können mithilfe mehrerer Teilscans auch größere Objekte erfasst werden allerdings
erhöht dies die Fehlerrate am finalen Modell sowie kompliziert es die Modellerstel-
lung sehr.
Zur Dokumentationen größerer Strukturen, Gebäuden sowie auch für mobile Einze-
lobjekte werden Scanner wie der mobile Z+F IMAGER R
5006i eingesetzt. Diese kön-
33Etwa 160 $ für die Standardversion, und 3500 $ für die Professional Version, sowie spezielle Studen-
tenversionen.
34Zhukovsky et al. 2013, S. 718.
35Snavely et al. 2010, 1370 ff..
36In der umfangleichen Studentenversion.
37Amico et al. 2011, S. 15.
13
nen pro Scan etwa 50m2bis 100m2Fläche eines Gebäudes , bei einer Auflösung von
etwa 5 mm bis 10 mm, erfassen38. Diese sind allerdings durch das benötigte Feldstativ,
die Energieversorgung sowie Hardware zur Datenspeicherung größer und schwerer
als eine einfache Fotoausrüstung.
Gerade die Weiterverarbeitung der durch Laserscanner erfassten Daten kann sich
mittels Low–Cost Systemen39 als schwierig erweisen, da die schiere Punktmenge zu
hohe Hardwareanforderungen an das System stellt.
2.4.2 Streifenlichtscanner
Am Ähnlichsten, ist der Streifenlichtscanner, der Nahbereichsfotogrammetrie. Durch
die Projektion eines festen geometrischen Musters, und seiner Verzerrung durch das
unterliegende Objekt, berechnet der Scannerkopf die zu vermessende Oberfläche. Im
Falle eines Handgeführten Modells wie dem Artec EVA orientiert er sich an bereits
vermessenen Flächen um aus den Einzelscans (etwa 30 pro Sekunde) ein komplettes
Modell zu rekonstruieren40.
Durch die Schnelle Abfolge von Einzelscans können extrem hochauflösende Flächen
berechnet werden (bis 1
10 mm Detailgenauigkeit), die mit Hilfe einzelner Texturfotos
auch in Originalfarben dargestellt werden können.
Größtes Manko der Streifenlichtscanner ist ihre Unhandlichkeit. So ist der Scanner
selbst mit einem Rechner verbunden um die Daten sofort zu übertragen. Wie auch
der Laserscanner produziert er extreme Datenmengen und ist relativ Teuer in der
Anschaffung und benötigt einen möglichst lichtkontrollierten Raum zur Objekterfas-
sung. Gerade in der Architektur Aufnahme ist der Einsatz von Streifenlichtscannern
unhandlicher als die einfache Aufnahme von Digitalbildern, für die Fotogrammetrie.
So konnte zur Aufnahme des Hadrianstempel in Ephesos nur jeweils ein Bereich von
0.2m2/1m2je Scan erfasst werden, wodurch 1,750 Einzelscans nötig wurden. Aller-
dings ist eine Hohe Detailwiedergabe durch die laterale Auflösung von 0.3 mm / 1
mmm gesichert41.
38Zhou et al. 2012, S. 42.
39Als Low–Cost system wird hier ein PC mit 8 GB Arbeitspeicher oder weniger angenommen. Dabei
handelt es sich um den derzeitigen mittleren Standard (Stand 2015).
40Artec Group 2014, 19 ff.
41Zhou et al. 2012, S. 42.
14
3 Allgemeiner Workflow
In diesem Kapitel möchte ich einen Abriss über die Arbeitsschritte von der Bildauf-
nahme bis zur Fertigstellung eines fotogrammetrischen Modells geben. Dabei steht
die Verwendung des Programmes Agisoft Photoscan im Vordergrund.
Bildaufnahme
Aufarbeitung und Bearbeitung des Bildmaterials
Erstellung des
fotogrammetrischen
Modells
Bildausgabe
Renderbilder
Iso-Perspektiven
Orthophotos
Modellausgabe
Daten zur Archivierung
Daten zur Analyse
Punktwolken
Gitterstrukturen
Daten zur Betrachtung
Systemübergreifende
Formate
Webcontent
Animationen
Interaktive Betrachter
3D-PDF
Analyseprogramme
GIS
Meshlab
Cloudcompare
Paraview
CAD
Auf der Fläche
Modellerstellung
Weiterverarbeitung
Abbildung 3.1: Allgemeiner Arbeitsablauf von der Bildaufnahme bis zur Archivierung.
Viele dieser Arbeitschritte sind in anderen Fotogrammetrie Programmen ähnlich zu
realisieren so das dies als generelle Einführung in den fotogrammetrischen Workflow
gesehen werden kann.
3.1 Bildaufnahme
Die Basis jedes modernen fotogrammetrischen Modells bilden Digitalfotos42 daher
sollte gerade diesem Arbeitschritt besondere Aufmerksamkeit und Sorgfalt gewid-
met werden. Im folgenden möchte ich hier einige allgemeine Empfehlungen zur Bild-
42Im folgenden als Quellbildreihe bezeichnet.
15
aufnahme geben und die Bildaufnahme für die in dieser Arbeit verwendeten Modelle
darstellen.
Da die Algorithmen fotogrammetrischer Programme vor allem einzelne Punkte und
Punktcluster in möglichst vielen Bildern erkennen müssen um Verknüpfungen dieser
Bilder untereinander zu berechnen, sollten die Bilder selbst möglichst viele, verarbeit-
bare, Punkte enthalten43. Daher ist die Auflösung ein entscheidender Punkt in der Re-
konstruktion der Kamerapositionen. Aus diesem Grund sollte die Bildauflösung, der
zu verwendenden Bilder, 5 MP44 nicht unterschreiten45. Im Falle einer Unterschrei-
tung dieser Grenze können zwar durchaus auch Objekte rekonstruiert werden. Diese
werden allerdings keine hohe Detailgenauigkeit aufweisen es sei den die fehlende
Auflösung wird durch eine hohe Quellbildzahl kompensiert46
Zur verbesserten Erkennung markanter Punkte in Bildern sollte eine Möglichst große
Tiefenschärfe eingestellt werden47 sowie ein nach Möglichkeit geringer ISO Wert.
Letzterer bestimmt die Lichtempfindlichkeit des Kamerasensors. Ist er zu hoch ein-
gestellt kommt es zur Artefaktbildung, vor allem in dunklen Bildbereichen, die die
Qualität der Entstehenden Punktwolke maßgeblich verschlechtern können. Je nach
Beleuchtungsmöglichkeit muss der geringe ISO Wert mitunter durch eine Verlänge-
rung der Belichtungszeit ausgeglichen werden48.
Da mithilfe der Quellbilder neben der reinen Geometrie des Objektes auch die späte-
re Textur berechnet wird, empfiehlt es sich das zu digitalisierende Objekt möglichst
frei von Schatten auszuleuchten. Gerade harte Schlagschatten erschweren die Mo-
dellerstellung und führen am späteren, texturierten Objekt zu irritierenden Flächen
und mitunter Fehlstellen. Letztendlich kann die Qualität der Quellbilder durch reine
Quantität ausgeglichen werden. So reichte im Phototourism Projekt die Sammlung
von tausenden frei verfügbaren Bildern, von Touristen, Agenturen und Webseiten,
des Trafalger Square um diesen als 3D Modell zu rekonstruieren49. Die dafür einge-
setzten Bilder waren extrem heterogen in ihren Aufnahmeeinstellungen, Bildqualität
als auch Auflösungen.
Die Modelle in dieser Arbeit wurden mit einem kosteneffektiven Lichtaufbau, beste-
43Details dazu in Abschnitt 2.2.
445 MP = 5 Millionen Pixel pro Bild.
45Aktuelle Digitalkameras bieten meist eine Auflösung zwischen 8 und 24 MP und auch Handykame-
ras sind Heute in der Lage diese minimale Bildauflösung zu liefern.
46van Damme 2015, 233 f..
47Dies kann direkt über die Blendeneinstellung erreicht werden.
48Sowohl die weite Blendeneinstellung wie auch die mitunter lange Belichtungszeit, erfordern den
Einsatz eines Statives um das Bild während der Aufnahme nicht zu verwackeln.
49Snavely et al. 2010, 1371 ff.
16
Abbildung 3.2: Trafalger Square, rekonstruierte Punktwolke anhand mehrerer tausend
frei verfügbarer Einzelbilder (jede schwarze Pyramide repräsentiert ein Bild) nach Snav-
ley 2010.
hend aus zwei LED Strahlern50, und einem Ringlicht als Frontbeleuchtung aufgenom-
men. Um harte Schatten zu vermeiden wurden die Objekte innerhalb einer Lightbox
positioniert und von Außen mit LED Strahlern beleuchtet.
Innerhalb des Würfels wurden die zu digitalisierenden Objekte auf einem Drehteller
und einer darauf liegenden Kalibrationsmatte positioniert. Gerade ältere Fotogram-
metriesoftware benötigt eine bestimmte Anzahl bekannter Raumpunkte für die Be-
stimmung der räumlichen Struktur einer Szene. Das hier verwendete Photoscan be-
nötigt dieses eigentlich nicht mehr. Allerdings diente diese Matte vor allem zur Kon-
trolle der Tiefenschärfe und der Ermittlung der Kamerapositionen, zwischen zwei Bil-
dern. Es stellte ebenfalls eine Referenz zur nachträglichen Skalierung der Objekte dar.
Dieser Aufbau ermöglicht es die Kamera sowie Leuchtmittel fest zu positionieren und
nur das Objekt selbst zu drehen. Dieser Modus wird nach erfolgter Bildbearbeitung,
die benötigte Bewegung zwischen jeweils zwei Aufnahmen simulieren. Eine Stan-
dardaufnahmereihe besteht aus 17 Einzelbildern, dabei wird das Objekt zwischen
zwei Aufnahmen jeweils um 17 Grad gedreht51. Je nach Komplexität des Objektes
wurden diese um weitere Aufnahmen, z.B. an komplexen Stellen oder um ganze Rei-
hen in einer anderen Aufnahmehöhe (Abb. 3.3b), ergänzt. Die Kamera selbst wurde
über einen Laptop angesteuert52, dies verhinderte ein verwackeln der Bilder während
der Auslösung. Ebenfalls konnte die Schärfe manuell mittels Schärfemaske am PC in
50Je 5 W bei 4000 k Lichttemperatur, sogenannte Tageslichtlampen.
51Agisoft 2014b, S. 6.
52Mittels dem EOS Utility Programm welches jeder Canon Spiegelreflexkamera beiliegt.
17
Objekt
(a) Idealbildaufnahmereihe
mit einer um das Objekt ge-
führten Kamera.
(b) Zwei kombinierte Aufnahmereihen
aus verschiedenen Höhen in Agisoft Pho-
toscan.
Abbildung 3.3: Szenarien zur Aufnahme der Quellbildreihen für die fotogrammetrische
Erfassung mobiler Einzelobjekte.
sehr feinen Schritten justiert werden um das Bild jederzeit klar und scharf zu hal-
ten. Nach einer erfolgreichen Aufnahme des Objektes, wurde dieses auf dem Teller
umgedreht und mindestens eine weitere Bilderreihe aufgenommen.
Je nach verwendeter Kamera sollte das RAW Format zur Bildaufnahme verwendet
werden. Dabei handelt es sich um ein proprietäres, unkomprimiertes Bildformat das
erst mithilfe spezieller Software entwickelt53 werden muss. Im Zuge dieses Vorgan-
ges können Belichtung, Kontrast, Schärfe, Weißabgleich und Rauschunterdrückung
am Quellbild manipuliert werden. So kann die Qualität des resultierenden Modells
erhöht werden. Es ist allerdings darauf zu achten keine Veränderungen der Bildgeo-
metrie, wie z. B. Linsenverzerrung oder Zuschnitt, zu verursachen oder die in den
EXIF Daten des Modells enthaltenen Bildinformationen zur Aufnahme, wie Blende
oder Brennweite, zu korrigieren. Da diese einen Teil der intrinsischen Kamerapara-
meter darstellen und essentielle Informationen zur Punktwolkengenerierung sind.
Alternativ wurden einige Modelle mit einem reduzierten Aufnahmeverfahren auf-
genommen. Dabei wurde neben der Kamera nur ein Ringlicht direkt am Objektiv
verwendet. Diese Aufnahmen fanden jeweils in normal beleuchteten Räumen, unter
Neonlicht statt. Als Unterlage kam der Deckel eines Fundkartons, in grauer Farbe
zum Einsatz. Eine Standard Quellbildaufnahmereihe, mit einem genormten Abstand
konnte so nicht bestimmt werden. Daher wurde während der Aufnahmen auf eine
möglichst vollständige Modellabdeckung geachtet.
53In dieser Arbeit wurde vor allem Adobe Lightroom 6, zur Entwicklung der Aufnahmen verwendet.
18
(a) Originalbild des Auf-
nahmeaufbaus.
Laptop
Licht
5 W
Objekt
& Drehteller
Licht
5 W
Lightbox
Kamera
& Ringlicht
(b) Diagramm des Aufnahmeaufbaus.
Abbildung 3.4: Aufbau der Lichtquellen, Kamera und des Laptops während der Aufnah-
me der Quellbildreihen. Die Seitenflächen der Lightbox wurden zur besseren Sichtbarkeit
eingeklappt.
Diese Variante diente zur Überprüfung der Robustheit des Punkterkennungsalgorith-
mus und der Feststellung einer technischen Mindestaustattung. Die Auf diese Art
aufgenommenen Objekte sind(KE-04,KE-09,TK-09).
3.2 Punktwolkengenerierung
Anhand einzelner markanter Punkte die sich auf mehreren Bildern der Quellbildse-
rie finden werden die einzelnen Kamerapositionen im Raum errechnet und gleich-
zeitig die Punkte relativ zu einander im Raum orientiert. Die dadurch entstehende
Punktwolke dient der weiteren Rekonstruktion der Geometrie des zu digitalisieren-
den Objektes. Den ersten Schritt zu einem Polygonmodell stellt daher die sog. dünne
Punktwolke dar54.
3.2.1 Freistellen und Maskierung
Im Gegensatz zu Befunden, Architekturobjekten oder anderen immobilen Struktu-
ren, können während der Erfassung von mobilen Einzelobjekten alle Seiten eines Ob-
jektes erfasst werden. Für diesen Zweck wurden mehrere Bildreihen aufgenommen
(siehe Abschnitt 3.1) um auf diese Weise die Ober- wie auch Unterseite aufzunehmen.
54Dies ist ein Begriff wie er direkt als Arbeitsschritt in Agisofts Photoscan verwendet wird. In den zum
Vergleich herangezoogenen Bundler Tools wird dieser Vorgang in zwei einzelne Arbeitsschritte
unterteilt, die Punkterkennung und die Punktwolkengenerierung.
19
Um diese Bildreihen in einem Arbeitsgang zu verarbeiten, sollten die für die Rekon-
struktion benötigten Bereiche freigestellt werden. Dies geschieht durch das maskieren
unerwünschter Bereiche. Auf diese Weise wird nur eine bestimmte Fläche des Bildes
für die Objektrekonstruktion freigegeben. Durch die verringerte Pixelmenge wird der
Vorgang der Bilderausrichtung beschleunigt und gleichzeitig unerwünschte Bereiche
aus der Berechnung ausgeschlossen. Einen weiteren Vorteil stellt die Kombination
von mehreren Bildreihen dar.
Da nur das eigentliche Objekt zur Berechnung freigestellt ist. können so beliebig viele
Abbildung 3.5: Fünf freigestellte Quellbildreihen kombiniert im Scan von Objekt BZ-06.
Bildreihen verarbeitet werden, obwohl andere Objekte der Szenenstruktur (z. B. die
Kalibrationsmatte) dies verhindern würden.
Die während des Freistellen angelegten Masken machen den größten Anteil der Bear-
beitungszeit eines Objektes aus. Zwar sind durchaus automatische Freistellungsalg-
horithmen und Filter in Grafikprogrammen55 vorhanden, jedoch ist deren Fehlerqou-
te in der Bilderkennung zu groß. So bleibt nur ein manuelles markieren des Objektes
in jedem Bild der Quellbildreihe. Dies kann nach Komplexität des Objektes zwischen
zwei und 20 Minuten liegen. Beispielsweise wurden für Fund KE-04, 105 Bilder frei-
gestellt die durchschnittlich vier Minuten Maskierungsarbeit benötigten. Daraus re-
sultiert eine Nachbearbeitungszeit von etwa sieben Stunden.
Die entstandenen Masken sollten seperat als Datei gespeichert werden um diese nach
Bedarf hinzuzuladen und für weitere Projekte zu archivieren.
3.2.2 Szenenrekonstruktion und dünne Punktwolken
Als erster räumlicher Rekonstruktionsschritt wird die dünne Punktwolke angesehen.
Sie wird aus den, am häufigsten auf möglichst vielen Bildern erkannten Verknüp-
55Photoshop; Gimp u. a.
20
fungspunkten generiert (Siehe Abschnitt 2.2). Anhand der Vermessung dieser Punk-
te zueinander werden die Positionen der Kamera zum Zeitpunkt der Bildaufnahme
relativ zum Objekt berechnet.
Typischerweise besteht diese Punktwolke aus etwa 2.000 bis 50.000 Punkten und
weist, je nach Qualität der Quellbilder, eine gewisse Menge an Rauschen und Fehl-
punkten auf. Diese entstehen durch Misinterpretation von Lichtreflexionen, Hinter-
gründen, ISO–Rauschen und Schatten, während der Bildausrichtung. Zur Auswer-
tung werden alle Bildpunkte herangezogen die nicht durch eine Maske von der Be-
rechnung ausgeschlossen wurden. Dies limitert die auswertbare Punktzahl in den
Quellbildern zum Teil erheblich.
Abbildung 3.6: Erkannte Punkte anhand eines Quellbildes von Fund BZ-06. Rechts mit
darüberliegender Freistellungsmaske und den erkannten Punkten. In hellblau die zur
Szenenrekonstruktion genutzten Punkte. Links die berechnete Punktwolke.
Die Anzahl verfügbarer Pixel sind essentiell für ein möglichst dicht aufgelöstes Mo-
dell. Sie werden durch mehrere Faktoren beschränkt. Zum einen wird während des
Abgleichs der Quellbilder untereinander eine gewisse Überlappung der Aufnahmen
vorausgesetzt56 zum anderen ist das zu digitalisierende Objekte nie komplett Bild-
füllend abgebildet, belegt also nur eine Teilmenge der Bildpunkte. Je nach benutzter
Kamera, Struktur des Objektes und Vergrößerungsfaktor ist die resultierende Detail-
dichte am resultierenden Objekt begrenzt.
Die begrenzenden Faktoren sind folglich:
Auflösung der Quellbilder.
Pixelzahl die im Quellbild vom Objekt eingenommen wird.
Prozentsatz der Überlappung der Einzelbilder.
56Zwischen zwei Bildern sollten mindestens 40 % bzw. bestenfalls 60 % Überlappung bestehen.
21
So kostet das Erstellen von Freistellungsmasken, zwar viel manuelle Arbeitszeit und
reduziert die maximal erkennbaren Punkte. Stellt aber auch den einzigen Weg zur
kompletten Rekonstruktion dreidimensionaler Objekte dar.
3.2.3 dichte Punktwolken
Anhand, der während der Kameraausrichtung erzeugten dünnen Punktwolke, wird
eine verdichtete Version eben dieser erstellt57. Zwar lässt sich auch mithilfe der ersten
Punkte schon ein geometrischer Körper berechnen und mit einem mesh58 versehen.
Aufgrund der geringen Punktzahl und dem meist noch starken Rauschen sind diese
Gitter weniger detailliert und bieten kaum geometrische Details.
Dieses Problem wird durch eine Verdichtung der initialen Punktwolke erreicht. Dabei
werden um die schon existenten Punkte weitere Punkte analysiert und einer zwei-
ten, dichteren Wolke hinzugefügt. Diese Punkte wurden meist von der ersten Wolke
ausgeschlossen da sie nicht auf genügend Bildern einwandfrei identifiziert werden
konnten. Gleichzeitig entfernt ein Tiefenfilterungsalghorithmus störende, nicht zum
eigentlichen Objekt gehörende Punkte und Cluster. Die so geschärfte und verdichte-
te Wolke vervielfacht die Anzahl der Ausgangspunkte und eliminiert bis zu einem
gewissen Grad störende Objekte.
Abbildung 3.7: Dichte Punktwolke von Objekt BZ-06, bestehend aus 5 774 620 Punkten.
Gerade in schlecht texturierten und dunklen Bildbereichen kann die Tiefenfilterung
zu unerwünschten Löchern führen. Bedingt wird dies durch ein automatisches aus-
schließen extrem dunkler bzw. schwarzer Punkte. Gegen diesen Effekt kann nur durch
ein Aufhellen der Quellbildreihe vorgegangen werden.
57Agisoft 2014b, S. 12.
58Auch als Mesh bezeichnet.
22
3.3 Vermaschung und Gittererstellung
3D Oberflächen werden durch das Verbinden einzelner Punkte im Raum erzeugt. Da-
bei stehen unterschiedliche Modelle zur Approximation der Oberflächenstruktur zur
Verfügung. Die Oberflächen selbst werden unterschieden in 21
2DOberflächen, wel-
che sich meist in Form einer , mehr oder weniger Planen Fläche zeigt deren Funktion
sich als Z=R(X,Y)darstellen lässt. Es ist also jedem Punkt der Grundfläche (X,Y)
ein eindeutiger Höhenwert (Z) zugewiesen. Typische ist diese Struktur für Gelände-
modelle oder Orthophotos.
Demgegenüber bezeichnet man Objekte mit Aussparungen, Bohrungen, Zerklüftun-
gen und Unterschneidungen als echte 3D-Oberflächen. Diese besitzen Oberflächen-
punkte in der Form Z=R(X,Y,Z), womit Punkten mit identischen Flächenkoordi-
naten (X und Y), unterschiedliche Höhen (Z) zugewiesen werden können. Skulptu-
ren, Gefäße und ähnliche komplexe Modelle sind Beispiele für diese59.
In diesem Arbeitsschritt wird die erzeugte Punktwolke zu einem hohlen, im Ideal-
fall Wasserdichten Objekt. Dabei wird, jeweils zwischen den am nähesten beieinander
liegenden Einzelpunkten, eine Fläche 60 aufgespannt. Diese Polygone bestehen ty-
pischerweise aus drei Punkten und Kanten können aber auch, je nach verwendeter
Vermaschungstechnik, aus mehr Punkten aufgespannt werden.
Durch die Erzeugung eines Gitters wird ein geometrischer Körper erzeugt der im ide-
al Wasserdicht (Poisson Filter) sein sollte und mit einer Textur versehen werden kann
und an dem verschiedene geometrische Messungen durchgeführt werden können61.
So kann neben Volumenbestimmungen auch die Oberfläche Vermessen werden. Im
Unterschied zu der, meist schon sehr wie ein geschlossenes Objekt wirkenden dich-
ten Punktwolke, kann das Gitter in viele häufiger verwendete Formate umgewandelt
werden und in mehr 3D Anwendungen verarbeitet werden. So ist es möglich diese
Objekte in Webanwendungen zu visualisieren, in PDF Dateien einzubinden und in
den häufigsten 3D Programmen zu bearbeiten.
Abhängig von der geplanten Verwendung des Objektes können verschieden dicht
aufgelöste Gitter erzeugt werden62. Diese werden durch den zur Berechnung ange-
legten Octree bestimmt. Durch den Octree wird die maximale Aufteilung in Unterflä-
chen festgelegt63. Diese Begrenzung verhindert eine Übermäßig große Verwendung
59Luhmann 2010, S. 74-75.
60Polygon siehe glossar
61Kazhdan et al. 2006, 6 f.
62Agisoft 2014b, S. 13.
63Kazhdan et al. 2006, 7 ff.
23
von Arbeitsspeicher und einen darauf folgenden Absturz des Rechners.
Abbildung 3.8: Vermaschte Punktwolke des Objekts BZ-06. Links als einfarbig schattier-
tes Objekt. Rechts durch die Vertexfarben eingefärbt.
So werden vor allem in PDF Dateien reduzierte Gitter verwendet die oft nur 10 % der
original Polygonzahl besitzen64. Die maximal sinnvolle Auflösung wird durch die zu-
grundeliegende Punktwolke begrenzt. Kann aber, von einer erstellten Maximalauflö-
sung, bis zu einem gewissen Grad fast ohne den Verlust geometrischer Information
verringert werden. Die Nutzung sehr dichter Polygonobjekte65 wird meist nur für ex-
trem hochauflösende Renderbilder genutzt.
Durch die Farbinformationen der Punktwolken selbst, können auch Gitterobjekte ko-
loriert werden. Diese Farben beruhen dann auf den speziellen Knotenpunkten 66 des
Objektes und können als schattiertes Objekt visualisiert werden. Diese sind häufig
weniger scharf als die nachträglich aufgebrachten Texturen und daher weniger gut in
fotorealistischen Rendervorgängen zu verwenden.
3.4 Texturierung
Den letzten Arbeitsschritt in der Modellerstellung bildet das texturieren des finalen
Objekts. Dabei wird auf Basis der Quellbildserie eine einzelne Bilddatei erstellt die
danach auf das Gitterobjekt gelegt wird.
Die Textur ist eine Bilddatei die jedem Punkt der Oberfläche eines Gitters, in aufge-
falteter Form, jeweils einen Wert zuweist. Die Textur kann ein-, zwei- oder dreidi-
mensional sein und wird meist durch Abbildung der einzelnen Vertex (Knotenpunk-
64Die auf der DVD beigelegten 3D PDFs wurden auf jeweils etwa 200.000 Polygone begrenzt.
65Objekte über 1 Million Polygone sind außerhalb spezieller 3D Programme meist nur schwer zu ver-
arbeiten, da große Mengen Arbeitsspeicher zur Darstellung verwendet werden.
66Auch als Vertex bezeichnet.
24
te) auf der Textur verknüpft67. Der Detailgrad dieser Textur ist abhängig von ihrer
Auflösung. Standardmäßig ist eine Textur quadratisch und wird meist mit einer Kan-
tenlänge von 4096 Pixeln68 erstellt. Dies entspricht einer Punktmenge von etwa 16,7
mio. Pixeln (16,7 MP) die zur Darstellung der Oberfläche verwendet werden können,
wobei ein kleiner Prozentsatz durch die Zwischenräume der aufgefalteten Flächen
gesperrt ist.
Abbildung 3.9: Links, aufgefaltete Textur von Objekt BZ-06. Rechts das texturierte Gitter
als Objekt.
Da die Texturen auf den verwendeten Quellbildern basieren werden starke Schatten-
würfe oder Bildrauschen direkt in diese mitübernommen. Daher sollte während der
Bildaufnahme darauf geachtet werden diese Bildstörungen zu vermeiden.
Ebenfalls problematisch können sich Flächen des Gitters darstellen die während der
Rekonstruktion, nicht oder nur schlecht erfasst werden konnten. Typischerweise sind
dies schlecht zu erfassende Bereiche hinter Unterschneidungen oder Regionen inner-
halb eines Objektes. Diese werden nicht von der Textur ergänzt und bilden somit
Fehlstellen die nur manuell ausgebessert werden können69.
67Menzel 2008, 3 ff.
68Das in diesem Programm hauptsächlich verwendete Fotogrammetrie Programm, Photoscan kann
theoretisch Texturen bis zu einer Kantenlänge von 16384 Pixeln erzeugen.
69Stallmann et al. 2012, 398 f.
25
3.5 verwendetes System
Alle Modelle in dieser Arbeit wurden mithilfe der im folgenden beschriebenen Hard-
ware erstellt. Im Falle abweichender Aufnahme Situationen werden diese direkt er-
wähnt.
3.5.1 PC Hardware
Zur Erzeugung der fotogrammetrischen Modelle und ihrer Renderbilder wurde ein
Mittelklasse Heim-PC verwendet. Ein solches Low-Cost System ist in vielen Einrich-
tungen bereits vorhanden bzw. stellt keinen großer Kostenfaktor in der Anschaf-
fung dar. Hilfreich hat sich die Möglichkeit der Stapelverarbeitung erwiesen. Diese
führt ausgewählte Arbeitsschritte autonom, in einer vorher bestimmten Reihenfolge
durch70. So kann zur Lösung Rechenintensiver Vorgänge der PC, z.B. Nachts weiter-
laufen.
Prozessor Intel i5 750 (4x2,6 GHz)
Arbeitsspeicher 8 GB DDR 2 800MHz
Grafikkarte Radeon HD 4690
Festplatte Samsung Evo 840 SSD (120 GB)
1TB HDD Seagate (5400 RPM)
Tabelle 3.1: Zur Berechnung der fotogrammetrischen Modelle verwendetes PC-System
Obwohl diese Hardware Kombination bereits ausreichend für die Erstellung photo-
grammetrischer Modelle ist, schlägt sich die geringe Leistung in der Berechnungszeit
der Modelle und Renderbilder Auffallend nieder. So variert je nach Detailfülle die
Rechenzeit in der Modellerstellung zwischen 10 minuten bis zu mehreren Stunden.
Größere Mengen an hochaufgelösten Modellen sollten daher von einem gezielt dafür
gebauten System erstellt werden um die Bearbeitungszeiten relativ gering zu halten.
Auch die Nutzung mehrerer im Netzwerk vorhandener Rechner ist zur Berechnung
einsetzbar. Dies setzt allerdings die Nutzung der Agisoft Photoscan Pro Version vor-
aus71.
70Agisoft 2014b, S. 34.
71Agisoft 2014a, 60 ff.
26
3.5.2 Fotografische Ausrüstung
Die Quellbildreihen wurden in einer genormten annähernd schattenfreien Umge-
bung aufgenommen. Dazu wurde ein auffaltbarer Lichtwürfel, mit austauschbaren
farbigen Hintergründen, verwendet. Das Modell im Inneren wurde durch die halb
transparenten Außenflächen, mithilfe zweier LED Strahler beleuchtet. Die Seitenflä-
chen wirken dabei als Diffusoren die harte Schlagschatten abmildern. Als dritte Licht-
quelle wurde ein Ringlicht, das direkt am Objektiv der Kamera angebracht war, ein-
gesetzt. Dieses sorgte für eine endgültige Schattenfreie Ausleuchtung der Einzelauf-
nahmen.
Als Kamera kam eine Handelsübliche digitale Spiegelreflexkamera der Firma Ca-
non72, mit Standardobjektiv, zum Einsatz. Die Verwendung einer Spiegelreflexkame-
ra ist sehr zu Empfehlen da diese, im Gegensatz zu günstigeren Kompaktkameras,
eine bessere Blendensteuerung besitzen und Bilder im Verlustfreien RAW Format er-
zeugen können.
Zur besseren Reflexionsunterdrückung wurde bei stark spiegelnden Objekten ein
Polfilter der Marke Kodak eingesetzt. Dies schwächte das Problem störender Glanz-
punkte in Einzelaufnahmen erheblich ab.
72Canon EOS 600d
27
4 Anwendbarkeit in der Archäologie
4.1 Unterwasser- und Wrackarchäologie
Schon in den 60er Jahren wurden die Möglichkeiten fotogrammetrischer Methoden in
der Wrackarchäologie erkannt. Das weitgehende Fehlen einer Stratigraphie und die
benötigte dreidimensionale Vermessung Weit verteilter Fundstücke die typisch für,
z. B. gesunkene Schiffe ist. Erfordert eine genaue Lage Erfassung aller Objekte der
Ladung und des eigentlichen Schiffskörpers. Dies ist mithilfe normaler Methoden nur
schwer zu erreichen. Vermessung mit Maßbändern gestaltet sich Unterwasser schwer
bis unmöglich und Zeichnungen, können Objekte nur im zweidimensionalen Raum
erfassen. Abhilfe verschaffte hier schon früh der Einsatz Stereofotogrammetrischer
Verfahren.
Diese waren allerdings Kosten- und Zeitaufwendig da bis zum Ende des 20. Jh. teures
Spezialequipment, speziell geschultes Personal und extrem lange Berechnungszeiten
unvermeidbar waren73. Durch Einbinden der zur Errechnung der Kameraparameter
nötigen Algorithmen wurden Passmarken, genormte Aufnahmeflächen und Spezi-
alkameras überflüssig und beschleunigte die Datenaquise enorm und ermöglichte
das verwenden handelsüblicher Kameras, da die Kalibrierung der Einzelbilder on
the fly erfolgte. So wurde zum Beispiel die Bergung des Schiffswrackes von Mazotos
(Zypern), fast ausschließlich durch fotogrammetrische Verfahren realisiert. Am Ende
jeden Tages wurde ein 3D Modell des jeweils bearbeiteten Bereiches erstellt. Diese
konnten miteinander abgeglichen werden und so ein komplettes Modell der Funde
und ihrer Lage am Grund des Meeres erstellt werden. So entstand über die Jahre ein
detaillierter dreidimensionaler Grabungsplan. Eine Besonderheit stellt die Möglich-
keit dar rekonstruierte Funde an der originalen Fundlage in das Modell einzuarbeiten
um so die Lage der Ladung und Bauweise des Schiffes zu rekonstruieren74.
Die Aufnahme der Bilder kann Unterwasser auch durch unbemannte ferngesteuerte
73Gawlik 2014, S. 10.
74Demesticha et al. 2014, S. 145 ff.
28
Fahrzeuge durchgeführt werden um so größere Fundstreuungen zu dokumentieren
oder allgemein größere Bereiche zu erfassen75.
Alternativ kann mithilfe kostengünstiger Outdoorkameras (Go Pro Actioncam) ge-
filmtes Videomaterial, dass nach dem Tauchgang in Einzelbilder zur Berechnung zer-
legt wird verwendet werden76. Die große Anzahl der Bilder (6000+) wiegt dabei die
geringe Auflösung auf.
4.2 Befund- und Schnitterfassung
Komplexe Befunde direkt auf der Grabung zu dokumentieren kann sehr zeitaufwen-
dig sein. Neben traditionellem maßstabsgetreuen zeichnen auf Papier werden zuneh-
mend elektronische Verfahren wie Tachymeter und entzerrte Orthophotos eingesetzt.
Fotogrammetrische Aufnahmen sind in der Lage, eine detaillierte Ergänzung zu die-
sen Methoden darzustellen. Eine Untersuchung aus Trønsnes verglich die Daten meh-
rerer 3D Modelle mit den Messresultaten eines Tachymeters77. Diese zeigten das die
aus Bildern errechneten 3D Modelle die Reliefstruktur und Textur genauer und de-
taillierter wiedergeben können. Gleichzeitig nährte sich die gesparte Zeit während
der Einzelmessung und die Verarbeitung erster Rohdaten aneinander an.
Sehr effektiv konnte Fotogrammetrie zur Dokumentation von Felszeichnungen im
Altai Gebirge eingesetzt werden. Gerade der direkte Vergleich mit von Hand erstell-
ten Abklatschzeichnungen mit den aus 3D Modellen extrahierten Orthophotos ist ein-
deutig. Durch eine hohe Quellbilddichte wurden Auflösungen bis in den Zehntel Mil-
limeter Bereich hinein erreicht. Auch konnten archivierte Bildserien aus vergangenen
Begehungen ebenfalls zur Rekonstruktion von Objekten herangezogen werden78.
4.3 Landschafts- und Architekturvermessung
Da die Wurzeln der Fotogrammetrie in der Auswertung Luftbildaufnahmen liegen,
ist die Anwendung zur Aufnahme größerer Landschaften ein naheliegender Einsatz-
zweck. Allerdings ist die Verfügbarkeit hochauflösender LIDAR79 Daten in Kombi-
75Gawlik 2014, S. 23.
76van Damme 2015, S. 234.
77Kjellman 2012, 49 ff.
78Plets et al. 2012, 11 ff.
79Luftgestützte Laserscans.
29
nation mit detailreichen Satellitenbildern der häufig einfachere Weg Landschaften zu
erfassen und zu Vermessen. So zeigen, z. B. die LIDAR Daten der Heuneburg eine
ausreichende Schärfe um Strukturen im Boden auszumachen und ein weites Feld an
Fragestellung mithilfe computergestützter Geoinformationssysteme (GIS) zu bearbei-
ten80.
In kleineren Regionen, wie etwa antiken Städten oder an Gebäuden findet die Fo-
togrammetrie größere Anwendung. So wurde zur Vermessung des Hadrianstempel
in Ephesos neben terrestrischem Laserscanning und Streifenlichtscannern auch Foto-
grammetrie eingesetzt. Dort kam sie nicht als Hauptvermessungs und Rekonstruk-
tions Werkzeug zum Einsatz, sondern zur schnellen Vermessung des Gebäudes als
Referenz für die nachfolgenden hochauflösenden Laserscans81.
Mit einer Mischung aus Luftgestützter- und Nahbereichsfotogrammetrie, sowie La-
serscannern und Tachymetern wurde das Forum von Pompeii aufgemessen. Auch
hier diente sie wieder eher als Referenzierungshilfe und weniger als Hauptvermes-
sungsmittel82.
Einen rein fotogrammetrischen Ansatz verfolgte das Phototourism Projekt, das bekann-
te und beliebte Sehenswürdigkeiten, anhand der von Besuchern erstellten Bildern re-
konstruierte83.
Zwar setzen sich fotogrammetrische Methoden immer mehr auch in der Aufnahme
größerer Objekte durch, allerdings fehlt bisher das Vertrauen in die genauigkeit der
Methode um dies regelhaft durchzuführen.
80Campana et al. 2006, 87 ff.
81Zhou et al. 2012, S. 43.
82Guidi et al. 2009, 110 ff.
83Snavely et al. 2010, 1370 ff.
30
5 Erfassung mobiler archäologischer
Einzelobjekte
Viele Publikationen haben sich in den letzten 10 Jahren mit den Möglichkeiten der
Nahbereichsfotogrammetrie in der Archäologie beschäftigt, wobei der Fokus meist
auf der Dokumentation von Befunden, Felsbildern oder größeren Unterwasser Struk-
turen lag. Bisher wurde nicht zusammenfassend untersucht inwiefern die 3D Er-
fassung von archäologischen Funden einen Mehrwert generieren kann und als Er-
gänzung zur zeichnerischen oder Fotografischen Dokumentation angesehen werden
kann. Im Folgenden soll dargelegt werden welche Vor- und Nachteile die Erfassung
verschiedener Fundgattungen bietet und welche Informationen aus den erstellten
Modellen abgeleitet werden können. Als mobile archäologische Einzelobjekte wer-
den demnach alle Funde und Objekte bezeichnet die während einer Ausgrabung ge-
borgen werden und im Zuge der Aufarbeitung erfasst, sortiert und analysiert werden
können.
Zu diesem Zweck wurden die am häufigsten auftretenden Funde archäologischer
Grabungen, nach ihren Material- und Nutzeigenschaften kategorisiert und anhand
exemplarischer Objekte digitalisiert, eine umfassende Auflistung der Einzelobjekte
befindet sich in Abschnitt 9 beginnend ab Seite 93.
5.1 Keramik
Häufig dominieren keramische Funde das Materialspektrum archäologischer Aus-
grabungen. Seit der Sesshaftwerdung der Menschen in der Jungsteinzeit stellte jede
Kultur oder Gruppe große Mengen an Gefäßen zu verschiedensten Zwecken her.
31
Oberfläche Verzierung Textur Eignung Beispiele
porös unverziert gleich-/ungleichmäßig +/++ einfacher Kumpf
porös ritzverziert gleich-/ungleichmäßig ++/++ Mittelslawische
Keramik
glatt unverziert gleich-/ungleichmäßig -/+ Harte Grauware
glatt ritz-
/Stichverziert
gleich-/ungleichmäßig +/+ Rädchenverzierte
Feinkeramik
glatt poliert/glasiert gleich-/ungleichmäßig - -/- gelbe Irdenware
Tabelle 5.1: Allgemeine Eigenschaften keramischer Oberflächen und ihre Eignung für die
fotogrammterische dreidimensionale Fundaufnahme.
5.1.1 Materialeigenschaften
Der größte Teil keramischer Erzeugnisse fast aller Kulturen besteht aus wenig ver-
zierten, groben Gefäßen ohne spezielle Oberflächenbehandlung. Diese besitzen daher
eine eher poröse bis glatte Oberflächenstruktur, ohne starke Reflexionseigenschaften.
Auch die prozentual seltenere Spezialkeramik (oder Feinkeramik), ist häufig nicht
spiegelnd Allerdings ist sie meist stärker Oberflächlich nachbehandelt. Neben der
Bemalung der Oberfläche sind Polierungen, Schlickerungen, Lackierungen nicht sel-
ten. Diese beeinflussen direkt die Reflexionseigenschaften und sorgen durch erhöhte
Glanzeigenschaften für störenden Reflexionen und Glanzpunkte während der Quell-
bildaufnahme.
5.1.2 Bildaufnahme und Modellberechnung
Keramische Funde, vor allem Gefäße und Bruchstücke von Gefäßen bieten den Vor-
teil das sie in den meisten Fällen ein Quellbild zu mindestens 2/3 ausfüllen. Dadurch
bieten diese Aufnahmen, bis auf einzelne Ausnahmen im Bruchkantenbereich ein-
zelner Scherben, ideale Ausgangspunkte zur Ausrichtung der Einzelbilder, wie aus
Abbildung 5.1 hervorgeht.
Feine Unregelmäßigkeiten auf der Oberfläche vieler Keramikobjekte, z. B. kleine Stei-
ne, Kratzer, Verzierungen und ähnliches, sorgen für eine ideal texturierte Oberflä-
che. Dadurch werden während der Bildausrichtung ausreichend viele Einzelpunkte
zur Oberflächenrekonstruktion erkannt. Zusammen mit der relativ großen Zahl ver-
rechenbarer Pixeln (Abbildung: 5.1) sind dies hervorragende Eigenschaften für eine
fotogrammetrische Modellerfassung.
32
Abbildung 5.1: Beispielmasken der Objekte KE-01 (links) und KE-04 (rechts). Gut erkenn-
bar sind die komplex freigestellten Bereiche und die gute Ausnutzung der Gesamtpixel-
zahl.
5.1.3 Allgemeine Oberflächenformen
Unter Oberflächenformen verstehe ich im weitesten Sinne die Modifikation einzelner
Bereiche durch flächige Manipulation. Unter diese Kategorie fallen alle generellen
Zierden wie umlaufende Polituren, Facettierungen, Glättungen und hervorgehobe-
ne plastische Verformungen. Ausgenommen davon sind kleinere lokale Zierden wie
Ritzungen, plastische Applikation Stempel oder Stiche. Auf diese wird in Abschnitt
5.1.4 näher eingegangen.
Dieses allgemeine Relief zeigt sich sehr gut in der einfachen schattierten Ansicht des
3D Modells wie in Abbildung 5.2 ersichtlich. Dies zeigt das die Erfassung der Ober-
fläche und ihrer Details, sehr gut mittels Fotogrammetrie realisierbar ist.
5.1.4 Verzierungen und Werkzeugrekonstruktion
Häufig wurden Gefäße mithilfe unterschiedlichster Werkzeuge verziert, um den Ge-
samteindruck des Objektes zu verändern. Dabei spielten modische Traditionen, reli-
giöse Ansichten sowie der Verwendungszweck des Gefäßes eine wichtige Rolle. Ne-
ben der Formensprache können dementsprechend auch die verwendeten Werkzeuge
zur vertiefenden Analyse der Gefäße beitragen.
Zusätzlich zu den, auch in traditionellen Zeichnungen, vorhandenen Bildinformatio-
nen, bieten 3D Modelle, die Möglichkeit Verzierungen tiefer gehend zu analysieren.
33
Abbildung 5.2: Links: Relief der Oberfläche des Fundes K-03 und K-04. Rechts: Die Ober-
fläche von Objekt K-06.
Beispielhaft sollen diese Möglichkeiten anhand verzierter Keramikobjekte aufgezeigt
werden.
Ritzverzierungen wie auf Fund K-01 sind typisch für slawische Keramiken, treten
aber auch in vielen anderen Epochen und Kulturen auf. Aufgrund der hohen De-
tailgenauigkeit ist das Relief sowie die Werkzeugspuren auf dem Objekt K-01 gut zu
erkennen und lässt, in der schattierten Ansicht gut verschiedene Werkzeuge unter-
scheiden. Die grün eingefärbten Spuren sind eher weit, halbrund im Querschnitt und
flach (weniger als 1 mm tief). Dagegen sind die roten, blauen und schwarzen, Ritzun-
gen schmal und spitz im Querschnitt sowie stark aufgewölbt an den Rändern. Auffäl-
lig ist das eine der doppelten roten Spuren wohl versehentlich eingeritzt wurde und
danach noch einmal über die gesamte Fläche wiederholt wurde. Alle Verzierungen
wurden wohl ohne Schablone erstellt, sondern Freihand. Darauf deutet jedenfalls die
ungleichmäßige Linienführung hin. Vor allem die schwarz eingefärbten Querlinien,
die den Verzierungsbereich begrenzen und auf dem Gefäßumbruch liegen weichen
sehr von der Ideallinie ab.
So lässt sich feststellen, dass die Oberflächenglättung des Randbereiches sowie die
Formung des Umbruchs abgeschlossen war, bevor die Ritzverzierungen durchge-
führt wurden. Da im linken Bereich ein Teil einer grünen Kreisspur von einer blauen
Ritzlinie Überlagert wurde, werden diese als erste Verzierungen angenommen. Da-
nach folgten die beiden blauen Schräglinien mit einem spitzeren schmaleren Werk-
zeug. Die schwarzen Spuren auf dem Umbruch kreuzen die blauen und sind so der
34
Abbildung 5.3: Werkzeugspuren auf slawischer Keramik
0
0
1
2
3
4
Abbildung 5.4: Reihenfolge der Verzierungen, unterschieden Anhand der Überlagerung
einzelner Spuren.
35
dritten Verzierungsgruppe zuzuordnen. Als letzte wurden die rot markierten Lini-
en eingeritzt. Diese lassen sich ebenfalls zeitlich unterteilen da die von rechts unten
kommende einzelne Spuren die rote Doppellinie kreuzt. Im unteren Bereich dieser
roten Einzellinie ist sichtbar das die blauen diese ebenfalls überlagern.
Obwohl zu diesem Fund keine Werkzeuge überliefert wurden können anhand der
Tiefeninformationen und Spurformen die Spitzen von mindestens zwei unterschied-
lichen Gegenständen nachgewiesen werden. Das kreisförmige Zierelement wurde
von einem Runden breiten Element mit wahrscheinlich 4 mm Durchmesser einge-
ritzt. Die schmaleren Linien wurden durch ein spitzes Objekt mit etwa 2 mm Durch-
messer gefertigt. Es könnte sich um ein zugespitztes schmales Holzstück handeln,
dessen Enden jeweils unterschiedlich zugerichtet waren.
Auch auf Fundobjekt K-02, einem Fragment eines Siebgefäßes, lassen sich die Ar-
beitsschritte der Oberflächenbehandlung nachvollziehen.
Abbildung 5.5: Siebkeramikscherbe (K-02), schattierte Ansicht von Oben (links) und un-
ten (rechts)
Das Gefäß wurde von einem längeren stabförmigen Gegenstand mehrfach durch-
bohrt um so ein Sieb zu konstruieren. Besonders auf der Innenseite, Abbildung 5.5,
zeigt sich das dabei die Stiche von außen nach innen durchgeführt wurden, ohne in
der Folge die Oberfläche zu glätten. Dadurch entstand auf der Innenfläche keine glat-
te, sondern von scharfen, bis zu 3 mm langen Graten durchzogene Sieboberfläche.
Wahrscheinlich wurden die Löcher jeweils einzeln eingestochen, wie leichte Auswöl-
bungen an der Außenseite des Gefäßes zeigen. Wären Stäbe in das Gefäß gesteckt
und auch während des Brandes in ihm belassen worden, würden diese Außenwöl-
bungen fehlen. Da alle Öffnungen den gleichen Durchmesser von 6 mm aufweisen
kann als sicher angenommen werden das jeder Stich einzeln mit dem Gleichen Werk-
zeug durchgeführt wurde.
36
Abbildung 5.6: Rekonstruierte Durchbohrungsrichtung des genutzten Werkzeuges.
Die vertikalen Linienverzierungen auf Objekt K-03 und K-04 können nicht als geo-
metrische Form nachvollzogen werden. Da es sich bei diesen um eine Glättstreifen
handelt84. Jedoch können die umlaufenden Rillen dieses Drehscheibengefäßes85 gut
im schattierten Modell dargestellt werden (Abb. 5.2).
5.1.5 Gefäßrekonstruktion
Einen wichtigen Schritt in der Fundaufarbeitung nimmt das zusammensetzen kera-
mischer Gefäße ein. So können meist, aus den zahlreichen einzelnen Scherben, Gefäß-
teile bis hin zu kompletten Objekten wiederherrgestellt werden. Dies ist wichtig um
Funde mithilfe kompletter Profile und möglichst großflächig rekonstruierten Ober-
flächen und deren Verzierung typologisch genau einzuordnen.
Gerade halbrekonstruierte Gefäße sind schwer zu transportieren, sicher zu lagern
und häufig kompliziert zu zeichnen. Im folgenden soll daher gezeigt werden wie
die Dokumentation von nur zum Teil erhaltenen Keramiken mithilfe photogramme-
trischer Modelle ergänzt bzw. erweitert werden kann.
5.1.5.1 Gefäßprofile und Mündungsdurchmesser
Wie auch real existierende Scherben können einzelne Modelle miteinander kombi-
niert werden um möglichst große Teile des Gefäßes wiederherzustellen. Es bietet ent-
scheidende Vorteile diesen Arbeitsschritt digital durchzuführen. So entfällt der Ein-
84Mündliche Mitteilung von B. Rauchfuss.
85Schier et al. 2014, S. 205.
37
satz von Klebstoffen und die Verwendung von stützenden Elementen, wie Sandki-
sten oder Schaumstoffen, während des Verklebens. Da die Objekte als 3D Scans frei
im Raum bewegt und aneinander ausgerichtet werden können reduziert sich die Ge-
fahr mechanischer Beschädigungen enorm. Auch Konstruktionen die im realen Raum
schwer durchzuführen sind, aufgrund zu geringer Klebeflächen und zu hohem Ei-
gengewicht der Objekte sind digital möglich. So konnte zum Beispiel die Scherbe
K-03 aus der Kanne K-04 am Rechner sicher zusammengeführt werden86.
(a) Scherbe K-03 und Kanne K-04 zusam-
mengesetzt zu einem Modell.
(b) Rekonstruierte Tasse (K-06) bestehend
aus vier einzeln digitalisierten Scherben
(ohne Maßstab)
Abbildung 5.7: Teilrekonstrierte Gefäße ohne Maßstab.
Auch das Modell K-06 besteht aus mehreren einzelnen Modellen die innerhalb eines
3D Programmes zusammengesetzt wurden. Im Unterschied zu dem in Abbildung
5.7a gezeigten Modellen, wurden für das Modell K-06 sämtliche Scherben einzeln di-
gitalisiert und nicht wie im Modell K-04 bereits verklebte Scherben. Beide Varianten
besitzen ihre eigenen Vor- und Nachteile. So ist der Aufwand jeweils einzelne Scher-
ben zu digitalisieren zwar um ein vielfaches Zeitaufwändiger allerdings verbrauchen
die realen Objekte, da sie weniger Volumen verbrauchen, später nur einen Bruchteil
der Lagerkapazitäten87.
86Nach mündlicher Mitteilung des Ausgräbers B. Rauchfuß brach diese Scherbe wiederholt aus dem
teil rekonstruiertem Gefäß.
87Zhou et al. 2012, 59 ff.
38
Profile können durch verschneiden88 der 3D Objekte mit anderen Objekten in weni-
gen Sekunden gewonnen werden. Sollte ein Gefäß nicht über ein komplett durchge-
hendes Profil verfügen kann durch mehrere Schnitte dieses zusammengesetzt wer-
den. Dieser Profilschnitt kann auf mehrere Arten weiterverarbeitet werden. So dient
er als Grundlage zur Rekonstruktion der fehlenden Objektbereiche. Dafür wird das
extrahierte Profil um die Z Achse rotiert um so ein idealisiertes Gesamtmodell zu er-
stellen(Abbildung 5.8a. Dieses basiert auf der Vervielfachung eines Basisprofils und
enthält daher keinerlei Verformungen oder Ungleichmäßigkeiten in seiner Form.
(a) Idealisierte Gefäßrekonstruktion auf
Basis eines aus photogrammetrischen Mo-
dellen gewonnenen Profils (ohne Maß-
stab).
(b) Detailausschnitt aus Abbildung 5.8a,
zeigt Abweichungen von der Idelaform
des Gefäßes.
Abbildung 5.8: Durch rotation eines kompletten Profiles erstellte Ideal Gefäße überlagert
von Originalscans (ohne Maßstab).
Aus diesen Profilen lassen sich eine Vielzahl von Einzelwerten ableiten, wie Winkel
und Längen an Untergruppen des Profils. So kann die Steigung an Umbrüchen sowie
die Längenmaße einzelner Baugruppen in quantifiziert und elektronisch verarbeitet
werden. Dies könnte, eine ausreichend große Stichprobe vorrausgesetzt, zu einem au-
tomatischen Klassifikationsprozess führen. Einen interresanten Ansatz bieten dabei
neue Versuche der Keramikklassifikation, die allerdings horizontale schnitte verwen-
den um Gefäße automatisch zu klassifizieren und vergleichbar zu machen89.
88Mithilfe einer Boolsche Operation können mehrere Objekte von einander abgezogen, miteinander ver-
schmolzen oder deren Differenz gebildet werden.
89Koutsoudis et al. 2009, 166 ff.
39
Eine Interresante Variante der kombinierten Darstellung besteht in einer eingeschränk-
ten Rotation des Profiles, z.B. um nur 270 Grad , um gescannte Bereiche, rekonstru-
ierte Gefäße sowie das Gefäßprofil in einer Abbildung darzustellen.
Abbildung 5.9: Kombinierte Darstellung bestehend aus Einzelscans, rekonstruiertem
Idealgefäß und Profil (ohne Maßstab).
Während der zeichnerischen Dokumentation werden Mündungsdurchmesser mithil-
fe einer Schablone bestimmt. So werden Randscherben auf dieser ausgerichtet und
anhand der Krümmung ihrer Wandung der Gefäßdurchmesser bestimmt90. Die Be-
stimmung desselben an einem referenzierten 3D Modells läuft ähnlich ab. So besteht
die Möglichkeit einen Kreis solange zu skalieren bis er dem Verlauf der Wandungs-
krümung angepasst ist oder mithilfe von Schnitten auf einer horizontalen ebene Teil-
bzw. Vollprofile zu erhalten.
Zwar können die rekonstruierten Idealgefäße relativ leicht mithilfe der Textur der
Scans mit einer fotorealistischen wirkenden Struktur überzogen und Fehlstellen er-
gänzt werden, um so ein komplett wirkendes Gefäß zu erzeugen. Jedoch rate ich
persönlich stark davon ab. Das verwischen von Bruchstellen, Schäden und das über-
decken fehlender Bereiche können schnell den den Eindruck erwecken das es sich um
einen Echten Fund handelt und nicht eine Rekonstruktion. Da Bilder schwer zu kon-
90Griffiths et al. 1990, 51 ff.
40
Gefäss erhaltene Wandung Idealisierte Wandung Innenvolumen
K-03 + K-04 82, 12cm3/ 733, 93cm31102, 82cm37302, 96cm3/7, 3l
Tabelle 5.2: Volumenberechnung anhand der Modelle K-03 und K-04 sowie der rekon-
struierten Wandung und darauf basierendem maximal Innenvolumen.
trollieren sind können diese schnell außerhalb ihres Kontextes verwendet werden
und zu falschen Schlussfolgerungen führen, wie ausführlicher in Abschnitt 6.6 aufge-
zeigt.
5.1.5.2 Volumenberechnungen
Von den Idealgefäßen lassen sich leicht diverse Volumina ableiten. Dies ist zwar mit-
hilfe der komplexer Integralrechnung, theoretisch auch anhand der Originale mög-
lich aber durch die unregelmäßigen Formen der zu vermessenden Körper sehr zeit-
aufwendig. 3D Objekte hingegen lassen sich schnell, einfach und sehr genau vermes-
sen.
Volumenberechnung irregulärer Körper ist eine direkte Voraussetzung für