Freitag, 10.2.2017
ab 12:00 h | Registrierung geöffnet | |
13:00 h | Begrüßung | |
13:15 h | Reinhard Foertsch
Stunde Null und Cultural Heritage Data (Keynote-Vortrag)
Informationssysteme und Daten sind nicht ohne spezifische Lebensbedingungen und eine permanente, von aussen erfolgende Ressourcenzuführung lebensfähig – was geschieht, wenn Informationstechnologien in externen Krisenbedingungen als Stabilisierungsfaktor benötigt werden? Die Frage stellt sich auf zwei Ebenen. Einmal für die autochthonen Daten und Informationssysteme in Krisenländern, zum anderen für externe Datengewinnung und -verarbeitung mit dem Ziel, eine Sequenz von Zuständen materiellen Kulturerbes zu dokumentieren. Auf deren Basis systematische Erfassungen wie georeferenzierte Denkmälerregister und objektbasierte Schadenserfassungen als Planungsgrundlagen für zukünftige Wiederaufbaumaßnahmen erstellt werden.
Dabei sind unterschiedliche Herangehensweisen zu beobachten. Ein integrierter Ansatz wie das Projekt »Stunde Null« des neu gegründeten ArchHerNet setzt auf eine Schwerpunktbildung auf Arbeiten vor Ort und Capacity Building. D. h. die lokalen Bevölkerungen und der technische Kenntnisstand der gesellschaftlichen Initiativen und Strukturen, der Zustand der existenten Systeme und ihre generelle Situationen sind integraler Teil des Bildes und werden nicht, wie in manch anderen internationalen Initiativen, in postkolonialistischer Arroganz übergangen. In Kooperation mit anderen internationalen Projekten konnten in 2016 bei 4 Trainingsmaßnahmen am Unesco Field Office in Beirut erste Erfahrungen und Einblicke gewonnen werden, besonders hinsichtlich des entscheidenden Faktors: Adaption westlichen generellen »Fachwissens« auf die Spezifika der realen Krisenbedingungen. |
|
14:00 h | Amanda Gabriel
Netzwerkanalysen zur Untersuchung von spätantiken und frühmittelalterlichen Bestattungen
Konzepte der Netzwerktheorie und Anwendungen aus der Netzwerkanalyse erlauben es, sich von den in der Archäologie bisher oft angenommenen homogenen, kongruenten Entitäten zu lösen, und ermöglichen stattdessen die Modellierung komplexer Überlagerungen von kulturellen, sozialen und wirtschaftlichen Beziehungen. Diese Vorteile sind zentral für mein Dissertationsprojekt*, das zum Ziel hat, neue Interpretationsansätze für die regionalen Unterschiede von frühmittelalterlichen Bestattungen zu erarbeiten. Dabei werde ich in einer diachronen, empirischen Untersuchung die Unterschiede und Gemeinsamkeiten spätantiker und frühmittelalterlicher Bestattungen analysieren, da ich von der Hypothese ausgehe, dass auch lokale spätantike Traditionen die regionale Ausprägung frühmittelalterlicher Bestattungen beeinflussten. Untersucht werden neben der Beigabensitte auch bisher seltener beachtete Elemente wie Merkmale des Grabbaus und Behandlung des Leichnams. Diese werden dabei jeweils auf unterschiedlichen Klassifikationsniveaus aufgenommen, um die Netzwerkanalyse auf verschiedenen Ebenen durchzuführen zu können. Die bestatteten Individuen können so – je nach Klassifikationsniveau der Merkmale – unterschiedlichen Netzwerken angehören, die verschiedene zeitliche und räumliche Dimensionen aufweisen. Die empirische Untersuchung wird zeigen, welche Merkmalskombinationen von Grabbau, Objekten der Grabausstattung und soziokulturellen Praktiken jeweils in den Gräbern zusammen auftreten. Zudem wird sich zeigen, ob gewisse Merkmalskombinationen zeitliche oder räumliche Schwerpunkte aufweisen oder mit Alter oder Geschlecht der Bestatteten korrelieren.
*Dissertationsprojekt: „Was, wenn nicht Ethnien?“ Eine netzwerkanalytische Perspektive auf die Vielfalt spätantiker und frühmittelalterlicher Bestattungen zwischen Bodensee, Hochrhein und Genfersee. |
|
14:25 h | Sascha David Schmitz
Sichtliniennetzwerke im arkadisch-triphylischen Grenzgebiet
Von Megalopolis aus kommend bahnt sich der Alpheios seinen Weg durch das bergige arkadisch-triphylische Grenzgebiet hin zur Ebene der Pisatis, wo Olympia liegt. Er passiert auf seinem Weg einige kleine, aber bemerkenswerte Orte. Festungsartig ausgebaut erheben sie sich prominent auf Bergrücken, bis zu 600m oberhalb des Flusses und stehen miteinander in direktem Sichtkontakt.
Aus Feldforschungen des Niederländischen Instituts Athen (NIA) und der Universität Trier an denen der Autor in Theisoa, einem dieser Orte, 2012 und 2013 teilnahm, entstand die Idee, die Sichtverbindungen zwischen diesen Städten zu untersuchen. Zwei Fragen erweckten besonderes Interesse, nämlich ob diese der Übermittlung von Nachrichten gedient haben könnten und daran anschließend, ob dies vielleicht auch ein Grund für die Errichtung dieser stark befestigten, aber wohl eher kurzlebigen Städte an eigentlich siedlungsungünstigen Orten war. Die Verbindung zweier Techniken bot sich zur Untersuchung dieser Fragen an: eine Berechnung der Sichtfelder der Orte in dieser Region in einem GIS und eine Netzwerkanalyse der hierbei erkannten Sichtachsen. Grundsätzlich ist die optische Telegraphie mithilfe von Feuerzeichen für Klassik und Hellenismus durch antike Autoren belegt. Während zum Beispiel Thukydides und Polyain ihren Einsatz im Rahmen kriegerischer Auseinandersetzungen überliefern, setzt sich Polybios theoretisch mit verschiedenen Methoden zur Übermittlung einfacherer oder komplexerer Nachrichten auseinander. Um Randeffekte bei der späteren Netzwerkanalyse zu vermeiden, wurden insgesamt 94 Orte in der Umgebung Theisoas untersucht. Für jeden Ort wurde eine Reihe von Observierungspunkten der lokalen Topographie entsprechend ausgewählt, da das Sichtfeld eines einzelnen Observierungspunktes in der Regel nicht das gesamte von der Siedlung aus sichtbare Areal widerspiegelt. Dann wurden binäre Sichtfelder, die zur Bearbeitung der vorliegenden Fragestellung ausreichend sind, mit einem Radius von 20km in QGIS kumulativ berechnet. Die Grundlage hierfür stellte ein digitales Höhenmodell, beruhend auf SRTM GL1 Daten mit einer Auflösung von mindestens 30m dar. Auf dieses Weise konnten insgesamt 283 Sichtverbindungen ermittelt werden. Die Eigenschaften des resultierenden Netzwerkes wurden in Gephi analysiert. Dabei wurden die Verbindungen anhand der Entfernungen zwischen den Orten umgekehrt gewichtet. Die Untersuchung der Gradzentralität ließ erkennen, dass deren Verteilung einem Potenzgesetz folgt. Während die Gradzentralität in einem zufallsgenerierten Netzwerk in der Regel mehr oder weniger gleichmäßig um den Durchschnittswert verteilt ist, macht die hier vorliegende Verteilung es wahrscheinlich, dass das Netzwerk intentionell unter Berücksichtigung der Sichtverbindungen gebildet wurde. Durch die Analyse der Modularität ließen sich die Orte in verschiedene Gruppen aufteilen, die weitestgehend den naturräumlichen Gegebenheiten entsprechen. Auffallend sind die Gruppen des Tals von Megalopolis, der Ebene der Pisatis und der eingangs erwähnten Orte entlang des Alpheios, welche die beiden anderen verbinden, als eigene Gruppe. Die Wichtigkeit dieser Orte, als Verbindung zwischen den beiden dichtbesiedelten Regionen wird auch durch die Untersuchung der Zwischenzentralität deutlich. Diese Verbindung bleibt auch bestehen, wenn man die maximale Sichtweite auf 15 oder auch 10km limitiert, wobei die Zwischenzentralität der verbindenden Orte weiter ansteigt. Die Ergebnisse der Netzwerkanalyse machen es also wahrscheinlich, dass bei der Gründung Theisoas und der weiteren Orte am Alpheios Sichtverbindungen berücksichtigt wurden und die Orte als eine wie auch immer zu deutenden Verbindung zwischen Megalopolis und der Pisatis dienten. |
|
14:50 h | Georg Roth
Dicht gepackt – Neues zur Kerndichteschätzung am Beispiel der oberfränkischen Bandkeramik
Kernstück der erkundenden Verteilungsanalyse von Punkten, seien es Fundstellen auf der Karte oder Artefakte im Planum, ist die Herausstellung der lokalen Dichtezentren dieser Verteilungen. Dafür wird mittlerweile regelhaft die Methode der Kerndichteschätzung (KDS) verwendet. Hier gibt es aber im archäologischen Einsatz immer noch Unsicherheiten und Probleme im Hinblick auf Technik und Parameterwahl (Bandbreite). Welche Kernfunktion soll man wählen, wie die Bandbreite strukturieren und welchen Wert einsetzen?
Der Vortrag präsentiert eine aktualisierte archäologische Methodenevaluation der KDS am Beispiel der bandkeramischen Besiedlung Oberfrankens, einer Region mit einem erstaunlichen Besiedlungsmuster. Dabei werden nicht nur neue Lösungen zu den genannten Problemen vorgestellt, wie etwa eine lokal variierende Bandbreite oder ein auch im GIS umsetzbarer Bandbreitenschätzwert, sondern gleich zwei weitere Verbesserungen der Schätzmethode selbst. Die eine betrifft die für alle Arten von Schätzungen unverzichtbare Herausstellung der Schätzunsicherheit. Diese lässt sich nun ebenfalls als Rasterkarte berechnen und verbessert die Beurteilbarkeit von Dichtekarten. Die andere bezieht sich auf einen gerade in der archäologischen Praxis wichtigen Aspekt: die Korrektur von Grenzeffekten, also den Umgang mit Punkten an Grenzen des untersuchten Raumausschnittes. Eine neue KDS-Umsetzung löst dieses Problem durch ein Gewichtungsverfahren und erzeugt so verbesserte Dichtekarten. Als Ausblick wird ein Verfahren zur statistisch sicheren Identifizierung räumlicher Cluster auf Basis einer Dichteschätzung vorgestellt. Angewandt auf die oberfränkische Bandkeramik lasst sich mit diesen Verfahren der Nachweis eines signifikanten Siedlungsschwerpunktes auf der Hochfläche eines Mittelgebirges erbringen. Alle Berechnungen des Vortrags erfolgten mit dem Paket spatstat für die statistische Programmieroberfläche R. Interessierte können den zugehörigen R-Code vom Autor erhalten. |
|
15:15 h | Kaffeepause | |
15:45 h | Anja Wutte
Raumanalyse Spätzeitlicher Grabbauten in Theben West
Das hier vorzustellende Projekt beschäftigt sich mit der beschreibenden Analyse funerärer Beamtenarchitektur der dritten Zwischenzeit und beginnenden Spätzeit Ägyptens.
Es kommen interdisziplinäre Methoden aus der Ägyptologie, Architekturwissenschaft und Informatik zur Anwendung, um sowohl Tradition als auch Evolution der Geometrie und Architektur der spätzeitlichen funerären Felsbauten Thebens zu analysieren. Die hier analysierten Bauten datieren in die 25. und 26. Dynastie und wurden von Hohen Beamten in Theben West angelegt. Auf den ersten Blick scheinen die Anlagen einem strengen formalen Kanon zu folgen und wurden daher hinsichtlich ihrer Proportionen, Orientierung, Zugänglichkeit, Dekorationssystem und räumlichen Struktur untersucht und in Folge verglichen. Forschungsgeschichtlich basieren die bisherigen Untersuchungen auf der Studie und Interpretation von Grundrissplänen der spätzeitlichen Felsbauten. Dieses Projekt hingegen konzentriert sich auf die Anwendung von Methoden der quantitativen Raumanalyse, um einen neuen Zugang zur funerären Architektur zu schaffen. Hauptziel ist es, zu analysieren unter welchen Voraussetzungen Ähnlichkeiten und Variationen entstanden, indem ein System von Formen, Formregeln und Parametern definiert wird. Auf dieser Basis kann schließlich eine Typologie erstellt werden. Die Grundrisspläne wurden digitalisiert und in ein BIM (Building Information Modeling) Model konvertiert, um diese bezüglich ihrer architektonischen Eigenheiten (zum Beispiel Zugänglichkeit der Räume, Position der Dekorationen und natürliche Lichtverhältnisse) zu untersuchen. Zusätzlich wurden Daten hinzugefügt, die den sozialen Status des Bauinhabers, Lokalisation und Chronologie berücksichtigen. Mit Hilfe dieser zusätzlichen integrierten Informationen und den Analysedaten der Architektur konnten die Modelle miteinander verglichen werden. Fragen bezüglich den natürlichen Lichtverhältnissen in den Räumlichkeiten, den Positionen der unterschiedlichen Dekorationsthemen oder die Unterschiede zwischen öffentlich zugänglichen und unzugänglichen Teilen der Grabbauten konnten damit thematisiert werden. Für die einfachere Handhabung und den Vergleich der Daten wurde ein „Space Model Comparison Tool“ implementiert, um die Informationen und Analysedaten interaktiv darstellen zu können. |
|
16:10 h | Ö. Yazici, D. Hoffmeister, S. Krömker
Akkurate Lichtsimulation in 3D Modellen von Höhlen
Die Analyse von Höhlen und Höhlenkunst ermöglicht es, die von Menschen genutzten Höhlen in verschiedene Zonen zu strukturieren. Mittels physikalisch korrekter Lichtsimulationen kann zusätzlich die Abschätzung der vergangenen Seherfahrungen und damit verbundenen Lebensbedingungen erfolgen. Zur Dokumentation der Höhlen in 3D in hoher Auflösung und anschließenden Analyse werden verschiedene Fernerkundungsmethoden verwendet. In diesem Beitrag wird das mit terrestrischem Laserscanning erstellte virtuelle 3D Modell der Ardales-Höhle in Südspanien genutzt, um Lichtverteilungen innerhalb der Höhle zu simulieren. Das Modell stellt die relevanten Bereiche in einer Auflösung von ca. 20cm dar und dient zur Rekonstruktion früherer Sicht- und Beleuchtungsverhältnisse.
Diese Höhle zeigt Hunderte von prähistorischen Bildern und an mindestens drei verschiedenen Standorten auch Funde von Talglampen. Deren bekannte und gemessene Position wird genutzt um authentische Lichtverteilungssimulationen durchzuführen. Diese Simulationen basieren auf dem Ansatz des Photon Mappings und weiteren statistischen und bidirektionalen Raytracing-Verfahren. Damit wird die physikalisch korrekte globale Beleuchtung über die Spektralwerte der Lichtquellen und allen Effekten der Lichtausbreitung mit Modellen der physikalischen Optik effizient berechnet. Die Umsetzung erfolgt in PearRay, einem in C++ von uns realisierten und über GitHub verfügbaren Raytracing Programm, das über ein Python Plug-in mit der freien Modellierungssoftware Blender kommuniziert. Dieser Raytracer simuliert die von Talglichtern bekannten Spektralwerte, die dann wiederum mit weiteren Python-Scripts im Anschluss an das Rendering analysiert werden. RGB-Farbwerte sind von den jeweiligen Computereinstellungen und weiteren Faktoren abhängig. Um eine objektive Bewertung der Ergebnisse zu ermöglichen, werden die berechneten Spektralwerte daher in Falschfarben als Leuchtdichte [Candela/m2] bzw. Bestrahlungsstärke [Watt/m2] dargestellt. In der Analyse der Berechnungen können dann Bereiche des menschlichen Sehens voneinander getrennt dargestellt und somit Wandbereiche eingegrenzt werden, die bei der jeweiligen Beleuchtung gerade noch eine Farbwahrnehmung (photopisches Sehen) zulassen. Die Ergebnisse passen zu früheren Berechnungen in RGB-Werten, lassen aber jetzt über die physikalischen Größen auch Antworten auf Fragen der Wahrnehmung zu. Die Studie zeigt, dass wahrscheinlich zusätzliche Lampen notwendig waren, um die Verzierung der Höhlenwände auszuführen. Da hier ein Open-Source-Ansatz gewählt wurde sind weitere Implementierungen anderer Lichtquellen und entsprechende Parametrisierungen einfach möglich. |
|
16:35 h | Thomas P. Kersten, Felix Tschirschwitz, Simon Deggim
Das virtuelle Museum Alt-Segeberger Bürgerhaus in 4D im Virtual Reality System HTC Vive
Im Laufe der letzten beiden Jahrzehnte hat sich der Begriff „Virtuelles Museum“ durch die rasanten technologischen Entwicklungen verändert. Ein virtuelles Museum ist heute durch die verfügbaren 3D-Technologien bereits mehr als nur eine web-basierte Präsentation von Sammlungen im Internet oder ein virtueller Rundgang mittels Panoramafotographien. Einerseits soll ein virtuelles Museum dem Museumsbesucher dazu dienen, Informationen vom realen Besuch des Museums nachträglich aufarbeiten oder vertiefen zu können, aber andererseits auch im Rahmen der Museumspädagogik als Lehrmittel eingesetzt werden können.
Das Labor für Photogrammetrie & Laserscanning der HafenCity Universität Hamburg hat ein virtuelles Museum vom Alt-Segeberger Bürgerhaus entwickelt, in dem sich der Besucher sowohl in einer Version am Computerbildschirm interaktiv durch das Museum bewegen, Räume erkunden und Informationen erarbeiten kann, als auch mit dem Virtual Reality System HTC Vive in der virtuellen Museumsrealität in 3D eintauchen kann, ohne nach Bad Segeberg reisen zu müssen. Das Alt-Segeberger Bürgerhaus ist das älteste Gebäude der Stadt und des Landes Schleswig-Holstein und kann auf eine 475-jährige Baugeschichte zurückblicken, die im virtuellen Museum in Form von Animationen aufgezeigt und erklärt wird. Das seit April 2016 im Handel erhältliche Virtual Reality System HTC Vive bietet nun die Möglichkeit, die Vergangenheit des Gebäudes durch moderne Technologie in 3D zu erleben. Denn als Höhepunkt des Museumsrundganges wird die Baugeschichte des historischen Hauses durch die HTC Vive Brille direkt vor den Augen des Betrachters anhand eines Modells plastisch dargestellt. Unterschiedliche historisch belegte Bauphasen werden in 3D sichtbar und Veränderungen durch Übergangsanimationen illustriert. Als Grundlage dieses virtuellen Museums diente die detaillierte 3D-Aufnahme durch terrestrisches Laserscanning und digitaler Photogrammetrie sowie die anschließende 3D-CAD-Modellierung des Gebäudes von innen und außen. Mit Unterstützung eines Historikers konnten sechs Bauphasen des Gebäudes anhand historischer Quellen identifiziert und entsprechend im CAD modelliert werden. Die anschließende Umsetzung dieser 3D-Daten zu einem virtuellen Museum erfolgte dann in der Game Engine Unreal, die nicht nur einfache Visualisierungen, sondern auch verschiedene Animationen der Objekte erlaubt, um so die Geschichte des Gebäudes in 4D als Applikation zu präsentieren. |
|
17:00 h | Marco Block-Berlitz, Benjamin Gehmlich, Dennis Wittchen
Archaeonautic: Eckbert-II dokumentiert UNESCO-Weltkulturerbe in Österreich und Schiffswrack in Kroatien
Archaeocopter wurde 2012 als Kooperationsprojekt zwischen der HTW Dresden und der Freien Universität Berlin gestartet. Im Fokus stand dabei nicht, wie sonst üblich, das technisch maximal mögliche, sondern vielmehr die Frage, was minimal notwendig ist, um 3D-Rekonstruktionsmethoden für jedermann kostengünstig und sicher erschließbar zu machen. Mit einem kleinen Multicopter wie der DJI Phantom, die in Elektrofachmärkten erhältlich ist, und einer sogenannten „Actioncam“ wie der GoPro kann solch ein System für weniger als 1000 Euro zusammengestellt werden. Die Aufnahme von Videos anstatt einer geplanten Serie von Einzelfotos hat sich dabei als sehr vorteilhaft herausgestellt.
Videogrammetrieeinsatz unter Wasser Um die im Archaeocopter-Projekt entwickelten Lösungen auch für die Unterwasserarchäologie nutzbar zu machen, wurden verschiedene Mini-U-Boote auf Praxistauglichkeit und Erweiterbarkeit untersucht. Als Basis für das aktuelle U-Boot-Kamera-System der HTW mit der Bezeichnung „Eckbert-II“ kommt das kabelbasierte OpenROV zum Einsatz. Der kostengünstige Bausatz bietet Open-Source-Lösungen für die Steuerung und Verarbeitung der vorhandenen Sensordaten an. Eine Betriebsdauer von fast drei Stunden und ein schneller Akkuwechsel ermöglichen eine kontinuierliche Dokumentationsarbeit. Die maximale Tauchtiefe von 100 Metern wird nur durch die eingesetzten Actioncams begrenzt. Regelmäßig übt das Archaeonautic-Team seit Januar 2016 in verschiedenen Tauchbasen in Kamenz/Sachsen. Hier werden nicht nur Abläufe trainiert, optimiert und geplante Einsätze vorbereitet, sondern auch die Technik überprüft und ständigen Grenzsituationen ausgesetzt. Im Februar 2016 kam das Mini-U-Boot zu seinem ersten Einsatz. In Zusammenarbeit mit Dr. Svea Mahlstedt vom Niedersächsischen Institut für historische Küstenforschung sollten Fundstücke im Flachwasserbereich des Zwischenahner Meeres erkundet werden. Die schlechten Sichtverhältnisse, von weniger als 20 Zentimetern, und eine starke Rotfärbung des Wassers waren die Ursache für die Entwicklung einer automatischen Bildverbesserungsmethode für Unterwasseraufnahmen. Dokumentation eines Schiffswracks in Kroatien Anfang April 2016 wurden bei der Freilegung eines Schiffswracks aus dem 16. Jahrhundert in Veruda/Kroatien zeitlich verschiedene Grabungssituationen dokumentiert. Sowohl Grabung als auch Dokumentation wurden durch das Team des Deutschen Archäologischen Instituts (DAI) um Roman Scholz und das Team des International Center of Underwater Archaeology (ICUA) um Luka Bekic durchgeführt. Das Archaeonautic-Team der HTW Dresden begleitete die Kampagne. Die Fundstelle des Schiffswracks lag etwa 25 Meter vom Ufer der Insel Fratarski otok entfernt, nahe der Stadt Pula. Die Sichtverhältnisse unter Wasser waren sehr gut. Wechselnde und teilweise starke Strömungen erforderten eine flexible Handhabung und teilweise menschliche Unterstützung. Dokumentation eines UNESCO-Weltkulturerbes in Österreich Und dann kam die Einladung des Kuratoriums Pfahlbauten im Mondsee/Österreich. Ende April 2016 durfte Mini-U-Boot Eckbert-II die prähistorischen Pfahlbauten im Flachwasserbereich dokumentieren – ein UNSECO Welterbe im Salzkammergut. Diese Arbeiten haben die Archäologen Cyril Dworsky und Carmen Löw fachlich begleitet. Der Fundbereich umfasste rund vier Hektar und lag damit teilweise über 100 Meter vom Uferbereich entfernt. Um dennoch ausschließlich vom Ufer operieren zu können wurde bei hervorragender Sicht unter Wasser der Fokus auf einen Bereich von schätzungsweise 60×80 Metern gesetzt. |
|
17:25 h | Ende des Vortragsprogramms | |
17:30 h | Postervorstellung im Plenum | |
17:45 h | Postersession | |
18:15-19:30 h | Mitgliederversammlung AG CAA | |
ca. 20:00 h | Möglichkeit zum gemeinsamen Abendessen (Selbstzahler) |
Samstag, 11.2.2017
ab 8:30 h | Registrierung geöffnet | |
9:15 h | Florian Thiery, Allard Mees
Das Labeling System: Erstellung kontrollierter Linked Open Data Vokabulare als Metadaten-Hub für archäologische Fachdatenbanken
In vielen archäologischen Forschungsinstituten existiert üblicherweise eine zentrale Objektdatenbank (Diathek, Objektdatenbank, zentrale Fundverwaltung) und darüber hinaus ein Bündel an einzelnen Fachdatenbanken. Diese Fachdatenbanken entstanden in der Regel im Laufe von einzelnen (oft auch aus Drittmittel finanzierten) Projekten. Charakterisiert werden sie oft durch Spezialtabellen bzw. Fachspalten, die für die jeweilige Forschungscommunity und Forschungsfrage relevant sind. Für zentrale Repositorien sind diese fachbezogenen Attribute in der Regel nicht besonders relevant, da sie sich auf nur eine ganz kleine Untergruppe von Daten bezieht. Die fachspezifischen Attribute müssen außerhalb der zentralen Repositorien von der spezifischen Forschungsgruppe gepflegt werden, da archäologische Fachtermini oft sehr detailliert sind und von globalen autoritativen Thesauri wie Heritage Data[1] oder Getty[2] nicht exakt erfasst werden können. Oft wissen diese verteilten Systeme auch nichts über den Inhalt eines Anderen. Dabei könnten sich nachhaltige Synergieeffekte ergeben, indem man z.B. die Grunddaten miteinander verknüpft. Linked Open Data ermöglicht es diese Datenbanken zu verknüpfen. Voraussetzung hierzu ist eine eindeutige Referenz innerhalb der Datenbank auf eine persistente externe Quelle, worauf andere Datenbanken verweisen können. Im Semantic Web wird dies durch das W3C-standardisierte Resource Description Framework (RDF) und im Web adressierbare Unique Ressource Identifier (URI) umgesetzt. Die Referenzierung kann räumlich, zeitlich oder auch über Schlagworte erfolgen. Als Beispiele solcher Referenzen können GeoNames[3], Pleiades[4] oder ChronOntology[5] gelten.
Das vom Institut für Raumbezogene Informations- und Messtechnik (i3mainz) und Römisch Germanischen Zentralmuseum (RGZM) in Kooperation mit dem Mainzer Zentrum für Digitalität in den Geistes- und Kulturwissenschaften (mainzed) implementierte Labeling System[6] ermöglicht es webbasiert über ein benutzerfreundliches GUI eigene kontrollierte Vokabulare zu erzeugen, deren Begriffe über eine Suche mit Referenzkonzepten im Web zu verlinken und Begriffe als URI zu publizieren. Für die Anfangs skizierte, in vielen Institutionen vorhandene problematische IT-Situation der nicht vernetzten lokalen Datenbanken bietet die neue Architektur des RGZM einen Lösungsansatz, welcher zurzeit implementiert wird. Die digitale Verknüpfung der verteilten Fachdatenbanken (z.B. NAVIS[7] und Samian Research[8]) mit der Museums-Objektdatenbank (easyDB), mit Hilfe von kontrollierten Vokabularen, wird einen neuen Zugang zu den vorhandenen digitalen Daten ermöglichen, welcher zuvor nicht erreichbar war. Mit dem Labeling System können dabei in jahrelanger europäischer Abstimmung erstellte mehrsprachige fachspezifische kontrollierte Vokabulare (z.B. Schiffsvokabulare aus den RGZM-eigenen NAVIS-Datenbanken) standardisiert als Simple Knowledge Organization System (SKOS) der Forschungscommunity zur Verfügung gestellt werden. Dabei können die Begriffe zu autoritativen Thesauri verlinkt werden, sodass sie in der Linked Data Cloud verortet sind und deren Bedeutung näher spezifiziert wird. Der Vortrag präsentiert die Grundprinzipien des Erstellungsprozesses eines kontrollierten Vokabulars mit dem Labeling System. Was ist ein kontrolliertes Vokabular? Was ist ein Begriff? Wie kann ein Begriff näher beschrieben werden? Wie stehen publizierte kontrollierte Vokabulare und deren Begriffe externen Nutzern zur Verfügung? Welche Möglichkeiten bietet die Labeling System API zur Einbindung in die eigenen Fachdatenbanken? Am Beispiel verschieden definierter Formtypen römischer Keramik wird erläutert, inwiefern ein Mapping dieser Begriffe im Labeling System erstellt und in einem zweiten Schritt in einer Fachdatenbank eingebunden werden kann. Abschließend wird diskutiert inwiefern Begriffe des Labeling System in eine Systemarchitektur, wie die des RGZM eingebunden werden können und welche Möglichkeiten dadurch generiert werden. [1] http://www.heritagedata.org/blog/vocabularies-provided [2] http://www.getty.edu/research/tools/vocabularies/index.html [3] http://www.geonames.org [4] http://pleiades.stoa.org [5] http://chronontology.dainst.org [6] http://i3mainz.hs-mainz.de/de/projekte/labelingsystem [7] http://www2.rgzm.de/navis/home/frames.htm [8] http://www.rgzm.de/samian/home/frames.htm |
|
9:40 h | M. Mennenga, M. Segschneider, H. Jöns
Der Splashcos-Viewer als europaweites Open-Data GIS-Projekt
In den vergangenen sieben Jahren hat das SPLASHCOS-Netzwerk seinen Fokus auf die Erforschung der prähistorischen Unterwasserlandschaften des europäischen Schelfmeeres gelegt. Durch das zwischen 2009 und 2013 EU-geförderte Netzwerk aus Wissenschaftlern die sich diesem Thema mit archäologischen, geophysikalischen, geologischen, ozeanographischen und biologischen Methoden angenommen haben, hat sich der Wissensstand über das prähistorische Leben in den heutigen Unterwasserbereichen enorm erweitert.
Als eine der Grundlagen für diese Forschungen haben Wissenschaftler aus 25 Ländern Daten von über 2500 neolithischen Fundstellen gesammelt und zusammengefügt. Das Ergebnis dieser Untersuchungen ist nun für die Öffentlichkeit frei zugänglich. Dabei wurden die grundlegenden Daten der Fundstellen aufgenommen; neben der Quelle aus der Literatur auch die Datierung, Fundstellentyp u. ä.. Als Open-Data Projekt ist es nun möglich die Daten online anzusehen (www.splashcos-viewer.eu), per WMS ins eigene GIS einzuladen oder die Rohdaten anzufragen. Zusätzlichen wurden die Daten mit dem European Marine Observation and Data Network (EMODnet) verbunden, sodass es möglich ist die Fundstellen mit weiteren Arealen, z.B. der Fischerei oder der Verkappung von Baggergut, zu vergleichen, was eine Unterstützung beim Schutz dieses kulturellen Erbes darstellen kann. Mit dem Web-Viewer können interessierte Laien die Daten ansehen; durch den WMS und die Bereitstellung der Rohdaten stehen sie aber vor allem der wissenschaftlichen Auswertung zur Verfügung. Mit dem Splashcos-Viewer wird ein Beispiel aufgezeigt, wie es mit den aktuellen technischen Rahmenbedingungen möglich ist wissenschaftliche Daten der Öffentlichkeit einfach zugänglich zur Verfügung zu stellen. |
|
10:05 h | Clemens Schmid, Dirk Seidensticker
neolithicRC: Eine Suchmaschine für Radiokohlenstoffdatierungen
Der Aufschwung der Open-Data-Bewegung in den vergangenen Jahren führte zu einer Vielzahl von individuellen Daten-Publikationen und öffentlichen Datenbanken mit wissenschaftlichen Rohdaten. Diese bieten für sich betrachtet ein wichtiges Archiv für zukünftige Forschungsfragen. Der Mehrwert allerdings, der sich durch die Verschneidung solcher Datensätze in Hinblick auf Durchsuchbarkeit, Fehlerkontrolle sowie weiterführende Analysen ergeben kann, wird bislang nur zu selten genutzt.
neolithicRC hat sich zum Ziel gesetzt, verschiedene unter Open-Data-Richtlinien veröffentlichte Datenbanken mit Radiokohlenstoffdatierungen zusammenzuführen und diese in einer Suchmaske sowie einem WebGIS zugänglich zu machen. Die Daten sind dadurch in ihrem inhaltlichen Kontext durchsuchbar und können zudem auf einer Karte sowie in Diagrammen visuell erfasst werden. Radiokohlenstoffdatierung ist insbesondere innerhalb der Prähistorischen Archäologie eine der wesentlichen Methoden zur absolut- und relativchronologischen Rekonstruktion von Kulturgeschichte. Sie liegt vielfältigen quantitativen Modellen zugrunde, sei es nun um die ‘Neolithisierung’ Europas oder die ‘Bantu-Expansion’ im subsaharischen Afrika zu beschreiben. Die Auswahl der einzelnen Daten für ein solches Modell ist komplex und erfordert ein genaues Verständnis der archäologischen Fragestellung. Kritik an den genannten Modellen setzt daher meist beim Datensatz an. Um jedoch eine Diskussion über ihn führen zu können, muss der Datensatz allgemein zugänglich, gut kontextualisiert und weitreichend standardisiert sein. Andernfalls kann keine systematische Evaluation stattfinden. Es kann dabei nicht genügen, nur jene Datenauswahl zu betrachten, die letzten Endes in einem Modell verarbeitet wurde, sondern nachvollziehbar auch jene, die nicht integriert wurden. Eine unabhängige, ungefilterte und unkomplizierte Schnittstelle kann in beschriebenem Forschungsprozess von der Modellbildung über die Publikation bis zum fachwissenschaftlichen Diskurs nutzbringend eingebunden werden. Sie erlaubt es, alternative und neue Modelle zu entwickeln. Gegenwärtig speist sich der Datenbestand in neolithicRC aus vier Datenbanken (CALPAL, RADON, EUROEVOL und aDRAC) mit zusammen ca. 35.000 individuellen Einträgen, die neben Europa und dem Vorderen Orient auch das subsaharische Afrika abdecken. Eine Entfernung von Dubletten nimmt neolithicRC bewusst nicht vor, um eine Beurteilung des Potentials der einzelnen Quelldatenbanken für bestimmte Fragestellungen nicht einzuschränken. neolithicRC ist größtenteils in der Statistikprogrammiersprache R umgesetzt. Die WebGIS Applikation basiert auf dem Shiny framework. Das Projekt ist modular aufgebaut — individuelle Anpassungen für zu integrierende Datensätze können relativ einfach umgesetzt und Datenmanipulationswerkzeuge beliebig in die Vorbereitungspipeline eingehängt werden. Da die gesamte Entwicklung über git/github erfolgt (github.com/nevrome/neolithicR), besteht neben Dokumentation und Transparenz auch für Dritte die unmittelbare Möglichkeit mitzuwirken oder eigene Projektideen abzuleiten. Die Anwendung wird auf den Servern des eScience-Center der Eberhard Karls Universität Tübingen bereitgestellt: www.neolithicrc.de |
|
10:30 h | Kaffeepause | |
11:00 | Martina Trognitz
Maschinelles Lernen mit ägäischen Siegeln. Können mehrseitige Siegel anhand ihrer Motive gruppiert werden?
In meiner Arbeit beschäftige ich mich mit den mehrseitigen minoischen und mykenischen Siegeln aus dem „Corpus der minoischen und mykenischen Siegel“ (CMS). Es handelt sich um meist steinerne Siegel, die mehr als eine Fläche zum Siegeln besitzen. Die zentrale Frage hierbei ist, ob es Muster oder Regeln für die Zusammensetzung der verschiedenen Motive auf den Siegeln gibt. Ein Beispiel für ein Muster könnte etwa die Kombination aus der Darstellung eines Menschen, eines Tieres und eines Gefäßes auf einem dreiseitigen Siegel sein.
Die gut Eintausend bekannten mehrseitigen Siegel sind alle in der Objektdatenbank Arachne der Universität Köln und des Deutschen Archäologischen Institutes eingetragen. Dies ermöglicht die Verwendung von Methoden des unüberwachten Maschinellen Lernens, in diesem Fall Clusteranalyse. Mittels Parametern wie Material, Herkunft, Anzahl der Siegelflächen oder dargestellten Motiven, kann eine Clusteranalyse Siegelgruppen identifizieren, welche aus archäologischer Sicht analysiert und ausgewertet werden können. Dabei können weitere Fragen bearbeitet werden: Gibt es nur in bestimmten Siegelgruppen Muster? Gibt es überhaupt Muster? Erlauben gefundene Muster Rückschlüsse auf die Funktion der Siegel? Tragen die Muster eine Bedeutung? Sind bestimmte Muster oder Motive auf bestimmte Regionen beschränkt? Im Vortrag wird die Datengrundlage und deren Vorbereitung präsentiert. Erste Ergebnisse, die mittels des k-Means-Algorithmus erzielt wurden, werden vorgestellt und die daraus folgenden Implikationen für das weitere Vorgehen diskutiert. |
|
11:25 h | Marc Grellert, Mieke Pfarr-Harfst
Die Rekonstruktion – Argument – Methode: Vorschlag für einen minimalen Dokumentationsstandard im Kontext digitaler Rekonstruktionen
Seit rund 25 Jahren entstehen virtuelle Rekonstruktionen. In den seltensten Fällen ist eine Dokumentation des Rekonstruktionsprozess erfolgt – aus wissenschaftlicher Sicht ein Defizit. Zum einen ist das der relativ jungen Disziplin und einer fehlenden Verständigung über Standards und Methoden geschuldet zum anderen werden in vielen Fällen für die Durchführung von Projekten von Seiten der Auftraggeber keine gesonderten Gelder für Dokumentationen bereitgestellt und diese auch nicht benötigt bzw. gefordert.
Inzwischen ist die Problematik fehlender Dokumentationen und Standards vielen Akteuren bewusst. Neben der guten wissenschaftlichen Praxis ist auch die Gewährleistung der Anknüpfbarkeit als zu verwirklichendes Ziel zu nennen. Bisherige Vorschläge orientieren sich aber eher an umfangreichen Maximallösungen, oft gekoppelt an komplexen Datenbankapplikationen, eventuell mit Annotationsmöglichkeiten an den 3D-Modelle, die in der Praxis bei den meisten Projekte eine große Herausforderung in Bezug auf die Usability und den zur Verfügung stehend Ressourcen stellen dürften. Sinnvoll erschien es deshalb, einen Minimalstandard zu entwickeln, der in der Praxis vom Aufwand her bewältigbar ist. Der vorgestellt Ansatz zielt darauf ab, Bilder der Rekonstruktion den Quellen gegenüber zustellen und mit einem textlichen Argument zu verknüpfen, dass erläutert, auf welcher Basis und unter in Hinzunahme welcher Quellen, Analogien, Texte etc. rekonstruiert worden ist. Kern ist also der Dreiklang „Rekonstruktion – Argument – Quelle“. Zusätzlich existiert die Möglichkeit, für die einzelnen Bereiche auch Variationen abzubilden, die gleichzeitig in eine Bewertung in „gesichert“, „wahrscheinlich“, „möglich“ und „spekulativ“ eingeordnet sind. Eine solche Dokumentationsmethode bietet den Vorteil, dass sie prinzipiell für jede Form der Architektur Rekonstruktion anwendbar wäre und damit auch auf haptische Modele, Rekonstruktionszeichnungen oder bauliche Rekonstruktionen angewendet werden kann. Um die Eingabe zu vereinfachen wird eine Datenbank verwendet. Ein- und Ausgabe soll über das Internet erfolgen, das gleichzeitig als Publikations- und Diskussionsort fungieren kann. Die Methode könnte aber auch theoretisch komplett analog angewendet werden. |
|
11:50 h | Thomas Graichen
Best practice und harte Realität – die digitale Strategie des ‘Heliopolis-Project’
Das i3mainz, Institut für Raumbezogene Informations- und Messtechnik an der Hochschule Mainz, kooperiert im Rahmen einer DFG-Förderung mit dem Antikenministerium der Arab. Republ. Ägypten und der Universität Leipzig, Ägyptisches Museum – Georg Steindorff, in dem „Heliopolis-Project“ (http://gepris.dfg.de/gepris/projekt/223572664), in dessen Mittelpunkt der Tempelbezirk des Sonnengottes in Heliopolis im Stadtgebiet des modernen Kairo (Ägypten) steht.
Seit Anfang 2016 ist das i3mainz im Rahmen der dreijährigen Förderung unter anderem für die Erarbeitung und Umsetzung des Forschungsdatenmanagements zuständig. Im weiteren Projektverlauf werden sie die Grundlage für GIS-gestützte 3D-Visualisierungen der topographischen und architektonischen Entwicklung des Heiligtums und seiner Umgebung bilden. Im Fokus der ersten Projektphase stehen neben der Formulierung einer an Standards und Richtlinien (IANUS, ADS) orientierten Data-Policy auch die Festlegung daran angepasster, modularisierter Dokumentations- und Archivierungsprozesse. Auf Grundlage der Analyse der Grabungsabläufe im Frühjahr 2016 entwickelte das i3mainz in gemeinsamen Workshops mit den Projektpartnern aus Leipzig auf das Projekt zugeschnittene Metadaten-Modelle, Werkzeuge und Verfahren. Diese Vorgaben mündeten in entsprechenden Handreichungen, welche während der anschließenden Herbstkampagne ohne on site-Unterstützung durch das i3mainz Anwendung fanden. Eine kurze Vorstellung der besonderen Grabungsbedingungen im Zentrum der Metropole eines Schwellenlandes soll zunächst die konkrete Grundlage der Bemühungen verdeutlichen. Die daran anschließende Darstellung der im Rahmen der Projektphase etablierten Dokumentations- und Archivierungsprozesse bietet Gelegenheit, die Datenmodelle und Werkzeuge zu erläutern und zur Diskussion zu stellen. Am Beispiel der Prozesskette für die 3D-Befunddokumentation zeigt der Vortrag die Strategie für geeignete Bereitstellungsformate für die Handreichungen auf. Abschließend können erste Ergebnisse zu geschätztem und tatsächlichem Aufwand einzelner Dokumentationsschritte präsentiert, sowie belastbare Aussagen zu Einschränkung oder Unterstützung der Grabungsarbeiten durch die standardkonforme Digitalisierung getroffen werden. |
|
12:15 h | Mona Hess
Dimensionales Monitoring von historischen Objekten und Funden
Optische dreidimensional Vermessungsmethoden bieten die Möglichkeit Museumsobjekte und Funde nicht nur digital zu dokumentieren, sonder auch diese zu überwachen. Klimatische Bedingungen wie Temperatur und Feuchte am Aufbewahrungsort können Folgen haben auf den Zustand von archäologischen Funden oder historischen Objekten. Der Vergleich von aktuellen (Ist Daten) und nominellen (Soll Daten) digitalen 3D Datensätzen kann Aufschluss darüber geben, ob ein Objekt sich stabilisiert hat oder weiter verformt, zum Beispiel nach Veränderung des Klimas (Temperatur und Feuchte) oder nach Wechsel des Aufbewahrungs- oder Ausstellungsortes. Dies kann Schäden am Objekt vorbeugen und Konservierungsmassnahmen informieren. Methoden der quantitative Analyse von Sensorgüte durch ein Testobjekt, und danach von erhobenen Daten am Objekt, werden visuell und metrisch beschrieben. Ein Fallbeispiel wird ein byzantinisches Elfenbeinpanel sein, eines der TopTen Objekte am Britischen Museum, London.
|
|
12:40 h | Abstimmung “Bestes Poster” und “Bester Vortrag” mit anschließender Verleihung des Preises | |
13:00 h | Verabschiedung / Pause | |
14-17:00 h | Tutorials | Anmeldung erforderlich |
14-17:00 h | Symposium
“Standards und Methoden in digitaler Archäologie”
Die Archäologie befindet sich mitten in einem neuen Wandel, von den traditionellen Methoden hin zur “Digitalisierung”: die zunehmende Nutzung von computer-gestützten Methoden zur Datenaufnahme, -auswertung, Veröffentlichung etc. Doch diese Nutzung scheitert zumeist bereits an Kleinigkeiten: die Datenformate stimmen nicht überein, die Ergebnisse sind intuitiv falsch, keine anwendbaren Methoden existieren und so weiter. Dies liegt nicht nur daran, dass das Feld noch relativ neu ist und noch wenige Standard-Methoden entwickelt wurden, sondern vor allem daran, dass die Archäologie domänenübergreifend ist wie kein anderes Feld und dabei Probleme und Anforderungen stellt, die durch derzeitige Methoden aus anderen Feldern nicht abgedeckt werden – so basieren z.B. die meisten Analysen auf präzisen und vollständigen Daten und nicht auf den typischen ungenauen und partiellen Daten der Archäologie.Die Special Interest Group “Standards und Methoden in der digitalen Archäologie” kümmert sich speziell darum, die Anforderungen und typischen Anwendungen der Archäologie aus Informatik-Perspektive zu untersuchen und neue Methoden und Standards zu entwickeln, die nicht allein die theoretischen sondern auch die praktischen Bedingungen erfüllen, wie eben dass Daten generell sehr heterogen erfasst werden.
In diesem Symposium soll die Herangehensweise diskutiert und erste Anforderungen erfasst werden – alle Beiträge werden dabei zusammengetragen und in künftigen Auswertungen berücksichtigt werden. Das Ziel ist es sicherzustellen, dass die Arbeitsgruppe wirklich für die Archäologie relevante Aspekte erfasst und bestehende Methoden auch zugänglich(er) und nutzbar(er) gemacht werden. |
Poster
Negar Abdali, Paul A. Yule : Erfassung von Funden aus al-Ṣafā, Sultanat Oman, durch 3D-Scanner
Die Dokumentation und Virtualisierung von Artefakten zum Erhalt des Kulturerbes gewinnt aufgrund der derzeitigen politischen Lage im Nahen Osten, insbesondere in Iraq, Syrien und Yemen, zunehmend an Bedeutung. Die Erfassung von Artefakten zur Identifikation, Interpretation und Bewahrung ist daher unabdingbar.
Im April 2015 wurde durch die finanzielle Förderung des Exzellenzinitiative Maßnahme 5.4 Feldforschung im Oman betrieben, um früh- und späteisenzeitliche Funde zu bewerten und klassifizieren. Mit finanzieller Unterstützung des Ministeriums für das nationale Erbe und die Kultur wurden Untersuchungen an der Fundstätte al-Ṣafā, welche in der Provinz al-Dhahirah gelegen ist, von uns durchgefürt.
Die Methode, neben Artefakten eine gesamte Augrabungsstätte in 3D zu erfassen, ist neu im Oman. Der Vorteil dieser Methode ist, dass sie nicht invasiv ist und die Fundstätte daher bewahrt, weiterhin ist es ein hervorragender Weg Studenten aus dem Oman an praktische Arbeit im Feld heranzuführen.
Die Aufnahmesaison 2015 ermöglichte es uns weiterhin, die Funde, welche von der Kultusministerium ausgegraben wurden, ebenfalls aufzunehmen. Diese wurden mit Hilfe des 3D-Scanners im Nationalmuseum weiterhin katalogisiert.
Wir haben diese Aufnahmeverfahren mit konventionellen 2D-Methoden verglichen. Wir haben insgesamt 12 Objekte komplett gescannt, unter anderem Schalen aus Metall, Keramik und Stein. Der 3D-Scanner kann sehr schnell große Datenmengen erfassen, daher erhöht er die Effizenz und die Qualität der Forschung. Die Aufnahmen sind bei seichtem Relief klar überlegen und zeigen mehr Details.
Im April 2015 wurde durch die finanzielle Förderung des Exzellenzinitiative Maßnahme 5.4 Feldforschung im Oman betrieben, um früh- und späteisenzeitliche Funde zu bewerten und klassifizieren. Mit finanzieller Unterstützung des Ministeriums für das nationale Erbe und die Kultur wurden Untersuchungen an der Fundstätte al-Ṣafā, welche in der Provinz al-Dhahirah gelegen ist, von uns durchgefürt.
Die Methode, neben Artefakten eine gesamte Augrabungsstätte in 3D zu erfassen, ist neu im Oman. Der Vorteil dieser Methode ist, dass sie nicht invasiv ist und die Fundstätte daher bewahrt, weiterhin ist es ein hervorragender Weg Studenten aus dem Oman an praktische Arbeit im Feld heranzuführen.
Die Aufnahmesaison 2015 ermöglichte es uns weiterhin, die Funde, welche von der Kultusministerium ausgegraben wurden, ebenfalls aufzunehmen. Diese wurden mit Hilfe des 3D-Scanners im Nationalmuseum weiterhin katalogisiert.
Wir haben diese Aufnahmeverfahren mit konventionellen 2D-Methoden verglichen. Wir haben insgesamt 12 Objekte komplett gescannt, unter anderem Schalen aus Metall, Keramik und Stein. Der 3D-Scanner kann sehr schnell große Datenmengen erfassen, daher erhöht er die Effizenz und die Qualität der Forschung. Die Aufnahmen sind bei seichtem Relief klar überlegen und zeigen mehr Details.
Sabrina N. Autenrieth: Das Ganze ist mehr als die Summe seiner Teile – Frühbronzezeitliche Deponierungen im mittleren Rheingebiet
Während der Bronzezeit wurden verschiedene Objekte, sei es Keramik, Steingeräte oder auch wertvolle Gegenstände aus Bronze und Gold an verschiedenen Orten wie Mooren, auf Feldern oder auch in Flüssen, wie dem Rhein, ganz bewusst niedergelegt. Die größte Dichte an Deponierungen findet man von der Atlantikküste bis zum Schwarzen Meer und von Südschweden bis zum Mittelmeer. Es kann davon ausgegangen werden, dass es sich bei dieser Deponierungspraxis um eine gemeinsame Tradition gehandelt hat, welche durch spezifische Regeln gesteuert wurde, die bestimmte, welche Objekte und welche Orte für eine Deponierung geeignet waren. Abhängig von Zeit und Raum scheinen wir in der Lage zu sein, wiederkehrende Muster von bevorzugten Formen und Kombinationen zu unterscheiden. In der frühen Bronzezeit Skandinaviens beispielsweise wurden prächtige Gegenstände wie Schwerter hauptsächlich einzeln in Mooren deponiert, während im westlichen Teil Mitteleuropas verschiedene Gegenstände gruppiert in Flüssen wie dem Rhein versenkt wurden. Das mittlere Rheingebiet ist eines der bekanntesten Beispiele von Deponierungen frühbronzezeitlicher Objekte in Flüssen. In dieser Region (Südwestdeutschland, Südostfrankreich, Luxemburg und Südostbelgien) ist zudem die Gelegenheit gegeben, einen Vergleich von deponierten Funden aus feuchtem und aus trockenem Kontext ziehen. Ein Vergleich, der in der bisherigen Forschung in dieser Region noch nie angestrebt worden ist und mithilfe einer Netzwerkanalyse visualisiert werden soll.
Paul Bayer, Hubert Mara, Elisabeth Trinkl: Low-cost-3D-Messtechnik zur virtuellen Reassemblierung von Keramik und Terrakotten
Die Anwendungen zur dreidimensionalen Objekterfassung und -verarbeitung werden durch laufende Entwicklungen immer präziser, schneller und kostengünstiger. Dadurch wird auch eine breite Anwendung von 3D-Messtechnik in der archäologischen Fundaufarbeitung attraktiv. Sie bietet eine vollständigere und objektive Dokumentation der Stücke als herkömmliche Methoden und es eröffnen sich auch weitere Anwendungsbereiche wie das materialschonende virtuelle Zusammensetzen fragmentierter Stücke. Die flexible Verfügbarkeit der Daten macht auch virtuelles Vergleichen oder Zusammenführen von z. B. durch Fundteilungen getrennten Stücken sowie die Bearbeitung physisch nicht (mehr) greifbarer Objekte möglich.
Ein hervorzuhebender Aspekt ist die Sichtbarmachung von Details, die bei der Autopsie ofmals verborgen bleiben. Durch die Entfernung der Textur in Kombination mit virtueller Beleuchtung sind oftmals Oberflächendetails besser ersichtlich. Auf Krümmungswerten basierende Falschfarbendarstellungen können relevante Oberflächenmerkmale hervorheben. Die lokale Krümmung einer Oberfläche wird mit Hilfe eines integralinvarianten Filters berechnet. Somit wird ein Informationsgewinn hinsichtlich der Fertigungstechnik, schlecht erhaltener haptischer Verzierungen oder Inschriften ermöglicht. Von den Modellen können beliebig Profilschnitte als SVG (Scalable Vector Graphic) sowie Orthoansichten erzeugt werden.
Die konkrete Anwendung umfasst die Fundgattungen Keramik, Terrakotta und Münzen. Bei letzteren ist mit Hilfe der verwendeten Technik oftmals auch bei schlecht erhaltenen Stücken eine Bestimmung möglich. Die Arbeitsschritte mit dem DAVID Streifenlichtscanner, dem GigaMesh Software Framework und die damit erzielten Ergebnisse, entstanden im Rahmen einer Masterarbeit, werden exemplarisch am Poster präsentiert. Das Potenzial der low-cost-3D-Messtechnik in der archäologischen Fundbearbeitung wird aufgezeigt. Die in diesem Beitrag gezeigten Funde stammen aus der Grabung in Archaia Pheneos/Griechenland 2011–2015, durchgeführt als Kooperation des ÖAI Athen, vertreten durch das Zentrum Antike und das Institut für Archäologie der Universität Graz, mit der EFA Korinthias.
Ein hervorzuhebender Aspekt ist die Sichtbarmachung von Details, die bei der Autopsie ofmals verborgen bleiben. Durch die Entfernung der Textur in Kombination mit virtueller Beleuchtung sind oftmals Oberflächendetails besser ersichtlich. Auf Krümmungswerten basierende Falschfarbendarstellungen können relevante Oberflächenmerkmale hervorheben. Die lokale Krümmung einer Oberfläche wird mit Hilfe eines integralinvarianten Filters berechnet. Somit wird ein Informationsgewinn hinsichtlich der Fertigungstechnik, schlecht erhaltener haptischer Verzierungen oder Inschriften ermöglicht. Von den Modellen können beliebig Profilschnitte als SVG (Scalable Vector Graphic) sowie Orthoansichten erzeugt werden.
Die konkrete Anwendung umfasst die Fundgattungen Keramik, Terrakotta und Münzen. Bei letzteren ist mit Hilfe der verwendeten Technik oftmals auch bei schlecht erhaltenen Stücken eine Bestimmung möglich. Die Arbeitsschritte mit dem DAVID Streifenlichtscanner, dem GigaMesh Software Framework und die damit erzielten Ergebnisse, entstanden im Rahmen einer Masterarbeit, werden exemplarisch am Poster präsentiert. Das Potenzial der low-cost-3D-Messtechnik in der archäologischen Fundbearbeitung wird aufgezeigt. Die in diesem Beitrag gezeigten Funde stammen aus der Grabung in Archaia Pheneos/Griechenland 2011–2015, durchgeführt als Kooperation des ÖAI Athen, vertreten durch das Zentrum Antike und das Institut für Archäologie der Universität Graz, mit der EFA Korinthias.
Bartosz Bogacz, Maximilian Klingmann, Judith Massa, Hubert Mara: Word-Spotting zum Auffinden von Graphischen Elementen in Linienzeichnungen
Als Word Spotting bezeichnet man das Auffinden von Worten in Textsammlungen üblicherweise anhand eines Beispiels im Text oder seltener anhand eines Suchbegriffes. Für lateinischen Text gibt es sehr gute Methoden, die mit 96% Genauigkeit Worte in den Briefen von Goerge Washington finden können. Keilschrifttexte sind eines der ältesten Textzeugnisse überhaupt und Keilschrifttafeln gehören zu den ältesten Textzeugen, die im Umfang mit den Texten in lateinischer und alt-griechischer Sprache vergleichbar sind. Diese Tafeln aus dem gesamten Alten Orient waren über beinahe viertausend Jahre in Verwendung (Soden 1994). Es gibt bisher nur sehr wenige Ansätze (Rothacker 2015, Bogacz 2016) Word Spotting auf Keilschrifttafeln anzuwenden. Datenbanken wie die Initiative für eine digitale Keilschriftdatenbank (http://cdli.ucla.edu/) könnten somit mit einer Suchfunktion nach graphischen Symbolen ausgestattet werden und eine Suche in mehr als 300,000 Keilschrifttafeln zur Verfügung stellen. Die Keilschrifttafeln in der CDLI werden oft als Handumzeichungen zur Verfügung gestellt und müssen für unsere Pipeline in als eine Menge von Feature Vektoren vorliegen (Bogacz 2015a). Hierzu werden die Rasterbilder der Umzeichungen in Skelette umgewandelt und darauf Keilmuster erkannt (Bogacz 2015b). In dieser Arbeit stellen wir Laufzeitoptimierungen vor, die es uns ermöglichen mit einem so großen Datensatz wie dem der CDLI zu arbeiten. Die Skelettierung wird mit Hilfe des Medial Axis Algorithmus direkt auf den Rasterdaten ausgeführt (Blum 1967). Werden mehrere zueinander in Konflikt stehende Keile gefunden wandeln wir dieses Problem in ein Zuordnungsproblem und lösen dieses mit Hilfe der effizienten Ungarischen Methode (Munkres 1957). Eine Darstellung von Keilschrifttafeln mit Feature Vektoren ermöglicht uns Methoden aus dem Bereich des Maschinellen Lernens anzuwenden, jedoch fehlen uns dazu Daten mit Annotationen. In dieser Arbeit stellen wir dann auf Basis der im vorherigen Schritt extrahierten Daten eine Methode vor, die automatisch Annotationen für Tafeln erstellt. Mit Hilfe eines Projektionsprofiles lassen sich neuzeitliche und gut erhaltene Keilschrifttafeln einfach in Zeilen segmentieren. Transliterationen dieser Tafeln in der CDLI liegen uns auch in Zeilen Form dar. Wir zerteilen diese Zeilen jeweils in Keilschnitte und Worte und lernen auf dieser Datenbasis Zuordnungen von Keilschnitten zu Worten der Transliteration. Diese Art des Lernens ist durch die große Datenbasis der CDLI möglich. Mit Hilfe der gelernten Daten können wir nun für einen Teil der Keilschriftzeichen automatisch Annotationen generieren.
Braun: Die Statuen des Baalbek
Ich studiere im Moment klassische Archäologie im Master an der Universität zu Köln. Im Rahmen dieses Studienganges führe ich ein Projekt eigener Wahl aus. Ich befasse mich mit der Sichtbarkeit von Statuen in einem Tempelkomplex, spezifisch dem Baalbek im Libanon. Das Projekt umfasst die Analyse der Sichtbarkeit der Statuen in den Ädikulä der Propyläen, und des hexagonalen Vorhofes, des Tempelkomplex. Die Fragestellung ist darauf bezogen, ob eine Hierarchisierung, ausgehend von der Sichtbarkeit der Statuen, innerhalb des Gebäudes auszumachen ist. Die Statuen dienten repräsentativen Zwecken, was die Frage relevant macht, in wie weit sich die wettbewerbsabhängige Natur der antiken Elite im Umgang mit sich selbst in den Positionen der Statuen wiederspiegelt. Auf dieses Ziel hin arbeite ich mit einem 3dimensionalen Model aus Blender, mit welchem ich hoffe durch die Programme ESRI City Engine und ArcScene messbare Werte für die Sichtbarkeit der Statuen, welche durch mehrseitige Polygone, nach Sichtseiten, repräsentiert werden zu erhalten. Nach Abschluss dieser Phase hoffe ich, durch die Nutzung von Ort-Nutzen Funktionen aus der Volkswirtschaft, eine Nutzenanalyse aus der Sichtbarkeit, im Verhältnis zu den Sichtpunkten, zu erstellen. Die Hoffnung bei der Ausführung des Projektes ist, dass am Ende ein Verständnis des „Sichtbarkeitswertes“ einzelner Statuenpositionen stehen wird. Wobei auch dabei nur von einem Teilverständnis zu reden wäre. Es werden Diskussionen, wie die Problematik der Physiognomie der Statuen, welche zudem nicht mehr in-situ vorhanden sind, ausgeklammert. Weiterhin ist leider vorausgesetzt, dass ein Ergebnis keinesfalls gesichert ist, und wenn, dies nur ein Teil-eindruck, -aspekt der Gesamtproblematik sein kann. Jedoch, bin ich guter Dinge, dass ein Ergebnis erzielt werden kann und, dass daraus die Möglichkeit erwächst eine grundlegende Untersuchung von Statuensichtbarkeit in der römischen Kaiserzeit zu starten.
Klaus Cappenberg, Marta Korczyńska, Jakob J. Ociepka, Magdalena Moskal-del Hoyo: Zu viele Köche verderben den Brei? Multimethodische Ansätze zur Untersuchung der trichterbecherzeitlichen Fundstelle von Mozgawa
Die trichterbecherzeitliche Fundstelle 1-3 in Mozgawa, Powiat Pinczów, Südpolen, zeichnet sich durch ihre enorme Ausdehnung (ca. 500 m x 800 m) und massenhaft auftretende Oberflächenfunde aus. Gelegen im periglazial überformten Lösshügelland der Heiligkreuzwoiwodschaft, ist sie seit den sechziger Jahren bekannt und nun Forschungsgegenstand eines seit dem Jahr 2014 vom National Science Center Poland geförderten Projektes (Archeologiczne, archeobotaniczne i paleośrodowiskowe badania w zachodniej części Niecki Nidziańskiej. Archäologische, archäobotanische und Paläoumweltuntersuchungen im westlichen Teil des Nida-Beckens) geworden, dass sich zum Ziel gesetzt hat, mögliche mittel- und spätneolithische Siedlungsstrukturen zu untersuchen und ihre Paläoumwelt zu rekonstruieren.
Die Erosionsanfälligkeit des Bodens wirft hinsichtlich der schieren Menge der Oberflächenfunde (maximale Dichte: 80 Funde / 100 m2) die Frage auf, ob die Erhaltung der Fundstelle gefährdet bzw. wieviel Material bereits abgegangen ist oder ob von einer hohen Intensität neolithischer Besiedlung auszugehen ist. Zu diesem Zweck wurden neben ausgedehnten Feldbegehungen mit Einzelfundeinmessung, geomagnetischer und luftbildarchäologischer Prospektion zusätzlich geoarchäologische Bohrungen durchgeführt, die einen Rekonstruktionsversuch des mittelneolithischen Reliefs zulassen und es zudem erlauben, mögliche Verlagerungsprozesse des Oberflächenmaterials nachzuvollziehen. Die zeitliche Einordnung des Fundmaterials, darunter 4200 Keramikfragmente, 650 Silexfragmente, 30 Beile, 45 Äxte, 126 Spinnwirtel, 20 Webgewichte, 12 Spulen, wird aufgrund der chronologisch wenig differenzierbaren Ornamentik und Form trichterbecherzeitlicher Tonware mittels fuzzy logic vorgenommen, um eine phasenabhängige Kartierung des Fundplatzes zu ermöglichen. Die intensive kleinteilige
Bewirtschaftung des Fundplatzes erforderte dabei eine mehrjährige Strategie hinsichtlich der geomagnetischen Prospektion, der Feldbegehungen und den eigens durchgeführten Befliegungen des Areals. Abschließend wird der Fundplatz im Zusammenhang mit der umgebenden Fundlandschaft diskutiert, welche teilweise im Rahmen der polnischen Landesaufnahme AZP dokumentiert vorliegt. Als hilfreich zur Ergänzung der bekannten Fundstellen und für die Ansprache prospektierter Strukturen auf dem vorgestellten Fundplatz hat sich die Sichtung der regionalen LiDAR-Daten herausgestellt.
Die Ergebnisse der Feldarbeiten wurden zusammengeführt und erlauben es, die Analysen nun erstmals vorzustellen und im Verbund mit kleineren Sondagegrabungen und archäobotanischen sowie archäozoologischen Untersuchungen, Dauer und Art der Besiedlung und Bewirtschaftung zu beschreiben.
Die Erosionsanfälligkeit des Bodens wirft hinsichtlich der schieren Menge der Oberflächenfunde (maximale Dichte: 80 Funde / 100 m2) die Frage auf, ob die Erhaltung der Fundstelle gefährdet bzw. wieviel Material bereits abgegangen ist oder ob von einer hohen Intensität neolithischer Besiedlung auszugehen ist. Zu diesem Zweck wurden neben ausgedehnten Feldbegehungen mit Einzelfundeinmessung, geomagnetischer und luftbildarchäologischer Prospektion zusätzlich geoarchäologische Bohrungen durchgeführt, die einen Rekonstruktionsversuch des mittelneolithischen Reliefs zulassen und es zudem erlauben, mögliche Verlagerungsprozesse des Oberflächenmaterials nachzuvollziehen. Die zeitliche Einordnung des Fundmaterials, darunter 4200 Keramikfragmente, 650 Silexfragmente, 30 Beile, 45 Äxte, 126 Spinnwirtel, 20 Webgewichte, 12 Spulen, wird aufgrund der chronologisch wenig differenzierbaren Ornamentik und Form trichterbecherzeitlicher Tonware mittels fuzzy logic vorgenommen, um eine phasenabhängige Kartierung des Fundplatzes zu ermöglichen. Die intensive kleinteilige
Bewirtschaftung des Fundplatzes erforderte dabei eine mehrjährige Strategie hinsichtlich der geomagnetischen Prospektion, der Feldbegehungen und den eigens durchgeführten Befliegungen des Areals. Abschließend wird der Fundplatz im Zusammenhang mit der umgebenden Fundlandschaft diskutiert, welche teilweise im Rahmen der polnischen Landesaufnahme AZP dokumentiert vorliegt. Als hilfreich zur Ergänzung der bekannten Fundstellen und für die Ansprache prospektierter Strukturen auf dem vorgestellten Fundplatz hat sich die Sichtung der regionalen LiDAR-Daten herausgestellt.
Die Ergebnisse der Feldarbeiten wurden zusammengeführt und erlauben es, die Analysen nun erstmals vorzustellen und im Verbund mit kleineren Sondagegrabungen und archäobotanischen sowie archäozoologischen Untersuchungen, Dauer und Art der Besiedlung und Bewirtschaftung zu beschreiben.
Dinkel: Integration und Bewertung photogrammetrischer Methoden und GIS zur Dokumentation von archäologischen Projekten am Beispiel von Gheriat el-Garbia (Libyen)
Obwohl die Welterbekonvention in den 40 Jahren ihres Bestehens von mehr als 190 Staaten ratifiziert wurde, befindet sich das kulturelle Erbe der Menschheit in einer prekären Situation: Jährlich werden zahlreiche Objekte nicht nur durch medienwirksame Zerstörungsaktionen radikaler Gruppierungen in Krisengebieten, sondern auch durch Ignoranz, Habgier und Armut auf der ganzen Welt zerstört. Parallel dazu stehen die Beteiligten archäolgoischer Projekte vor dem gleichbleibenden Problem: zu wenig Zeit und zu viel zu Dokumentieren. Daher gewinnt die schnelle Erfassung und Dokumentation der Denkmäler und Befunde vor Ort eine immer zentralere Bedeutung.
Am Beispiel eines Wachturms des römischen Ensembles von Gheriat el-Garbia (Libyen) wird im Folgenden diskutiert, inwieweit die Insturmentarien und Methoden der Geodäsie, insbesondere der Photogrammetrie, eine Lösung bieten können. Mittels einer Photostrecke des Wachturms (geschlossener Bildverband) und tachymetrisch erfasster Passpunkte kann eine verdichtete 3D-Punktwoke berechnet werden, die die Basis für photogrammetrische Produkte wie Oberflächen- und Volumenmodelle für Animationen und 3D-Druck von Modellen oder die Messung von Kenngrößen aus Schnitten und Profilen (Ausdehnung, Mauerstärke etc.) sowie Abrollungen bildet.
Dabei stellt sich die Frage, wie sehr der Aufwand der photographischen und messtechnischen Aufnahme eines Objekts reduziert werden kann, ohne die Anforderungen an die Qualität und Genauigkeit zu senken. Es liegt daher nahe, die Auswirkungen von Variationen der unterschiedlichen, photogrammetrischen Parameter der Aufnahme (Variablen des Auswerte-Algorithmus, Anzahl der Bilder, Konstellation und Anzahl der Passpunkte) zu untersuchen.
Insbesondere die Variationen sind von zentraler Bedeutung, die die Passpunkte betreffenden. Bei einer Reduzierung der Passpunktanzahl auf die mathematisch notwendigen drei Punkte lassen sich verschiedene Effekte je nach Anbringung der Passpunkte am Objekt beobachten, die sich besonders anschaulich im Vergleich der berechneten Kamerapositionen mit einer optimalen Maximalkonfiguration niederschlagen: Bei einer Anbringung der Passpunkte an Ober- bzw. Unterkante des Objekts verkleinert bzw. vergrößert sich der Maßstab der Punktwolke im cm-Bereich. Im Gegensatz dazu bleibt der Maßstab bei einer einseitigen Anbringung der Passpunkte konstant und die Residuen sind deutlich geinger als 1 cm (Mittelwert: 4,7 mm; Genauigkeit: 2,8 mm). Allerdings zeichnet sich eine Rotation des Bildverbands um die Mitte des Turms in Bewegungsrichtung des Photographen ab.
Im Vergleich liefert die einseitige Anbringung der Passpunkte die besten Ergebnisse. Dies wird auch durch den Vergleich von anderen Werten bestätigt (Höhenkomponente der Kamerapositionen, Kamerakalibrierungen, Vergleich der verdichteten Punktwolken etc.). Auch die Berechnung eines Worst-Case-Szenarios und eine Abschätzung mittels Fehlerfortpflanzung zeigt, dass für die einseitige Konstellation am Wachturm maximal mit einer Abweichung von ca. 8 mm von der Maximalkonfiguration zu rechnen ist. Dieser Wert liegt jedoch weit unter der Genauigkeit mit der die Passpunkte selbst zumeist erfasst werden (Katastergenauigkeit). Daher lassen sich zwar Effekte aufgrund der Passpunktreduzierung deutlich nachweisen, diese besitzen jedoch keine relevante Größe. Für die Messung der Passpunkte vor Ort kann daher darauf verzichtet werden, den Tachymeter für die Vermessung der Passpunkte auf allen Seiten des Objekts aufzustellen. Vielmehr bedarf die einseitige Passpunktanbringung zumeist lediglich eines einmaligen Aufstellens. Allerdings sollte man, um mögliche Messfehler aufzudecken zu können, die Anzahl der Passpunkte auf mindestens vier erhöhen (Redundanz).
Es ist also möglich und zulässig, den Arbeitsaufwand für die Vermessung eines Objekts zu reduzieren. Wie dieses Beispiel zeigt, ist eine Zusammenarbeit der beiden Disziplinen Geodäsie und Archäologie sinnvoll und empfehlenswert, da durch das Zusammenwirken von etablierten und neuen technischen Verfahren ein Mehrwert sowohl vor Ort als auch bei der Auswertung der erhobenen Daten erzielt werden kann.
Am Beispiel eines Wachturms des römischen Ensembles von Gheriat el-Garbia (Libyen) wird im Folgenden diskutiert, inwieweit die Insturmentarien und Methoden der Geodäsie, insbesondere der Photogrammetrie, eine Lösung bieten können. Mittels einer Photostrecke des Wachturms (geschlossener Bildverband) und tachymetrisch erfasster Passpunkte kann eine verdichtete 3D-Punktwoke berechnet werden, die die Basis für photogrammetrische Produkte wie Oberflächen- und Volumenmodelle für Animationen und 3D-Druck von Modellen oder die Messung von Kenngrößen aus Schnitten und Profilen (Ausdehnung, Mauerstärke etc.) sowie Abrollungen bildet.
Dabei stellt sich die Frage, wie sehr der Aufwand der photographischen und messtechnischen Aufnahme eines Objekts reduziert werden kann, ohne die Anforderungen an die Qualität und Genauigkeit zu senken. Es liegt daher nahe, die Auswirkungen von Variationen der unterschiedlichen, photogrammetrischen Parameter der Aufnahme (Variablen des Auswerte-Algorithmus, Anzahl der Bilder, Konstellation und Anzahl der Passpunkte) zu untersuchen.
Insbesondere die Variationen sind von zentraler Bedeutung, die die Passpunkte betreffenden. Bei einer Reduzierung der Passpunktanzahl auf die mathematisch notwendigen drei Punkte lassen sich verschiedene Effekte je nach Anbringung der Passpunkte am Objekt beobachten, die sich besonders anschaulich im Vergleich der berechneten Kamerapositionen mit einer optimalen Maximalkonfiguration niederschlagen: Bei einer Anbringung der Passpunkte an Ober- bzw. Unterkante des Objekts verkleinert bzw. vergrößert sich der Maßstab der Punktwolke im cm-Bereich. Im Gegensatz dazu bleibt der Maßstab bei einer einseitigen Anbringung der Passpunkte konstant und die Residuen sind deutlich geinger als 1 cm (Mittelwert: 4,7 mm; Genauigkeit: 2,8 mm). Allerdings zeichnet sich eine Rotation des Bildverbands um die Mitte des Turms in Bewegungsrichtung des Photographen ab.
Im Vergleich liefert die einseitige Anbringung der Passpunkte die besten Ergebnisse. Dies wird auch durch den Vergleich von anderen Werten bestätigt (Höhenkomponente der Kamerapositionen, Kamerakalibrierungen, Vergleich der verdichteten Punktwolken etc.). Auch die Berechnung eines Worst-Case-Szenarios und eine Abschätzung mittels Fehlerfortpflanzung zeigt, dass für die einseitige Konstellation am Wachturm maximal mit einer Abweichung von ca. 8 mm von der Maximalkonfiguration zu rechnen ist. Dieser Wert liegt jedoch weit unter der Genauigkeit mit der die Passpunkte selbst zumeist erfasst werden (Katastergenauigkeit). Daher lassen sich zwar Effekte aufgrund der Passpunktreduzierung deutlich nachweisen, diese besitzen jedoch keine relevante Größe. Für die Messung der Passpunkte vor Ort kann daher darauf verzichtet werden, den Tachymeter für die Vermessung der Passpunkte auf allen Seiten des Objekts aufzustellen. Vielmehr bedarf die einseitige Passpunktanbringung zumeist lediglich eines einmaligen Aufstellens. Allerdings sollte man, um mögliche Messfehler aufzudecken zu können, die Anzahl der Passpunkte auf mindestens vier erhöhen (Redundanz).
Es ist also möglich und zulässig, den Arbeitsaufwand für die Vermessung eines Objekts zu reduzieren. Wie dieses Beispiel zeigt, ist eine Zusammenarbeit der beiden Disziplinen Geodäsie und Archäologie sinnvoll und empfehlenswert, da durch das Zusammenwirken von etablierten und neuen technischen Verfahren ein Mehrwert sowohl vor Ort als auch bei der Auswertung der erhobenen Daten erzielt werden kann.
Christoph Gärtner, Guan Teck Gan, Hubert Mara, Susanne Krömker: Lesbarkeit von Schrift in 3D – Analyse der Oberfläche einer Bleitafel
Die Bleitafel aus dem Grab der Kaiserin Gisela im Dom zu Speyer stellt ein für die Epigraphik sehr bedeutendes Originaldokument dar, denn die Kaisergräber sind bis zu ihrer Öffnung im Jahr 1900 nicht gestört worden. Somit kann man mit Sicherheit davon ausgehen, dass die Tafel eindeutig aus dem Frühjahr 1043, dem Todeszeitpunkt der Kaiserin stammt. Über die allmähliche Veränderung von Buchstabenformen, die wie vieles andere der Mode unterworfen sind, werden in der Epigraphik Texte zeitlich zugeordnet, daher ist eine genaue Betrachtung der Linienführung so wichtig.
Im oberen Teil ist der 14zeilige Text tiefer ausgearbeitet und daher bis heute klar zu erkennen. Doch scheinbar bricht dieser Text mitten im Wort ab. Die Vorritzung ist aufgrund der Verkrustung mit Bleioxid heute kaum noch erkennbar. Diese Vorritzung ist allerdings mit großer Sorgfalt ausgeführt, die Buchstaben haben senkrechte Doppellinien, abgerundete Serifen und ähnliche Feinheiten, aus denen sich ihre Bedeutung für die Epigraphik erklärt.
Mithilfe eines Streifenlichtscanners wurde die Bleitafel hochauflösend aufgenommen und die Krümmung der Oberfläche mit Multiskalen Integralinvarianten (MSII) analysiert. Diese von dem Programm GigaMesh vorberechneten Krümmungswerte erlauben es, Linien einer angegebenen Stärke als Polylinien zu exportieren und in ein vektorbasiertes Dateiformat (SVG) zu überführen. Die Linien der Schriftzeichen haben allerdings häufig ähnliche Breite wie die zufälligen Verwitterungsspuren und sind oft schwer automatisiert von diesen Zeichen zu unterscheiden.
Ein Ansatz versucht, diese eher kleinen und kompakten Strukturen anhand einfacher geometrischer Eigenschaften wie dem Durchmesser, dem Verhältnis von Fläche zu Umfang und der Distanz zu verifizierten Zeichen, als Rauschen zu erkennen. Um eine Klassifikation aller vorhandener Formen zu erreichen, werden die verschieden Eigenschaften kombiniert und gewichtet, so dass sich Kriterien ergeben, mit denen eine Polylinie als dem Rauschen zugehörig erkannt wird. Dazu müssen alle Kriterien für jede Polylinie berechnet werden. Die Berechnung solcher Eigenschaften werden mit Methoden wie rotating calipers (rotierende Schieblehre) oder Delaunay Triangulierung in ihrer Komplexität und damit Laufzeit reduziert. Bei Erreichen eines Schwellenwertes werden die betroffenen Formen entfernt.
Ein weiterer Ansatz beruht auf einer anisotropen Glättung des gerenderten Bildes, das die über MSII ermittelte Krümmung der Oberfläche in Falschfarben darstellt. Dazu kann man die verschiedenen aus der 2D Bildverarbeitung bekannten Filter anwenden und anschließend die Schriftlinien als Polylinien in SVG‐Format exportieren. Mit diesem Ansatz werden Lücken in den Linien eines Schriftzeichens geschlossen, während isoliertes Rauschen schon vor der Berechnung von Polylinien unterdrückt wird.
Beide Ansätze reagieren sehr sensitiv auf die Wahl der Schwellwerte und Glättungsparameter und arbeiten in den Teilbereichen verschiedener Verwitterungsgrade unterschiedlich gut. Eine Kombination beider Verfahren schafft schließlich einen automatisierten und damit relativ interpretationsfreien SVG-Linienexport des Schriftfeldes im Gegensatz zu einer von Hand ausgeführten Umzeichnung.
Im oberen Teil ist der 14zeilige Text tiefer ausgearbeitet und daher bis heute klar zu erkennen. Doch scheinbar bricht dieser Text mitten im Wort ab. Die Vorritzung ist aufgrund der Verkrustung mit Bleioxid heute kaum noch erkennbar. Diese Vorritzung ist allerdings mit großer Sorgfalt ausgeführt, die Buchstaben haben senkrechte Doppellinien, abgerundete Serifen und ähnliche Feinheiten, aus denen sich ihre Bedeutung für die Epigraphik erklärt.
Mithilfe eines Streifenlichtscanners wurde die Bleitafel hochauflösend aufgenommen und die Krümmung der Oberfläche mit Multiskalen Integralinvarianten (MSII) analysiert. Diese von dem Programm GigaMesh vorberechneten Krümmungswerte erlauben es, Linien einer angegebenen Stärke als Polylinien zu exportieren und in ein vektorbasiertes Dateiformat (SVG) zu überführen. Die Linien der Schriftzeichen haben allerdings häufig ähnliche Breite wie die zufälligen Verwitterungsspuren und sind oft schwer automatisiert von diesen Zeichen zu unterscheiden.
Ein Ansatz versucht, diese eher kleinen und kompakten Strukturen anhand einfacher geometrischer Eigenschaften wie dem Durchmesser, dem Verhältnis von Fläche zu Umfang und der Distanz zu verifizierten Zeichen, als Rauschen zu erkennen. Um eine Klassifikation aller vorhandener Formen zu erreichen, werden die verschieden Eigenschaften kombiniert und gewichtet, so dass sich Kriterien ergeben, mit denen eine Polylinie als dem Rauschen zugehörig erkannt wird. Dazu müssen alle Kriterien für jede Polylinie berechnet werden. Die Berechnung solcher Eigenschaften werden mit Methoden wie rotating calipers (rotierende Schieblehre) oder Delaunay Triangulierung in ihrer Komplexität und damit Laufzeit reduziert. Bei Erreichen eines Schwellenwertes werden die betroffenen Formen entfernt.
Ein weiterer Ansatz beruht auf einer anisotropen Glättung des gerenderten Bildes, das die über MSII ermittelte Krümmung der Oberfläche in Falschfarben darstellt. Dazu kann man die verschiedenen aus der 2D Bildverarbeitung bekannten Filter anwenden und anschließend die Schriftlinien als Polylinien in SVG‐Format exportieren. Mit diesem Ansatz werden Lücken in den Linien eines Schriftzeichens geschlossen, während isoliertes Rauschen schon vor der Berechnung von Polylinien unterdrückt wird.
Beide Ansätze reagieren sehr sensitiv auf die Wahl der Schwellwerte und Glättungsparameter und arbeiten in den Teilbereichen verschiedener Verwitterungsgrade unterschiedlich gut. Eine Kombination beider Verfahren schafft schließlich einen automatisierten und damit relativ interpretationsfreien SVG-Linienexport des Schriftfeldes im Gegensatz zu einer von Hand ausgeführten Umzeichnung.
Marcel C. Hagner, Przemysław Sikora: 2D->3D->2D? Die Vor- und Nachteile von SfM zur archäologischen Profildokumentation
Gerne würden wir unsere Entwicklung eines Workflows zur “effektiven Bearbeitung von archäologischen Profilen zur Weiterverarbeitung zu digitalen Profilzeichnungen“ vorstellen. Anhand von Beispielen möchten wir den von uns entwickelten Workflow, die „HASP-Methode“ (Hochauflösende Structure from Motion Profile) erläutern, die Vor-und Nachteile dieser Methode kritisch aufzeigen und Ergebnisse und Erfahrungen aus erster Hand präsentieren. Bei der Umsetzung der Methode findet die bereits weit verbreite SfM-Software von Agisoft „Photoscan Pro“ Verwendung. Leicht erlernbare Bedienung, Python-Scripting und eine große Verbreitung der Software in der digitalen Archäologie stimmte mit unseren eigenen Anforderungen an eine neue Dokumentationsmethode überein. Bereits Ende 2014 entwickelt, sollte die Methode im Rahmen des Pilotprojektes „Hegelesberg“ des Landesamtes für Denkmalpflege im Regierungspräsidium Stuttgart (LAD@RPS) unter der wissenschaftlichen Leitung von Dr. Jörg Bofinger und Dr. Christoph Steffen die Dokumentationsqualität und die Geschwindigkeit der Profilaufnahme verbessern, um ein rechtzeitige Fertigstellung der großflächigen Rettungsgrabung in Kirchheim/Teck zu ermöglichen und gleichzeitig keinen Qualitätsverlust der (Profil-)Dokumentation in Kauf nehmen zu müssen. Die Vorteile, die der Einsatz von SfM bei der Profildokumentation bietet, waren vielen Kollegen nicht von Beginn an klar. Da ein Profil einen zweidimensionalen Charakter hat, schien es vielen Archäologen überflüssig, ein 3D-Modell zu erstellen, von dessen Oberfläche wiederum ein passendes „entzerrtes“ 2D-Foto in Form eines Orthofoto exportiert wird. Jedoch die praktische Anwendung erwies schnell die Effizienz dieser Methode. Seit 2015 findet die Methode nun Anwendung in der Denkmalpflege in Baden-Württemberg. Einige Grabungen des Landesamtes für Denkmalpflege Baden-Württemberg verwenden SfM zur Profildokumentation und passen die HASP-Methode bei Bedarf an ihre jeweilige Grabungssituation an. Mit einem Vortrag könnten wir nun den aktuellen Entwicklungsstand vorstellen.
Irmela Herzog: LiDAR-Daten, historische Karten und die Wegeforschung im Bergischen Land
Insbesondere die Mercatorkarte von 1575 ist eine wichtige Grundlage für die Erforschung der Geschichte des Bergischen Landes. Die Karte ist aufgrund eines Rechtsstreits entstanden, daher ist die Karte besonders an den Stellen genau und detailreich, wo sie den problematischen Grenzverlauf dokumentiert, während sie an anderen Stellen große Verzerrungen aufweist. Sie verzeichnet mehrere Verkehrsverbindungen von überregionaler Bedeutung, doch die meisten Hofstellen sind ohne eine Anbindung an das Verkehrsnetz abgebildet. Erst die Kartenblätter von von Müffling im frühen 19 Jh. erfassen auch die Wegeverbindungen zu den Hofstellen. Aufgrund der Ungenauigkeiten der Mercatorkarte lassen sich die abgebildeten überregionalen Verkehrsverbindungen nur grob auf eine moderne Karte übertragen. Eine etwas präzisere Eingrenzung des Straßenverlaufs ist dort möglich, wo Teilstrecken der Straßen auf der Karte von 1571 auch auf späteren, genaueren Karten zu finden sind.
Bereits der von GeoBasis NRW (früher: Landesvermessungsamt NRW) bereit gestellte WMS-Dienst mit Schummerungsdarstellung von LiDAR-Daten zeigt Hohlwegbündel in unmittelbarer Umgebung der so kartierten historischen Straßen. Doch sind andere Methoden zur Visualisierung der LiDAR-Daten häufig besser geeignet, um Gebiete mit noch erhaltenen Hohlwegen abzugrenzen. Das Poster stellt die Vor- und Nachteile der verschiedenen Methoden für die Visualisierung von Hohlwegen gegenüber. Dabei wird auch untersucht, ob das von GeoBasis NRW gelieferte 1m-Raster mit interpolierten LiDAR-Daten zur Abgrenzung der Hohlwege ausreicht. Denn die Berechnung von höher aufgelösten Höhenmodellen aufgrund der unregelmäßig verteilten Höhenpunkte der LiDAR-Daten ist recht zeitintensiv und sollte nur in den Fällen durchgeführt werden, wo dies einen Mehrwert gegenüber den Daten im 1m-Raster erwarten lässt.
Bereits der von GeoBasis NRW (früher: Landesvermessungsamt NRW) bereit gestellte WMS-Dienst mit Schummerungsdarstellung von LiDAR-Daten zeigt Hohlwegbündel in unmittelbarer Umgebung der so kartierten historischen Straßen. Doch sind andere Methoden zur Visualisierung der LiDAR-Daten häufig besser geeignet, um Gebiete mit noch erhaltenen Hohlwegen abzugrenzen. Das Poster stellt die Vor- und Nachteile der verschiedenen Methoden für die Visualisierung von Hohlwegen gegenüber. Dabei wird auch untersucht, ob das von GeoBasis NRW gelieferte 1m-Raster mit interpolierten LiDAR-Daten zur Abgrenzung der Hohlwege ausreicht. Denn die Berechnung von höher aufgelösten Höhenmodellen aufgrund der unregelmäßig verteilten Höhenpunkte der LiDAR-Daten ist recht zeitintensiv und sollte nur in den Fällen durchgeführt werden, wo dies einen Mehrwert gegenüber den Daten im 1m-Raster erwarten lässt.
Michael Kempf: Antike und frühmittelalterliche Besiedlung am elsässischen Oberrhein – Eine geoarchäologische Entersuchung des Raumes Niedernai
Um die Veränderungsprozesse eines intensiv landwirtschaftlich genutzten Raumes in einem archäologischen Kontext zu verstehen, ist es unabdingbar, neben den topographischen auch die klimatischen, geologischen und pedologischen Einflußfaktoren zu verstehen und zu analysieren. Es stellt sich die Frage, inwiefern die physischen Parameter die Bodennutzung steuern und wie sich mögliche Siedlungsstrukturen in einem natürlichen Gunstraum verhalten. Im Mittelpunkt der Untersuchung stehen Landnutzungs-änderungen von der Römischen Kaiserzeit bis in die Merowingerzeit am elsässischen Oberrhein. Hier kann man grob in drei geomorphologische Einheiten untergliedern, die, angefangen von den weiträumigen Auebereichen von Rhein und Ill über die hügelige Vorbergzone, bis in die Mittelgebirgslagen der Vogesen reichen. Diesem Muster folgt auch die lokale Bodenvergesellschaftung: Sind die Niederungen noch von Grundwasser- und Staunässeböden mit geringem ackerbaulichen Potential geprägt, ändert sich mit entsprechender Höhenlage der Vorbergzone das Bodennutzungspotential. Hier wechseln Lößeinheiten mit sekundär verlagertem Schwemmaterial der Vogesenflüsse unter Ausbildung nährstoffreicher und tiefgründiger Böden. Die Vogesen hingegen werden zum größen Teil aus paläozoischem Kristallin mit eingestreuten mesozoischen Decksedimenten gebildet, welche auch die Bodenbildung steuern. Die meist sauren und nährstoffarmen Böden der Gebirgszonen werden nach Osten von hochwertigen Pararendzinen und Braunerden auf kalkreichen Sedimenten unter Tonverlagerungs-prozessen eingefasst.
In der Arbeit wurden Siedlungsstrukturen analog ihrer phyischen Umgebungsparameter analysiert. Zur Generierung der Datengrundlage konnten mit Hilfe der Arkeogis-Datenbank drei aufeinanderfolgende chronologische Zeiträume festgelegt und über ein Geo-graphisches Informationssystem kartiert werden. Unter Vorbehalt der Feinchronologie der Datenbank und der vielen Interpretationsmuster wissenschaftlicher Nomenklaturen und Klassifizierungen von Zeiträumen, ist es möglich gewesen, Landnutzungsänderungen, Siedlungsstruktur- und Nutzungsarealwandel festzustellen. Demzufolge veränderte sich neben der Wahl der ackerbaulichen Gunsträume von der Römischen Kaiserzeit über die sogenannte ‘Völkerwanderungszeit’ bis in das frühe Mittelalter auch die Wahl des Siedlungsstandortes in einer sich immer weiter aufsplitternden und zunehmend lokaleren Bevölkerung. Die Entwicklung einer eigenständigen Grenzbevölkerung in den Peripherien des Römischen Reiches zeigte dabei auffällige Siedlungskontinuität unter Ausweitung der landwirtschaftlich genutzten Flächen auf Bereiche der Kies- und Schotterböden der Auezonen. Diese waren jedoch im Frühmittelalter einer agrartechnischen Weiter-entwicklung geschuldet und zeugten weniger von einem Austausch der Bevölkerung oder geschweige denn einer ‘Völkerwanderung’. So fällt auch die Befundeverteilung aus: Die vielen plötzlich auftauchenden Siedlungsanzeiger spiegeln zum einen eine mögliche Konsequenz der chronologischen Justierung der Datenbank, zum anderen die geänderten sozialen Wirtschaftsverhältnisse vom späten 5. bis in das 7. Jahrhundert wider.
In der Arbeit wurden Siedlungsstrukturen analog ihrer phyischen Umgebungsparameter analysiert. Zur Generierung der Datengrundlage konnten mit Hilfe der Arkeogis-Datenbank drei aufeinanderfolgende chronologische Zeiträume festgelegt und über ein Geo-graphisches Informationssystem kartiert werden. Unter Vorbehalt der Feinchronologie der Datenbank und der vielen Interpretationsmuster wissenschaftlicher Nomenklaturen und Klassifizierungen von Zeiträumen, ist es möglich gewesen, Landnutzungsänderungen, Siedlungsstruktur- und Nutzungsarealwandel festzustellen. Demzufolge veränderte sich neben der Wahl der ackerbaulichen Gunsträume von der Römischen Kaiserzeit über die sogenannte ‘Völkerwanderungszeit’ bis in das frühe Mittelalter auch die Wahl des Siedlungsstandortes in einer sich immer weiter aufsplitternden und zunehmend lokaleren Bevölkerung. Die Entwicklung einer eigenständigen Grenzbevölkerung in den Peripherien des Römischen Reiches zeigte dabei auffällige Siedlungskontinuität unter Ausweitung der landwirtschaftlich genutzten Flächen auf Bereiche der Kies- und Schotterböden der Auezonen. Diese waren jedoch im Frühmittelalter einer agrartechnischen Weiter-entwicklung geschuldet und zeugten weniger von einem Austausch der Bevölkerung oder geschweige denn einer ‘Völkerwanderung’. So fällt auch die Befundeverteilung aus: Die vielen plötzlich auftauchenden Siedlungsanzeiger spiegeln zum einen eine mögliche Konsequenz der chronologischen Justierung der Datenbank, zum anderen die geänderten sozialen Wirtschaftsverhältnisse vom späten 5. bis in das 7. Jahrhundert wider.
Anna-Lena Heusser, Benjamin Reh, Christian Seitz, Sonja Speck: Ein modulares, automatisiertes System für die 3D-Dokumentation ägyptischer prä- und frühdynastischer anthropomorpher Plastik
In den archäologischen Disziplinen ist die dreidimensionale Dokumentation von Funden ein aktueller Trend. Es liegt in der Natur dieser Fächer, dass zu dokumentierende Objekte eine hohe Diversität (Größe, Material, Form, usw.) aufweisen. Zugleich findet die Dokumentation archäologischer Objekte in unterschiedlichen Umgebungen statt, zum Beispiel im Museum, im Grabungsmagazin oder im Feld. 3D-Dokumentationsverfahren müssen flexibel sein, um diesen Ansprüchen gerecht zu werden. Die Automatisierung dieser Aufnahmen gewinnt aufgrund der damit einhergehenden Zeitersparnis immer mehr an Bedeutung in diesen Bereichen. Mittlerweile gibt es eine Vielzahl kommerzieller und nicht-kommerzieller Verfahren und Geräte zur Aufnahme von Objekten, ein Beispiel ist der Siegeldreher, den wir zur automatischen 3D-Dokumentation von Rollsiegeln entwickelt haben.
Eine besondere Herausforderung für die 3D-Dokumentation bildet die Gruppe der ägyptischen prä- und frühdynastischen anthropomorphen Plastik. Die große Vielfalt an Formen, Oberflächeneigenschaften und Farben erfordert ein hochgradig flexibles Aufnahmesystem. Außerdem ist ein hohes Maß an Sicherheit notwendig, um Objekte aus spröden Materialien wie z.B. Ton oder Knochen und mit abstehenden Elementen wie Armen unversehrt zu dokumentieren. Um das große Spektrum dieser Objektgruppe wie auch anderer archäologischer Objektgattungen dreidimensional erfassen zu können, haben wir unser System auf mehreren Ebenen weiterentwickelt.
Mit einem Drehteller ist es nun auch möglich, Objekte von Kleinfunden verschiedener Form bis zu etwa mittelgroßen Objekten wie Keramiken oder Statuen bis 60 kg aufzunehmen. Die Funktionsweise des Drehtellers entspricht der des Siegeldrehers: Ein Objekt wird aufgenommen, indem es schrittweise von einem Motor gedreht wird und zwischen den Drehungen eine Spiegelreflex-Kamera ausgelöst wird. Im zweiten Schritt werden mehrere, aus verschiedenen Kamerapositionen aufgenommene Bilderserien zu einer 3D-Rekonstruktion des Objekts photogrammetrisch zusammengesetzt. Dabei wird das Structure-From-Motion-Verfahren angewendet.
Zur Ansteuerung der einzelnen Komponenten wird eine von uns entwickelte Steuerungseinheit eingesetzt, die gleichermaßen für den Siegeldreher wie auch für den Drehteller verwendet werden kann. Dabei können die Aufnahmeparameter, wie Anzahl der Drehschritte und Zeitpunkt des Auslösens, in unserer PC-Software individuell eingestellt werden.
Die Anpassung des Drehtellers an Objekte mit besonderen konservatorischen Anforderungen ist durch Gewindebohrungen in der gesamten Platte, die verschiedene Stützen und Halterungen aufnehmen können, möglich. Außerdem kann der Drehteller mit Polstern und Silikonauflagen bestückt werden.
Für spezielle Einsatzzwecke zum Beispiel im Feld oder in räumlich engen Verhältnissen steht unsere Software auch als Android-App zur Verfügung, die sich mit der Steuereinheit über Bluetooth verbindet. Des Weiteren erlaubt es die App, die im Mobilgerät verbaute Kamera für die Aufnahme der Bilderserien einzusetzen, wodurch wiederum Platz und Zeit eingespart werden kann.
Abgesehen vom Aufnahmeprozess selbst soll auch die Positionierung und Ausrichtung der Kamera für die Aufnahme der einzelnen Bilderserien automatisiert werden. Ein automatisch höhenverstellbares Stativ mit Schwenkkopf, das die Kamera in die richtige Position für die Siegeldreher- und Drehteller-Aufnahmen bringt, befindet sich aktuell in der Entwicklungsphase.
Die Steuerungssoftware unseres Systems ist open source. Der Quellcode ist auf unserer Webpage frei einsehbar und kann frei verwendet werden. Bei der Konstruktion wurde darauf geachtet, einen kostengünstigen Nachbau zu ermöglichen.
Im Poster werden wir unser komplettes System und dessen Funktionsweise anhand exemplarischer Beispiele vorstellen und auch auf die Verwendung der 3D-Modelle in der Forschung eingehen.
Eine besondere Herausforderung für die 3D-Dokumentation bildet die Gruppe der ägyptischen prä- und frühdynastischen anthropomorphen Plastik. Die große Vielfalt an Formen, Oberflächeneigenschaften und Farben erfordert ein hochgradig flexibles Aufnahmesystem. Außerdem ist ein hohes Maß an Sicherheit notwendig, um Objekte aus spröden Materialien wie z.B. Ton oder Knochen und mit abstehenden Elementen wie Armen unversehrt zu dokumentieren. Um das große Spektrum dieser Objektgruppe wie auch anderer archäologischer Objektgattungen dreidimensional erfassen zu können, haben wir unser System auf mehreren Ebenen weiterentwickelt.
Mit einem Drehteller ist es nun auch möglich, Objekte von Kleinfunden verschiedener Form bis zu etwa mittelgroßen Objekten wie Keramiken oder Statuen bis 60 kg aufzunehmen. Die Funktionsweise des Drehtellers entspricht der des Siegeldrehers: Ein Objekt wird aufgenommen, indem es schrittweise von einem Motor gedreht wird und zwischen den Drehungen eine Spiegelreflex-Kamera ausgelöst wird. Im zweiten Schritt werden mehrere, aus verschiedenen Kamerapositionen aufgenommene Bilderserien zu einer 3D-Rekonstruktion des Objekts photogrammetrisch zusammengesetzt. Dabei wird das Structure-From-Motion-Verfahren angewendet.
Zur Ansteuerung der einzelnen Komponenten wird eine von uns entwickelte Steuerungseinheit eingesetzt, die gleichermaßen für den Siegeldreher wie auch für den Drehteller verwendet werden kann. Dabei können die Aufnahmeparameter, wie Anzahl der Drehschritte und Zeitpunkt des Auslösens, in unserer PC-Software individuell eingestellt werden.
Die Anpassung des Drehtellers an Objekte mit besonderen konservatorischen Anforderungen ist durch Gewindebohrungen in der gesamten Platte, die verschiedene Stützen und Halterungen aufnehmen können, möglich. Außerdem kann der Drehteller mit Polstern und Silikonauflagen bestückt werden.
Für spezielle Einsatzzwecke zum Beispiel im Feld oder in räumlich engen Verhältnissen steht unsere Software auch als Android-App zur Verfügung, die sich mit der Steuereinheit über Bluetooth verbindet. Des Weiteren erlaubt es die App, die im Mobilgerät verbaute Kamera für die Aufnahme der Bilderserien einzusetzen, wodurch wiederum Platz und Zeit eingespart werden kann.
Abgesehen vom Aufnahmeprozess selbst soll auch die Positionierung und Ausrichtung der Kamera für die Aufnahme der einzelnen Bilderserien automatisiert werden. Ein automatisch höhenverstellbares Stativ mit Schwenkkopf, das die Kamera in die richtige Position für die Siegeldreher- und Drehteller-Aufnahmen bringt, befindet sich aktuell in der Entwicklungsphase.
Die Steuerungssoftware unseres Systems ist open source. Der Quellcode ist auf unserer Webpage frei einsehbar und kann frei verwendet werden. Bei der Konstruktion wurde darauf geachtet, einen kostengünstigen Nachbau zu ermöglichen.
Im Poster werden wir unser komplettes System und dessen Funktionsweise anhand exemplarischer Beispiele vorstellen und auch auf die Verwendung der 3D-Modelle in der Forschung eingehen.
Stephanie E. Metz, Thomas Bachnetzer, Harald Stadler: Gletscherarchäologie in den Österreichischen Alpen – Ein Konzept, das Unaufhaltsame zu greifen
Als Folge der globalen Klimaerwärmung und dem damit einhergehenden Rückzug der Gletscher apern immer wieder archäologisch relevante Artefakte aus dem alpinen Eis aus. Diese Objekte stammen aus unterschiedlichen Epochen der letzten 10.000 Jahre und sind für die Archäologie und ihre Nachbarfächer von größtem Interesse. Vor allem prähistorischen Eisfunden, wie sie 1991 am Similaun (“Ötzi”) oder in den vergangenen Jahren im Berner Oberland (CH) am Schnidejoch und Lötschenpass geborgen wurden, kommt eine regelrechte wissenschaftliche Impulsfunktion zu. Derartige Funde liefern grundlegende Informationen über die bisher wenig bekannte frühe Nutzung hochalpiner Landschaften und sind zudem durch die hervorragenden Erhaltungsbedingungen im Eis – insbesondere für organische Materialien – von singulärer Bedeutung. So sind die in den Eisarchiven konservierten Informationsträger für verschiedene Disziplinen wie die Archäobiologie (aDNA), Archäobotanik, Glaziologie und Klimaforschung von großem Wert. Obwohl dieses wissenschaftliche Potenzial im Eis erhaltener Objekte gut bekannt ist und gleichzeitig der Verlust alpiner Eisflächen rasant fortschreitet, werden bislang kaum Anstrengungen zur Erforschung und zum Schutz klimatisch bedrohter Kulturgüter unternommen.
Das Projekt nimmt sich diesem Forschungsdesiderat auf den drei Ebenen Methodik/Theorie, Feldarbeit und Öffentlichkeitsarbeit an. Da Berechnungen einen Eisflächenrückgang um 90 % bis in das Jahr 2100 prognostizieren, gilt als vordringlichstes Ziel die systematische Detektion von Gebieten mit hohem gletscherarchäologischen Potenzial mithilfe GIS. Unter Einbeziehung historischer und rezenter Gletscherstände werden Aussagen über zukünftige Gletscher- bzw. Eisflächenrückgänge getroffen, die in Korrelation mit bisherigen Fundaufkommen gesetzt werden. Basierend auf den physischen Charakteristika des Terrains und weiteren Parametern können hierdurch Regionen definiert werden, die ein besonders hohes achäologisches Potenzial bieten bzw. besonders gefährdet sind.
Das Poster bietet einen Überblick über das Projekt und stellt die methodische Vorgehensweise vor.
Das Projekt nimmt sich diesem Forschungsdesiderat auf den drei Ebenen Methodik/Theorie, Feldarbeit und Öffentlichkeitsarbeit an. Da Berechnungen einen Eisflächenrückgang um 90 % bis in das Jahr 2100 prognostizieren, gilt als vordringlichstes Ziel die systematische Detektion von Gebieten mit hohem gletscherarchäologischen Potenzial mithilfe GIS. Unter Einbeziehung historischer und rezenter Gletscherstände werden Aussagen über zukünftige Gletscher- bzw. Eisflächenrückgänge getroffen, die in Korrelation mit bisherigen Fundaufkommen gesetzt werden. Basierend auf den physischen Charakteristika des Terrains und weiteren Parametern können hierdurch Regionen definiert werden, die ein besonders hohes achäologisches Potenzial bieten bzw. besonders gefährdet sind.
Das Poster bietet einen Überblick über das Projekt und stellt die methodische Vorgehensweise vor.
Aaron Pattee, Bernhard Höfle, Armin Volkmann, Matthias Untermann: GIS-basierte Untersuchung der mittelalterlichen Landschaft und Baukunst der Pfalz mit Methoden der Geoinformatik—Burgen in der Nähe von Kaiserslautern
Unser Projekt untersucht die Integration von verschiedenen digitalen Methoden, einschließlich der Photogrammetrie, des Laserscanning, des GIS und der Textanalyse, um die mittelalterliche Landschaft in der Umgebung Kaiserslauterns systematisch zu analysieren. Als Fallstudien sind dabei die ehemalige Königspfalz in Kaiserslautern und deren Schutzburgen Burg Hohenecken, Burg Perlenberg, Burg Wilenstein, Burg Beilstein und die Deutschherren-Kommende im Einsiedel (heutiger Einsiedlerhof) ausgewählt. Alle sechs Fortifikationen gehörten zum Reichsland, liegen an wichtigen Wegen und Straßen des Mittelalters und wurden in den Jahren 1150-1250 von den Stauferkönigen entweder neugebaut oder prächtig ausgebaut. Das Projekt ist grundsätzlich strikt interdisziplinär angelegt und überbrückt dabei die Fächer Archäologie, Kunstgeschichte, Landesgeschichte, Baudenkmalpflege, Historische Geographie und Geoinformatik.
Das Projekt wird durch zwei zentrale Komponenten grundlegend getragen: Zum einen ist dies die Erstellung von Laserscans der Burgen anhand derer zusätzliche bauhistorische Analysen erfolgen. Zum anderen wird eine dezidierte Untersuchung der schriftlichen Quellen aus den Archiven im Fokus stehen. Beide Komponenten werden durch die Implementierung der 3D-Burgmodelle, die Informationsextraktion zu Ortsnamennennungen und weiteren Angaben aus den Textquellen sowie der Georeferenzierung von historischen Landkarten der Pfalz und anderen thematischen Kartenwerken im GIS vereinigt. Die photogrammetrisch animierten und gescannten Burgen ermöglichen zusammen mit den überlieferten Dokumenten eine umfassende Darstellung und damit Rekonstruktion der mittelalterlichen Landschaft in deren Zentrum GIS-Analysen weiterführende Interpretationen erlauben.
Die detaillierten 3D-Aufnahmen und Rekonstruktion der sechs Burgen zielen auf die digitale Visualisierung der Objekte sowie auf die nachfolgende Verknüpfung dieser 3D-Modelle in 2,5D- und 2D-Analysen im GIS. Die 3D-Modelle der Burgen werden grundlegend mit terrestrischem Laserscans erfasst, photogrammetrisch animiert, d.h. ergänzt, um hochauflösende Bildinformation zu generieren, die Bauaufmaß gerecht, detailliert geometrisch vermessen sind. Nach den Messaufnahmen und der Berechnung der hochauflösenden, digitalen Modelle werden diese, ohne am Standort der Burgen sein zu müssen, weiter untersucht und in digitalen Repositorien in verschiedenen Arbeitsschritten gespeichert sowie die Messdaten archiviert, was ist ein wertvoller Vorteil für künftige Analysen zur Baukunst und vergleichenden Stilistik der Strukturen der Burgen im Rahmen der digitalen Konservierung und eingehenden Erfassung unseres Kulturerbes darstellt.
Nach der Dateneingabe in das Projekt-GIS werden räumliche Analysen ausgeführt, um die Gründe der Positionierung der Burgen und ihre geographischen Beziehungen zur Landschaft zu thematisieren (Site Location und Site Catchment Analyses). Auf Basis der genauen 3D-Modelle der Burgen in der Landschaft werden 2D-Sichtbarkeitsanalysen (Viewsheds) ausgeführt, die zeigen, welche Teile der Landschaft damals von den Burgtürmen aus gesehen und welche Wege dabei überwacht werden konnten. Es gibt im Pfälzerwald eine Vielzahl von Wegen, die regionale und überregionale Bedeutung hatten und deren Funktion anhand Least-Cost-Path Analysen im GIS herausgestellt wird, wobei klar wird, welche den Burgen als verbindenden Routen dienten. Die Landschaft sah im Mittelalter wesentlich anders aus als heute, wie aus zahlreichen landschaftsarchäologischen Studien in Vergleichsregionen, wie beispielsweise im Breisgau, bekannt ist. Z.B. um die Königpfalz und um Einsiedel haben sich viele Seen im dichten Waldland befunden, wie die schriftlichen Quellen verdeutlichen. Der Fluss Lauter floss damals noch quer durch die Stadt Lautern, genau an einer Seite der Königpfalz. Um die wahrscheinliche Lage von ehemaligen, heute verlandeten Seen zu bestimmen, wird eine Hydology Analyse im GIS ausgeführt, die wechselnde Wasserpegelstände und damit potentielle Verdachtsflächen einschließlich des anthropogenen Gewässerbaus, d.h. hier hochmittelalterliche Seeanlage, die der Fischzucht diente, ausweist.
Die Textanalyse beschränkt sich nicht nur auf die mittelalterlichen und frühneuzeitlichen Dokumente, sondern es werden darüber hinaus Ausgrabungsberichte, historische Landkarten, Zeichnungen und Kupferstiche zur Geschichte der Burgen und ihren Lehnsherren und Burgmännern miteinbezogen und ausgewertet. Im Rahmen des Projektes werden diese Dokumente der mittelalterlichen Kultur mit der digitalen, rekonstruierten Landschaft kontextualisiert. Die GIS-basierte Methode mit einer Datenbank, deren Datenmodell mit heterogenen Quellenformaten (Karten, Texten, Messdaten und Bildern) umgehen kann, ist dafür geeignet alle fragmentierten Fäden der Geschichte und Kultur des Mittelalters der Region zusammenzubringen und im Kontext zueinander auszuwerten.
Das Projekt wird durch zwei zentrale Komponenten grundlegend getragen: Zum einen ist dies die Erstellung von Laserscans der Burgen anhand derer zusätzliche bauhistorische Analysen erfolgen. Zum anderen wird eine dezidierte Untersuchung der schriftlichen Quellen aus den Archiven im Fokus stehen. Beide Komponenten werden durch die Implementierung der 3D-Burgmodelle, die Informationsextraktion zu Ortsnamennennungen und weiteren Angaben aus den Textquellen sowie der Georeferenzierung von historischen Landkarten der Pfalz und anderen thematischen Kartenwerken im GIS vereinigt. Die photogrammetrisch animierten und gescannten Burgen ermöglichen zusammen mit den überlieferten Dokumenten eine umfassende Darstellung und damit Rekonstruktion der mittelalterlichen Landschaft in deren Zentrum GIS-Analysen weiterführende Interpretationen erlauben.
Die detaillierten 3D-Aufnahmen und Rekonstruktion der sechs Burgen zielen auf die digitale Visualisierung der Objekte sowie auf die nachfolgende Verknüpfung dieser 3D-Modelle in 2,5D- und 2D-Analysen im GIS. Die 3D-Modelle der Burgen werden grundlegend mit terrestrischem Laserscans erfasst, photogrammetrisch animiert, d.h. ergänzt, um hochauflösende Bildinformation zu generieren, die Bauaufmaß gerecht, detailliert geometrisch vermessen sind. Nach den Messaufnahmen und der Berechnung der hochauflösenden, digitalen Modelle werden diese, ohne am Standort der Burgen sein zu müssen, weiter untersucht und in digitalen Repositorien in verschiedenen Arbeitsschritten gespeichert sowie die Messdaten archiviert, was ist ein wertvoller Vorteil für künftige Analysen zur Baukunst und vergleichenden Stilistik der Strukturen der Burgen im Rahmen der digitalen Konservierung und eingehenden Erfassung unseres Kulturerbes darstellt.
Nach der Dateneingabe in das Projekt-GIS werden räumliche Analysen ausgeführt, um die Gründe der Positionierung der Burgen und ihre geographischen Beziehungen zur Landschaft zu thematisieren (Site Location und Site Catchment Analyses). Auf Basis der genauen 3D-Modelle der Burgen in der Landschaft werden 2D-Sichtbarkeitsanalysen (Viewsheds) ausgeführt, die zeigen, welche Teile der Landschaft damals von den Burgtürmen aus gesehen und welche Wege dabei überwacht werden konnten. Es gibt im Pfälzerwald eine Vielzahl von Wegen, die regionale und überregionale Bedeutung hatten und deren Funktion anhand Least-Cost-Path Analysen im GIS herausgestellt wird, wobei klar wird, welche den Burgen als verbindenden Routen dienten. Die Landschaft sah im Mittelalter wesentlich anders aus als heute, wie aus zahlreichen landschaftsarchäologischen Studien in Vergleichsregionen, wie beispielsweise im Breisgau, bekannt ist. Z.B. um die Königpfalz und um Einsiedel haben sich viele Seen im dichten Waldland befunden, wie die schriftlichen Quellen verdeutlichen. Der Fluss Lauter floss damals noch quer durch die Stadt Lautern, genau an einer Seite der Königpfalz. Um die wahrscheinliche Lage von ehemaligen, heute verlandeten Seen zu bestimmen, wird eine Hydology Analyse im GIS ausgeführt, die wechselnde Wasserpegelstände und damit potentielle Verdachtsflächen einschließlich des anthropogenen Gewässerbaus, d.h. hier hochmittelalterliche Seeanlage, die der Fischzucht diente, ausweist.
Die Textanalyse beschränkt sich nicht nur auf die mittelalterlichen und frühneuzeitlichen Dokumente, sondern es werden darüber hinaus Ausgrabungsberichte, historische Landkarten, Zeichnungen und Kupferstiche zur Geschichte der Burgen und ihren Lehnsherren und Burgmännern miteinbezogen und ausgewertet. Im Rahmen des Projektes werden diese Dokumente der mittelalterlichen Kultur mit der digitalen, rekonstruierten Landschaft kontextualisiert. Die GIS-basierte Methode mit einer Datenbank, deren Datenmodell mit heterogenen Quellenformaten (Karten, Texten, Messdaten und Bildern) umgehen kann, ist dafür geeignet alle fragmentierten Fäden der Geschichte und Kultur des Mittelalters der Region zusammenzubringen und im Kontext zueinander auszuwerten.
Sophie C. Schmidt: Ebenen der Analyse im Vergleich: Fundstellen und Befunde
Das Poster stellt die in der Masterarbeit der Verfasserin angewandte Methode einer diachronen siedlungsarchäologischen inter-site Analyse auf Befundebene im Vergleich mit einer Fundstellen-basierten Analyse dar. Die Abschlussarbeit wurde im März 2016 unter dem Titel “Siedlungsarchäologie auf Befundebene – Untersuchungen zu Standortfaktoren und Besiedlungsdichte in einem Transsekt im Mittelelbe-Saale-Gebiet” an der Freien Universität Berlin eingereicht. Sie behandelt zeitlich den Abschnitt vom Mittelneolithikum bis in die Früheisenzeit und räumlich einen erweiterten Transsekt entlang der Ausgrabungen der Bundesstraße 6n in einem Abschnitt bei Köthen (Anhalt). Im Fokus der Darstellung auf dem Poster stehen Ergebnisse einer übergreifenden Analyse der Trassengrabungen, die vom Landesdenkmalamt in Sachsen-Anhalt durchgeführt wurden. Dazu werden zwei Datensätze miteinander verglichen: In den ersten Datensatz wird jeder einzelne ergrabene Befund aufgenommen, während der zweite Datensatz nur aus den Mittelpunkten der von dem Landesdenkmalamt definierten Fundstellen besteht. Für beide Datensätze werden mehrere siedlungsarchäologische Untersuchungen mit dem Geoinformationssystem QGIS und der Statistik-Software R durchgeführt: Bei der ersten Analyse handelt es sich um Proxyberechnungen für den diachronen Vergleich der Besiedlungsdichte. Die zweite Fragestellung untersucht Siedlungsmuster und Siedlungsabfolgen. Als drittes werden bevorzugte Lageparameter in den unterschiedlichen Epochen untersucht. Durch den Vergleich der beiden Datensätze können im Poster Vor- und Nachteile der in der Masterarbeit angewandten befundbasierten Methode dargestellt werden, die abschließend bewertet wird.
Richard Schönpflug, Maximilian Vogelsang, Robert Kühl, Hubert Mara: Kantenextraktion und -visualisierung zur automatisierten Umzeichnung
Assyrologie umfasst das Studium von Kulturen, welche im Zusammenhang mit Keilschrift stehen. Diese wurde über drei Millenia vor Christus im antiken, mittleren Osten verwendet. Die Anfertigung von Abschriften von hunderttausenden Dokumenten mit Keilschrift ist eine aufwändige Aufgabe und wirft die Frage nach automatisierten Programmen auf, welche die Assyrologen in ihrem Tagesgeschäft unterstützen.
Die Digitalisierung von Keilschrifttafeln wird zunehmend mit 3D-Scannern durchgeführt, welche irreguläre Dreiecksgitter im R³ erstellen. Diese Gitter, oder auch Meshes, sind diskrete Manigfaltigkeiten, welche zuerst durch Multi-Scale Integral Invariants (MSIIs) gefiltert werden um sie für die Visualisierung vorzubereiten. Um Handzeichnungen zu imitieren können 3D-Messdaten mit Hilfe des NPR (Non-Photorealistic Rendering) dargestellt werden. Ein wichtiges Merkmal solcher Zeichnungen ist das hervorheben von Umrissen und wichtigen Formen im Objekt durch durchgezogene Lininen. Kantenerkennung wird benutzt um diese Linien automatisch zu erkennen und hervor zu heben. Dabei wird im Fall von MSII die gaussche Krümmung der Oberflächenfunktion des Objektes approximiert, an deren Nullstellen Kanten vermutet werden. Um Rauschen zu unterdrücken wird dann die mittlere Krümmung derselben Funktion approximiert und nur Nullstellen in Gebieten mit einer hohen mittleren Krümmung werden als Kanten akzeptiert.
Um eine Vektorzeichnung als Scalable Vector Graphic (SVG) zu extrahieren wird ein Ridge Tracing durchgeführt, das auf der Idee der Non-Maximum Suppression basiert. Diese wird im Canny Edge Detektor für Rasterbilder genutzt. Im Gegensatz zum Canny Edge Detektor, mussten wir (i) die Methode an eine willkürliche Anzahl von benachbarten Vertices anpassen, welche im Falle von planaren Flächen vorher vereinfacht werden müssen; (ii) einen Schätzer für die Gradientenrichtung implementieren, da diese nicht vom MSII Filter bereitgestellt werden kann; (iii) stellten wir eine Randbehandlung bereit, da Meshes, welche auf realen Messdaten beruhen oftmals fehlende Teile beinhalten. Die gesamte Arbeit wurde in unserem modularen GigaMesh Software Framework durchgeführt. Der Ansatz wurde auf realen und synthetischen Datensätzen evaluiert und zeigt eine Laufzeitkomplexität von O(n) auf. Für die Extraktion ist lediglich ein Parameter zu wählen.
Die Ergebnisse in Form von NPR Visualisierung und SVG Zeichnungen aus den zugehörigen Abschlussarbeiten sollen an Hand von einigen komplexen Datensätzen in Form eines Posters präsentiert werden.
Die Digitalisierung von Keilschrifttafeln wird zunehmend mit 3D-Scannern durchgeführt, welche irreguläre Dreiecksgitter im R³ erstellen. Diese Gitter, oder auch Meshes, sind diskrete Manigfaltigkeiten, welche zuerst durch Multi-Scale Integral Invariants (MSIIs) gefiltert werden um sie für die Visualisierung vorzubereiten. Um Handzeichnungen zu imitieren können 3D-Messdaten mit Hilfe des NPR (Non-Photorealistic Rendering) dargestellt werden. Ein wichtiges Merkmal solcher Zeichnungen ist das hervorheben von Umrissen und wichtigen Formen im Objekt durch durchgezogene Lininen. Kantenerkennung wird benutzt um diese Linien automatisch zu erkennen und hervor zu heben. Dabei wird im Fall von MSII die gaussche Krümmung der Oberflächenfunktion des Objektes approximiert, an deren Nullstellen Kanten vermutet werden. Um Rauschen zu unterdrücken wird dann die mittlere Krümmung derselben Funktion approximiert und nur Nullstellen in Gebieten mit einer hohen mittleren Krümmung werden als Kanten akzeptiert.
Um eine Vektorzeichnung als Scalable Vector Graphic (SVG) zu extrahieren wird ein Ridge Tracing durchgeführt, das auf der Idee der Non-Maximum Suppression basiert. Diese wird im Canny Edge Detektor für Rasterbilder genutzt. Im Gegensatz zum Canny Edge Detektor, mussten wir (i) die Methode an eine willkürliche Anzahl von benachbarten Vertices anpassen, welche im Falle von planaren Flächen vorher vereinfacht werden müssen; (ii) einen Schätzer für die Gradientenrichtung implementieren, da diese nicht vom MSII Filter bereitgestellt werden kann; (iii) stellten wir eine Randbehandlung bereit, da Meshes, welche auf realen Messdaten beruhen oftmals fehlende Teile beinhalten. Die gesamte Arbeit wurde in unserem modularen GigaMesh Software Framework durchgeführt. Der Ansatz wurde auf realen und synthetischen Datensätzen evaluiert und zeigt eine Laufzeitkomplexität von O(n) auf. Für die Extraktion ist lediglich ein Parameter zu wählen.
Die Ergebnisse in Form von NPR Visualisierung und SVG Zeichnungen aus den zugehörigen Abschlussarbeiten sollen an Hand von einigen komplexen Datensätzen in Form eines Posters präsentiert werden.
Lutz Schubert, K. Jeffery: Methoden der Simulation von menschlichem Verhalten in „Shell Middens“
Die sogenannten „Shell Middens“ (grob übersetzt: „Muschelhaufen“) wie sie z.B. auf den Orkney Inseln zu finden sind, entstanden – so wie weitläufig angenommen – als Beiprodukt der Ernährungsgewohnheiten der meso- (bzw. neo-)lithischen Menschen, die die entsprechende Region saisonal nutzten. Diesem Bild zufolge fischten die saisonalen Siedler nach verschiedenen marinen Nahrungsquellen, u.a. eben Muscheln, die nach Verzehr dann in mehreren Haufen zusammengeschmissen wurden. Dabei ist eine klare Orientierung um Feuerstellen herum einfach zu sehen. Da diese Regionen oft über Jahrhunderte hinweg benutzt wurden, erhaben sich so bis zu mehreren Meter hohe Haufen, die so charakteristisch für „shell middens“ sind. Andererseits läßt gerade diese Anordnung, also die implizite Wiedernutzung von Feuerstellen, also auch Funde in den Muschelhaufen, wie z.B. menschliche Knochen, als auch Strukturen Zweifel daran aufkommen, dass die Anordnung rein zufällig entstand und nicht gewisse Muster und Intentionen reflektiert. So argumentieren einige Archäologen z.B. dass die Anordnungen „mnemonisch“ sind, also sowohl Erinnerungen hervorrufen, als auch gezielt solche konstruieren, um z.B. Eigentumsansprüche durch die Ahnenlinie zu markieren. Dies würde bedeuten, dass die Anordnung keinesfalls rein zufällig ist, sondern gezielt manipuliert wurde, also zumindest bis zu einem gewissen Grad „intentional“ ist. Wie läßt sich dies aber nachweisen? In dem Vortrag wollen wir auf die verschiedenen Methoden, die verwendet werden können, um das menschliche Verhalten in diesem Kontext zu simulieren eingehen. Dabei stellt die chaotische Natur der Situation eine besondere Herausforderung an die Simulation dar: prinzipiell erlaubt die nicht-intentionale Anordnung (also das reine Wegwerfen von Essensüberresten) eine Vielzahl von gelichwahrscheinlichen verschiedenen Formen, von denen die aufgefundene nur eine darstellen könnte. Obwohl die Prinzipien, die zu der Anhäufung führen könnten mit einfachen physikalischen Simulationen nachgestellt werden können, kann eine Umkehrfunktion von Häufung auf menschliches Verhalten nicht gebildet werden. Wir können das Prinzip allerdings dazu nutzen, um die Wahrscheinlichkeit für die vorgefundene Anhäufung abzuschätzen. Dank der Funde von Feuerstellen als auch Wissen über die landschaftlichen Bedingungen kann zum Beispiel der Einfluss von Wind auf sowohl Sitzrichtung, als auch Wurfkurve berücksichtigt werden. Die gefundenen Anhäufungen müssen damit in realistischen Parametern und Abweichungen liegen, um so prinzipiell zufällig entstanden zu sein. Weichen die Parameter zu sehr ab, müssen weitere Faktoren (Intention) eine Rolle gespielt haben. Dies ist eine rein experimentelle Arbeit, die sich noch in der Anfangsphase befindet. Sie basiert auf den Arbeiten die 2016 auf der CAA in Hamburg und Oslo präsentiert wurden, in welcher es darum ging, physikalische Eigenschaften von Materialien zu benutzen um Stratigraphien zu rekonstruieren. Mit der vorgestellten Arbeit wird das Ergebnisse um weitere physikalische Methoden ergänzt, die so z.B. auch erlauben würden, Strukturen und Veränderungen an den Stratigraphien besser abschätzen zu können.
Till F. Sonnemann, Jason Laffoon, Termeh Shafie: Eingrenzung der Ursprungsgegend archäologischen Materials durch statistische und visuelle Korrelation von Isoscapes
Datensätzen von regional unterschiedlicher Isotopenzusammensetzung bieten neue Chancen die mögliche Herkunft von archäologischen Fundstücken räumlich einzugrenzen. Das geht deshalb, weil diese Isoscapes für jedes Element verschieden sind, mit unterschiedlich starker Abhängigkeit von z. B. dem Klima, dem geologischen Untergrund, der Entfernung zu Wasser, der Höhe über dem Meeresspiegel, und dem Breitengrad haben. Mit der Korrelation zweier verschiedener Isoscapes lässt sich die Ursprungsgegend von potentiell nicht lokalem Material noch besser eingrenzen. Ursprünglich in der Ökologie angewandt, um Vogelmigration durch die Messung von Isotope Feder besser zu verstehen, wurden zwei Ansätze angewandt um mehr standardisierte und quantitative Ansätze auch in der Archäologie zu testen. Das einfachere, ausschließende Verfahren vergleicht die Werte der Messungen mit verschiedenen Isoscapes, und blendet alle Bereiche, in dem eine der Isotopenmessungen nicht innerhalb des Fehlerbereichs liegt, aus. Der zweite Ansatz gebraucht die Wahrscheinlichkeitsdichtefunktion mit ein oder zwei Variablen um die Herkunft als Wahrscheinlichkeit darzustellen. Erste Untersuchungen wurden aus Ergebnissen von 87Sr/86Sr- und δ18O-Proben durchgeführt, die aus dem Schmelz der harten, mineralisierten Zahnoberfläche moderner und archäologischer Zähne gewonnen wurden. Die Tests zeigen sowohl ihr Potenzial als auch ihre Grenzen. Der duale und geplante Multi-Isotopen-Ansatz in Verbindung mit einer kontinuierlichen Verbesserung der Isoscape bietet neue Möglichkeiten, archäologische Proben aus der Geoprovenienz besser zu analysieren.
Elisabeth Trinkl, Dirk Rieke-Zapp: Von Angesicht zu Angesicht – Fallbeispiele für eine archäologische Auswertung durch quantitative Analyse
Die Dokumentation archäologischer Artefakte, insbesondere jener, die mittels Matrizen hergestellt wurden, stellte immer eine große Herausforderung dar, da die Dreidimensionalität weder mit konventionellen Zeichenmethoden noch photographisch ausreichend erfasst werden kann. Hier können computerunterstützte Dokumentationsmethoden, die ein dreidimensionales Modell berechnen, Abhilfe schaffen. Sie unterstützen die archäologische Analyse, im Besonderen bei einer exakten Bemaßung und dem Erkennen von Details. Die Möglichkeiten, die sich dadurch für den Archäologen eröffnen, sollen anhand eines laufenden Forschungsprojektes zu attischen Kopfgefäßen vorgestellt. Die griechische Gefäßkeramik ist in erster Linie durch ihre figürlich dekorierten Oberflächen bekannt; die Gefäße selbst wurden zumeist auf der Töpferscheibe hergestellt. Daneben gibt es aber eine große Gruppe von Gefäßen, die mittels Matrizen, also Negativformen, hergestellt wurden. Bei diesen Gefäßen wird der Gefäßkörper als menschlicher oder tierischer Kopf gestaltet, dessen Vorder- und Rückseite aus je einer Negativform gefertigt wird. Diese sogenannten Kopfgefäße wurden in Athen im späten 6. und 5. Jahrhundert v. Chr. hergestellt. Sie stehen im Mittelpunkt des an der Universität Graz durchgeführten Forschungsprojektes, das sich auf die Fertigung der Kopfgefäße konzentriert. Die Fertigungstechnik mittels Matrizen (Negativformen) ermöglichte eine Serienproduktion größerer Stückzahlen von annähernd identischen Gefäßen, die von Athen aus in den gesamten Mittelmeerraum exportiert wurden. Die quantitative Analyse der dreidimensionalen Modelle dieser Kopfgefäße lässt eine objektive Bewertung zu, welche Gefäße als ähnlich und welche als ident anzusehen sind, auch wenn sie heute an verschiedenen Orten verwahrt werden. Daraus sind wichtige Informationen für die Abläufe in den attischen Werkstätten, für die Handelsbeziehungen und schließlich für die Datierung der Kopfgefäße zu gewinnen.