Freitag, 5.2.2015
ab 11:00 h | Registrierung geöffnet | |
13:00 h | Begrüßung | |
13:15 h | Christoph Rinne
Strukturen schaffen. Eindeutigkeit und Stringenz für die Interoperabilität digitaler Ausgrabungsdaten
Seit über 25 Jahren werden auf Ausgrabungen Raumdaten zunehmend mittels Tachymeter erfasst und regelhaft in dem Programm AutoCAD als komplexe Grabungspläne registriert und archiviert. Trotz dieses langjährigen Einsatzes ist eine Schulung oder Professionalisierung der Anwender im Fach nicht erfolgt und Strukturvorgaben haben nur sehr verspätet Eingang in die Grabungsrichtlinien der Denkmalämter gefunden. Im Ergebnis liegen Ausgrabungspläne, eine Grundlage unserer Wissenschaft, als umfangreiche Datenbestände mit einer sehr heterogenen und oft inkonsistenten Struktur vor.
Im Rahmen des Workshops befasst sich der Vortrag auf drei Ebenen mit dieser Problematik. 1. Darstellung von einfacher Programmierung in AutoCAD zur Förderung der stringenten Strukturierung und der Konsistenz von CAD-Plänen in der Zukunft. Behandelt werden die einheitliche Anlage und Gestaltung von Layern,die Automatisierung einzelner Arbeitsschritte im Messvorgang und die Integration von automatisch abrufbaren Informationen durch Blöcke mit Attribut. 2. Darstellung von Arbeitsabläufen und Techniken zur effizienten Reorganisation und Aufbereitung von CAD-Plänen für den nachfolgenden Transfer in ein GIS (SpatiaLite). Hier wird u.a. auf Möglichkeiten zur Strukturdokumentation, der gezielten Filterung von Informationen nach diversen Kriterien, der Aufbereitung von Daten und typische, oft verborgene Fehler in CAD-Plänen eingegangen. 3. Grundlegendes zur Arbeit mit SpatiaLite als Datenbackend für ein GIS im Desktopbereich. Neben dem Vorteil auf SQL, einem plattformunabhängigem und offenen Datenstandard zu basieren, und der unkomplizierten Speicherung von 3D-Informationen bietet SpatiaLite echte Datenbankfunktionalität. So können gespeicherte SQL-Abfragen mit Geometrieobjekten in einem GIS dargestellt werden und vermeiden hierdurch die beständige Replikation und unnötige Vervielfachung von Datenbeständen. |
|
13:40 h | Joerg Räther, Benjamin Ducke
NormA – Normalisiertes Geodatenschema Archäologie
Die Erfassung und Speicherung von Geodaten im Rahmen der digitalen Dokumentation archäologischer Ausgrabungen birgt zahlreiche noch nicht befriedigend gelöste Probleme. Im Bereich CAD stehen zwar für die Erfassung der Geometrien ausgereifte Zeichenwerkzeuge zur Verfügung, aber die Verknüpfung der zeichnerischen Dokumentation mit Sachdaten gestaltet sich schwierig. Hierfür sind GIS prädestiniert, welche wiederum Schwächen in der Darstellung und Bearbeitung von 3D-Daten aufweisen. Zudem erfolgt die Datenspeicherung von CAD-Daten ausschließlich dateibasiert, während man bei GIS-Daten datei- oder datenbankbasierte Speichermöglichkeiten etablieren kann. Da dateibasierte Speicherung auch dateibasierte Langzeitarchivierung bedeutet, was früher oder später zur Migration von Dateiformaten führt, erscheint die Verwendung eines GIS in Kombination mit einer Geodatenbank nach diesen Überlegungen als beste Lösung. Mit PostgreSQLS/PostGIS steht hier zudem eine robuste FOSS-Anwendung zur Verfügung. Ein solcher Primärdatenspeicher zur Aufbewahrung von Geometrien der Grabungsdokumentation sollte keinesfalls in starrer Abhängigkeit zu einer bestimmten Anwendung, einem WebGIS oder DesktopGIS, konzipiert werden. Stattdessen sollte dafür Sorge getragen werden, dass die Anwendungen austauschbar sind und die Daten nicht in Abhängigkeit zu Modifikationen der Anwendungen migriert werden müssen oder die Datenintegrität gefährdet ist. Hierfür ist es notwendig, ein möglichst einfaches und intuitives Datenschema zu verwenden. Auf Basis dieser grundsätzlichen Überlegungen wurde das Normalisierte Geodatenschema Archäologie NormA entwickelt. Es liegt derzeit in der Fassung v0.1 vor und umfasst den Kern der Modellierung der Entitäten und Relationen. Die Modellierung der Entitäten erfolgte dabei in Anlehnung an CRMarchaeo. Das Projekt NormA erfährt auf der Sachdatenebene eine Ergänzung durch die Verknüpfung mit der Grabungsdatenbank archaeoDox, da für die Handhabung komplexer Sachdaten in einem GIS üblicherweise weder eine entsprechende Benutzeroberfläche zur Verfügung steht, noch in jedem Fall für alle Entitäten, wie z.B. nicht eingemessene Funde, exakte Raumbezüge vorhanden sind. Dieser Ansatz ermöglicht eine Reduzierung des Datenschemas auf diejenigen Entitäten, welche tatsächlich im GIS abbildbar sind.
|
|
14:05 h | Thomas Engel, Florian Thery
E1-P1-Arches! Aspekte interoperabler Modellierung und Bereitstellung archäologischer Fachdaten mit dem Arches Framework
Die heterogene Natur archäologischer Daten wird bis heute meist in relationalen Datenbanken abgebildet. Datenmodellierungen mit NoSQL-Datenbanken oder in Graphen, fristen auch im Jahr 2015 noch ein Nischendasein, obwohl die konzeptionellen wie auch die technischen Grundlagen seit langem zur Verfügung stehen und einen Zugang in das Web 3.0 und in die Linked Data Cloud ermöglichen.
Das i3mainz (Institut für Raumbezogene Informations- und Messtechnik) arbeitet in verschiedenen Projekten mit interdisziplinären Kontexten an Graphenstrukturen, insbesondere auch an der Modellierung jener mit Hilfe des W3C-standardisierten Resource Description Framework (RDF). Ein besonderes Augenmerk liegt dabei bei der Evaluation von Methoden zur standardisierten und interoperablen Vorhaltung komplexer archäologischer Fundstellendaten. Die technische Basis bildet dabei das auf dem CIDOC Conceptual Reference Model (CIDOC CRM) und Simple Knowledge Organization System (SKOS) basierende ARCHES Heritage & Management System. Die von Kooperationspartnern innerhalb des Mainzer Zentrum für Digitalität in den Geistes- und Kulturwissenschaften»mainzed« in unterschiedlicher Form zur Verfügung gestellten archäologischen Fachdatenkönnen für eine Vielzahl von Szenarien als exemplarisch angesehen werden. Ziele der Initiative sind die standardisierte und interoperable Vorhaltung strukturiert modellierter archäologischer Datensätze. Dabei steht die Abbildung möglichst vieler Prozesse wie etwa Abfrage, Pflege, Erweiterung und Analyse im Mittelpunkt, welche auch von nicht direkt im Projekt involvierten Wissenschaftlern erbracht werden sollen. Das Paper präsentiert technische Grundlagen semantischer Datenmodellierung unter Verwendung von CIDOC CRM. Weiterhin werden prototypische Fragestellungen behandelt: Welche Voraussetzungen sollten Daten hinsichtlich Aufbau und Struktur erfüllen? Welche Schritte sind zur Datenintegration in vorhandene Graphenstrukturen nötig? Wie können diese Strukturen erweitert und auf individuelle Bedürfnisse angepasst werden? Welche prototypischen Probleme wurden dabei identifiziert? Welchen Vorteil bieten interaktive Web-Tools zur Erstellung von Thesauri (Authority Files) als Linked Open Data wie z.B. der Reference Data Manager oder das Labeling Systemgegenüber herkömmlich verwendeter, nicht HTTP-adressierbarer und nicht zitierbarer kontrollierter Vokabulare? Abschließend wird diskutiert, inwiefern CIDOC CRM modellierte Daten überhaupt geeignet sein können, eine Basis für interoperable Systeme darzustellen. Ist die CIDOC CRM inhärente Komplexität nicht gerade deswegen als problematisch zu bezeichnen? Können auf Triple basierende Modellierungen ein gleichwertiger Ersatz für auf Tupel (relationale Datenbanken) basierende Datenstrukturen darstellen oder sogar einen Mehrwert bezüglich bislang unbeantworteter Fragestellungen bilden? Welche Vorteile für den wissenschaftlichen Diskurs sind kurz- und langfristig zu erwarten? |
|
14:30 h | Benjamin Ducke, Lukas Goldmann, Rainer Komp, Friedrich Lüth, Ingo Petri
Entwicklung von Hard- und Software für Multisensor-Geomagnetik und GIS-basierte Signalverarbeitung
Das DAI is seit längerer Zeit im Bereich der Entwicklung integrierter Multisondensysteme für die geomagnetische Prospektion engagiert. Durch ihre enorme Flächenleistung stellen diese trotz relativ hoher Anschaffungspreise eine kosteneffiziente und vor allem schnelle Technologie zur archäologischen Prospektion großer Areale dar.Fortschritte bei der Sondenkonstruktion und der Systemelektronik haben dazu geführt, dass der Sondenabstand signifikant verringert und die Messdichte in Bewegungsrichtung erhöht werden konnte. Im Ergebnis erreichen die aktuellen Gradiometer-Systeme eine mit LiDAR vergleichbare Datendichte. Allerdings stellen die produzierten Daten auch stark erhöhte Anforderungen an die zu ihrer Verarbeitung verwendete Software. Spezialisierte Software zur Signalverarbeitung ist häufig nicht in der Lage, georeferenzierte Daten mit derselben Flexibilität und Performanz wie ein GIS zu verarbeiten. Umgekehrt fehlen letzteren die sehr spezifischen Funktionen zur Signalverarbeitung, welche für die Behandlung der typischen Fehlerquellen in Geomagnetikdaten benötigt werden.Der Vortrag stellt neue softwaretechnische Ansätze vor, welche in der Lage sind, auch größte Messdatenmengen effizient zu verarbeiten und in GIS-Daten umzuwandeln. Dabei werden Probleme wie die exakte Referenzierung von Sensormessungen per DGPS mit Zeitstempelabgleich, die Glättung von schwankenden Sensormittelwerten in Gradiometermessungen und das performante Ausdünnen von überlappenden Punktwolken/Spuren behandelt. Die Datenprozessierung kann einerseits auf der Kommandozeile (die sich bspw. auch auf einem entfernten Server starten lässt) und andererseits im Open-Source-GIS “gvSIG CE” (gvsigce.org) geschehen. Letztere Plattform bietet eine konkurrenzlose Performanz, die eine interaktive Handhabung von großen Messpunktwolken auf üblichen PCs ermöglicht.
|
|
14:55 h | Judith Massa, Hubert Mara
Keilschriftdetektion in vektorisierten Rasterbildern
Keilschrift ist eine der ältesten bekannten Schriftformen, die über drei Jahrtausende im vorderen Orient verwendet wurde. Ein Keilschriftzeichen besteht aus keilförmigen Eindrücken eines eckigen Stylus in einer Tontafel. Bis zum heutigen Tag wurde eine enorme Menge an Keilschrifttafeln freigelegt, die im Umfang den Texten in Latein bzw. Altgriechisch entsprechen. Traditionell werden die Tafeln in Form von Umzeichnungen mit Tinte auf Papier publiziert. Moderne Experten der Assyriologie benutzen für die Umzeichung mittlerweile digitale Photos, die als Grundlage einer digitalen Handzeichnung dienen. Diese sind zusätzlich kompatibel zu Zeichnungen, die mit Hilfe von dreidimensional vermessenen Tafeln berechnet werden. Damit bilden diese beiden Arten von Vektorzeichnungen die digitale Grundlage für weitere Forschungen im Bereich der automatisierten Zeichenerkennung und Paläographie.
Um ältere Publikationen ebenfalls mit digitalen Methoden im Sinne der Digital Humanities zu erschließen und Inhalte von Tafeln leicht verfügbar zu machen, zeigte diese Arbeit die Berechnung von Umzeichnungen aus retrodigitalisierten Zeichnungen und deren Repräsentationen durch kompakte Dateien im Scalable Vector Graphics (SVG). Dafür wird aus den Rastergraphiken zuerst durch Bitmap Tracing eine SVG-Datei berechnet, die shapes (Formen) mithilfe von Bézier Kurven darstellt. Die shapes umschließen danach die Ränder einer Linie. Da jedoch nur das Skelett der Linie (c.f. Mittellinie) zwischen den Rändern benötigt wird, wird eine Diskretisierung durch Punkte auf den Kurven vorgenommen und ein Voronoi-Skelett jeder Form berechnet. Da sich Keile berühren und überlappen beschreibt jedes Skelett mitunter mehrere Keile. Daher werden Verzweigungen im Skelett mit einem bestimmten Abstand – abhängig von der Keilgröße – zum Rand der Form bzw. den Endknoten des Skeletts als Keilkopf vom Typ I klassifiziert. Keile deren Kopf nicht ausgemalt wurde, ergeben dreieckige Zyklen im Skelettgraphen und werden damit als Anzeichen für die Position von Keilköpfen vom Typ II betrachtet. Von diesen Stellen werden die Kanten des Keileindruckes rekonstruiert, indem die Pfade der Skelettgraphen verfolgt werden. Dabei wird überprüft, ob die Kanten der Pfade die Grenzen der ursprünglichen Form überschreiten. Zusätzlich werden die Zwischenwinkel an den Verzweigungen der Pfade mit Erwartungswerten berechnet um Artefakte der Skelettierung auszuschließen. Nach der Rekonstruktion als SVG werden die Zwischenwinkel weiter verwendet, um unwahrscheinliche Kandidaten für Keileindrücke zu entfernen. Ein iterativer Algorithmus reduziert schließlich die Menge der verbleibenden Keile, die letztendlich als SVG-Datei exportiert wird. Durch diese Vorgehensweise können im Normalfall über 90% der Keileindrücke richtig erkannt werden. Für weiterführende Arbeiten können erweiterte statistische Methoden angewandt werden, um diese Ergebnisse sogar noch zu verbessern. |
|
15:20 h | Postersession | |
15:30 h | Pause | |
16:10 h | Thorsten Behrens, Karsten Schmidt, Matthias Lang
Ein semi-automatisches UAV-System zur großflächigen Kartierung archäologischer Fundstellen
Unser Vortrag wird sich mit dem Einsatz eines semi-automatischen Hexacopters bei der Kartierung großflächiger archäologischer Fundstellen im Vergleich mit den bekannten low-cost Lösungen auseinandersetzen. Darüber hinaus werden wir ein neu entwickeltes, voll integriertes Structure-From-Motion-Softwarepaket präsentieren und auch dieses mit den bekannten Systemen vergleichen.
Der von uns verwendete Hexacopter verfügt über eine Flugzeit von bis zu 45 Minuten mit einem Batteriepack und die Missionen werden vor Ort mit einer Tablet-basierten Software erstellt und anschließend voll automatisch gestartet. Das System kann gleichzeitig eine RGB- und eine Infrarot-Kamera in einem Nadir-gelagerten Gimbal tragen. Die aufgezeichneten GPS-Positionen können mit den Ergebnissen einen Basisstation nachprozessiert werden und erreichen somit eine Präzision im Dezimeterbereich, womit die zeitaufwendige Verwendung von Ground-Control-Points entfallen kann. Die von uns entwickelte Software basiert auf dem Open-Source-Paket MicMac und erlaubt einen nahtlosen Workflow vom Einlesen der Bilder bis zum fertigen Orthofoto und DEM. Zudem sind verschiedene Werkzeuge zum Post-Processing der Ergebnisse implementiert. So können beispielsweise Farbkorrekturen oder die Berechnung von Vegetationsindizes (NDVI, VI, etc.) direkt innerhalb des Pakets durchgeführt werden. Abschließend können die generierten Produkte direkt in einer HTML-Seite als 3D WebGL-Modelle präsentiert und zum Download in standardisierten Formaten bereitgestellt werden. In einem zweiten Schritt werden wir anhand dreier Fallstudien aus Kamarina (Sizilien), dem Heidengraben (Baden-Württemberg) und Al Khashabah (Oman) die Vor- und Nachteile des Systems sowie unseren Workflow diskutieren. Zudem werden wir einige der generierten Ergebnisse mit hochauflösende LIDAR-Scans vergleichen und auch hier Vor- und Nachteil der beiden Methoden aufzeigen. Wir werden zeigen, dass derartige, weitgehend automatisierte Systeme ein hervorragendes Werkzeug bei der präzisen und effizienten Kartierung auch großer Fundstellen darstellen. |
|
16:35 h | Marco Block-Berlitz, Benjamnin Gehmlich
Archaeocopter: Echtzeit-3D-Rekonstruktionen durch Videogrammetrie
Der Einsatz von Photogrammetrie in der Archäologie wird heutzutage mehr und mehr von hochauflösenden Kameras, komplexen Flugsystemen, kommerzieller Software und teurer Begleitung durch Experten bestimmt. Das führt dazu, dass Photogrammetrie oft nur bei ausgewählten Projekten mit entsprechendem Budget angewendet wird. Die Flug- und Kamerasysteme erfordern zudem oft einen hohen Transportaufwand.
Die Annahme (und damit die Legitimation für diese Präferenz), dass nur eine geplante Anzahl von hochaufgelösten Einzelbildern zu einem hochaufgelösten, “präzisen” 3D-Modell führen kann, ist allerdings falsch. Die vielen Jahrzehnte der Forschung auf dem Gebiet der Echtzeit-Robotik haben Methoden hervorgebracht, die die gleichen Probleme wie in der klassischen Fernerkundung lösen und dafür die gleichen mathematischen Modelle verwenden. Allerdings arbeiten kamerabasierte Echtzeitsysteme in der Robotik oft nur mit limitierten Sensoren, sind robuster, erheblich schneller und flexibler. Wir stellen einen videogrammetrischen Ansatz vor, der eine fehlertolerante, robuste und kostengünstige Alternative zur klassischen Photogrammetrie darstellen oder erstere sinnvoll ergänzen kann. Mit dem Ziel 3D-Modelle von Grabungen oder archäologischen Artefakten bereits vor Ort in Echtzeit zu produzieren, wurde das Softwarepaket Archeo3D entwickelt. Basierend auf freier Software werden Parameter entsprechend den Zielstellungen angepasst und interne Arbeitsabläufe optimiert. Einen zentralen Baustein stellt das Programm “JKeyframer” dar, das im Projekt “Archaeocopter” kontinuierlich weiterentwickelt und der Videogrammetrie-Andwenderschaft als freie Software zur Verfügung gestellt wird. Die Praxistauglichkeit dieses Ansatzes wurde in mehr als 30 nationalen und zahlreichen internationalen Dokumentationskampagnen unter Beweis gestellt. Dabei wurden inbesondere die Grenzen der Machbarkeit studiert. Jeder kann den Umgang mit moderner Videogrammetrie lernen und komplett freie Software nutzen, um Kulturgüter zu dokumentieren und digital zu präsentieren. |
|
17:00 h | Oliver Nakoinz, Franziska Faupel
Modelle des wahrgenommenen Raumes
Die quantitative Archäologie verfügt über zahlreiche räumliche Modelle. Diese werden in der Regel aus einer analytischen Sicht definiert und representieren gewissermaßen eine “Sicht von oben”. Wenngleich diese Modelle eine Realität vergangener Zeiten abbilden mögen, so ist doch kaum anzunehmen, dass sie der Wahrnehmung des vor- oder frühgeschichtlichen Menschen entsprechen. 3D-Modelle, insbesonderer kleinräumiger Gebiet, nehmen eher den Standpunkt der damaligen Menschen ein, berücksichtigen aber kaum die Verzerrungen des Raums, die der individuellen Wahrnehmung entspricht.
Wir möchten einen Ansatz zur Erstellung kognitiver Karten vorstellen, der zwar zweifellos ebenfalls nicht der individuellen Wahrnehmung entspricht, aber der gemeinsamen Wahrnehmung einer Gruppe deutlich näher kommt. Derartige Karten können eine wertvolle Unterstützung bei der Interpretation von Fundstellen und ihrer Beziehung zum Umland sein. Zunächst werden unterschiedliche Distanzen zum Standpunkt des Beobachters ermittelt. Hierbei kommen least-cost Distanzen ebenso zu Einsatz, wie kulturelle Distanzen. Diese Werte werden zur Verzerrung des geographischen Raumes genutzt, die mittels eines Rubber-sheet Ansatzes vorgenommen wird. Die Verwendung eines polaren Koordinatensystems, das auf dem Standort des Beobachters zentriert ist, vereinfacht dies. Weiterhin werden die Verzerrung von Richtungen, die Größe von Kartensymbolen und die Verwendung von Schwellenwerten diskutiert. Das Ergebnis sind unterschiedliche kognitive Karten, die jeweils spezifische Aspekte berücksichtigen. Eine besondere Herausforderung besteht in der der Kombination der unterschiedlichen Gesichtspunkte in einer Karte, da eine Gewichtung definiert und begründet werden muss. |
|
17.25 h | Mitgliederversammlung der AG CAA | |
ca. 19.00 h | Möglichkeit zum gemeinsamen Abendessen (Selbstzahler) |
Samstag, 6.2.2014
ab 8:30 h | Registrierung geöffnet | |
9:15 h | Sandra Schröer
Rekonstruktion von Territorien als Annäherung an römische Provinzgrenzen
Welchen Beitrag können GIS-gestützte Raumanalysen zur Frage nach dem Verlauf und der Bedeutung römischer Provinzgrenzen leisten? Dieser Frage gehen zwei Dissertation an den Universitäten Freiburg und Zürich nach, die im Rahmen des Projektes „Limites inter Provincias – Roms innere Grenzen“ angefertigt werden. Als Beispiel dient die Provinzgrenze zwischen Rätien und Obergermanien.
Neben der Untersuchung des Siedlungsmusters im Bereich der Grenze spielen Methoden zur Rekonstruktion von Territorien dabei eine große Rolle: Römische Provinzen waren in der Regel in mehrere regionale Verwaltungseinheiten, die Gebietskörperschaften unterteilt. Darüber hinaus waren die Hauptorte solcher Gebietskörperschaften zentrale Anziehungspunkte für die Siedlungen des Umlandes. Da die Grenzen der Gebietskörperschaften im Bereich der Provinzgrenze mit dieser identisch sein sollten, ist eine genauere Kenntnis der Ausdehnung dieser Territorien wertvoll für eine Annäherung an den Verlauf römischer Provinzgrenzen. Es gibt bereits mehrere Versuche, die Ausdehnung von Gebietskörperschaften auf archäologischem Wege zu bestimmen, vor allem mithilfe der Epigrafik. Ein Teilaspekt des Projektes „Limites inter Provincias“ ist es, zu überprüfen, ob diese Territorien auch anhand mathematischer Modelle rekonstruiert werden können. Ein Beispiel hierfür sind Thiessenpolygone, bei denen auf der Mittelsenkrechten zwischen benachbarten Punkten eine theoretische Grenze rekonstruiert wird. Dieser Ansatz kann durch Kostenfunktionen optimiert werden, bei denen der Kostenaufwand, beispielsweise in Form von Zeit oder Energie, statt der Luftliniendistanz zugrunde gelegt wird. Im Rahmen des Vortrags werden solche Kostendistanzmodelle als Annäherung zur Abgrenzung der Territorien römischer Hauptorte am Beispiel des rechtsrheinischen Obergermaniens und westlichen Rätiens vorgestellt und die Anwendung dieser Methode kritisch diskutiert. Darüber hinaus soll anhand dieses Beispiels aufgezeigt werden, inwiefern sich die Quellenvielfalt in römischer Zeit auf die Anwendung und Interpretation solcher Methoden auswirkt. |
|
9:40 h | Donat Wehner
Computergestützte Modellierungen von Handelsbeziehungen in Ostmitteleuropa an der Schwelle zum hohen Mittelalter
Mittelalterliche Handelsbeziehungen können unter den unterschiedlichsten Aspekten betrachtet werden. Man kann sich den Akteuren, ihren Identitäten, Motivationen, Umgangsformen und Wahrnehmungen widmen, man kann der Frage nach den Reiseumständen und den verkehrstechnischen Ausstattungen nachgehen oder sich mit der Art und der Menge der verhandelten Waren beschäftigen, um nur einige der möglichen Aspekte zu nennen. Das Anliegen dieses Beitrags ist es, die Strukturen, Intensitäten und Richtungen von Warenströmen auf unterschiedlichen räumlichen und zeitlichen Skalenebenen im ostmitteleuropäischen Mittelalter des 11. Jahrhunderts offen zu legen. Zur Visualisierung des ökonomischen Beziehungsgeflechtes dienen Netzwerke aus Knoten und Kanten. Als Knoten fungieren Orte mit einer erhöhten Interaktionsdichte, als Kanten die ökonomischen Ströme, die sich entlang von Verkehrsrouten zwischen diesen Orten bewegten. Dabei können die Warenströme sowohl asymmetrisch als auch unterschiedlich gewichtet sein. Ausgehend von Netzwerken, die auf Least-Cost-Path-Analysen und graphentheoretischen Modellen gründen, kommen Netzwerkanalyse- und Space-Syntax-Techniken zum Einsatz um weiterführende Informationen zu den strukturellen Charakteristika und Mechanismen der Netzwerke zu gewinnen. Zu Fragen ist etwa nach der Dichte der Netzwerke. Liegen viele Handelsverbindungen vor oder eher wenige? Von Interesse sind weiterhin Brücken und strukturelle Löcher. Gibt es etwa Orte, die ökonomisch eng verwobene Gebiete miteinander verbinden und wo sind solche Gebiete nicht aneinander angebunden. Auch spielt die Wichtigkeit verschiedener Orte in den Austauschnetzwerken eine Rolle. Die Wichtigkeit kann z. B. in der Menge der Beziehungen (degree centrality), in der Nähe zu anderen Interaktionsknoten (closeness centrality) oder in seiner strategisch günstigen Lage zwischen anderen Interaktionsknoten (betweeness centrality) begründet sein. Um ein dynamisches und differenziertes Ergebnis zu erzielen finden hierbei multiplexe multimodale Netzwerkanalysen Anwendung. Einbezogen werden unterschiedliche Artefaktgruppen als Repräsentanten und Bestandteile des Handels wie Münzen, so genannte Importe, Waagen und Wägegewichte sowie geographische Distanzen und Schriftbelege zu Handelsbeziehungen in verschiedenen Raum- Zeit- Konfigurationen. Durch die Kombination von unterschiedlichen als relevant erachteten Modellen, Datensätzen, räumlichen Ebenen (örtliche, regionale, überregional) und Zeitscheiben lassen sich dynamische Netzwerke entwerfen und sowohl in vergleichender als auch in komplementärer Sicht interpretieren. So lässt sich zum Beispiel das wechselhafte Verhältnis zwischen physischen Distanzen, der Distribution von Waren und der zeitgenössischen Wahrnehmung von Handelsströmen über Affiliationsnetzwerke von Least-Cost-Path-Relationen, Artefaktrelationen und in Schriftquellen vermerkten Handelsrelationen bestimmen. Man erhält eine Idee über verschiedene Arten von Bindungen im Kontext von Handelsaktivitäten, wofür sie gut sind und wie sie sich aufeinander beziehen.
|
|
10:05 h | Tobias Scholz
Abgebrannt vor 1500 Jahren – Auswertungsmöglichkeiten eines keramischen Hausinventars
Eine wahre Katastrophe für die Betroffenen, aber eine herausragende Quelle für Archäologen – das ist unsere Auffassung eines abgebrannten prähistorischen Hauses – und dies nicht ohne guten Grund. Vieles wurde in großer Hast zurückgelassen und sehr wenig im Nachhinein entfernt. Auf Grund der beim Hausbau verwendeten Materialien breitete sich das Feuer manchmal so schnell aus, dass es sogar Todesopfer forderte. Bei der Ausgrabung eines solches Hausbefundes, könnte man meinen eine Momentaufnahme der damaligen Gegebenheiten zu betrachten.“ (Rasmussen 2007, 14).
Im Jahr 2003 konnte in Tinnum auf Sylt ein abgebranntes, völkerwanderungszeitliches Sodenwandhaus freigelegt werden. Dieser Befund bildete die Grundlage meiner 2013 verfassten Magisterarbeit, welche demnächst als Beitrag in der Reihe der Offa-Bücher erscheinen wird. Der Erhaltungszustand dieses vom Feuer zerstörten Gebäudes erwies sich als ausgesprochen gut. Der ehemalige Laufhorizont hatte sich größtenteils erhalten und aus der darüber liegenden Brandschicht konnte ein umfangreiches Fundensemble geborgen werden, welches sich bei der Bearbeitung zwar nicht ganz zu einer „Momentaufnahme“ zum Zeitpunkt des Brandes zusammensetzen ließ, aber einer solchen recht nahe kommt. Anhand der großen Menge der gut erhaltenen Gefäßkeramik, welche größtenteils synchron in den Boden gelangte, bestand die Möglichkeit eine Vergleichsgrundlage insbesondere für die häufig unterrepräsentierte Siedlungskeramik der Völkerwanderungszeit zu schaffen. Aus diesem Grund wurde eine möglichst umfassende Analyse dieser Fundgruppe angestrebt. Da sich eine erhebliche Anzahl räumlich weit entfernter Scherben zu kompletten Gefäßen zusammensetzten ließen, erschien es sinnvoll, dass gesamte keramische Material des abgebrannten Hauses miteinander abzugleichen. Um bei der Suche nach Anpassungen möglichst ähnliche Keramikfragmente miteinander zu vergleichen wurden verschiedene Keramikgruppen anhand schnell zu erkennender Merkmale gebildet und diese anhand einer Seriation geordnet. Diese Vorgehensweise ist zwar relativ zeitaufwendig, dadurch konnten jedoch 85,0 % des keramischen Hausinventares einer Gefäßeinheit zugeordnet werden. Die anschliessende Einzelauswertung der Gefäßmerkmale wurde mittels einfacher deskriptiver Statistik durchgeführt. Um eine Entscheidung für die Zuweisung eines Gefäßes in eine der Gefäßformen zu treffen, erfolgte weiterhin eine zusammenfassende Auswertung der keramischen Einzelmerkmale anhand einer Hauptkomponenten- und einer Korrespondenzanalyse. Letztere stellt einen Schwerpunkt meiner Studien dar, weshalb deren Druchführung und Ergebnisse ausführlich vorgestellt und kritisch hinterfragt werden sollen. Eine ordinäre Hauptkomponentenanalyse erbrachte eine erste grobe Ordnung der Keramikeinheiten anhand der metrischen Werte. Die sechs gemessenen metrischen Werte beschreiben die erstellten Gefäßformen in einem nur unzureichenden Maße. Dennoch bilden die wenigen aufgenommenen Werte eine wichtige Grundlage für die weitere Ausdifferenzierung einzelner Formen anhand einer Korrespondenzanalyse. Die Ordnung von Objekten (Keramikeinheiten) und deren Variabelen (Gefäßmermkalen), die bei der allseits bekannten Korrespondenzanalyse entsteht, wurde in diesem nicht Fall dazu verwendet um daraus eine zeitliche Abfolge herzuleiten, sondern um Merkmale zu bestimmen die sich für eine formale Differenzierung eines großen Anteils der Gefäße eignen. Diese Merkmale bilden die Grundlage für die daraufhin aufgestellten Gefäßformen und Typen. Zum Abschluss sollen die Methoden zur Bestimmung besonderer Brandherde und der Verteilung der Gefäßeinheiten innerhalb des Hausbefundes kurz angesprochen werden. Ersteres wurde anhand der Lageposition, der Anzahl und dem Gewicht der Keramikschlacken durchgeführt. Letzteres war nur durch die Zusammenführung der Informationen und des flächenmäßig größten Anteils der Scherben an einem Gefäß und der dazugehörigen Gefäßabschnitte, wie Rand, Umbruch oder Gefäßboden, möglich. Zur Verknüpfung und Visualisierung dieser Daten bietet sich eine kleinräumige GIS-Analyse mit Dichtekartierungen an. Diese Lageuntersuchungen sind mit vielen Unsicherheiten behaftet, da die Überlieferungsbedingungen, wie ein mögliches nachträgliches Durchsuchen der Hausruine, nicht ganz geklärt ausgeschlossen werden konnte. |
|
10:30 h | Pause | |
10:55 h | Lutz Schubert, Ana Predoi
Reproduktion der Stratigraphie auf Basis von unvollständigen Ausgrabungsberichten
Einige Ausgrabungsberichte aus den Jahren ca. 1950 bis 1970 zeichnen sich durch eine hohe Methodenkompetenz aus, die sich unter anderem in den Profilzeichnungen der Ausgrabungsstätte und in detaillierten Plänen wiederspiegeln. Fundstücke sind typischerweise exakt kartographiert und deren Orientierung im Raum und zugehörige Schicht explizit notiert. Die Kartierung der horizontalen Schichten fehlt jedoch meistens komplett und auch die Profilkartierung ist häufig auf zwei Wände beschränkt. Bei dem Versuch, die zeitliche Nutzung mesolithischer Stätte in England zu analysieren stießen wir dabei immer wieder auf die Herausforderung, die Ausgrabungsstätte zumindest wieder grob in 3d zu reproduzieren, um einen visuellen Überblick zu erhalten – aufgrund der mangelnden Informationen in diesen Ausgrabungsberichten gestaltet sich die jedoch als ausgesprochen schwierig.
Um diese Arbeit zu beschleunigen und gleich eine computergestützte 3d Visualisierung zu erhalten, haben wie einen grundlegenden Algorithmus entwickelt, der die wahrscheinliche Verteilung der Schichten auf Basis der unvollständigen Daten zu rekonstruieren versucht. Dieser Algorithmus basiert (derzeit) auf zwei primären Methoden: (1) die Annäherung von (dreidimensionalen) Kurven an die vorgegebenen, verzeichneten Schichtengrenzen – dies kann mit einfachen Polynomen n-ten Grades geschehen. Eine solche Methode berücksichtigt jedoch spezielle Eigenschaften der Materialen nicht und kann zu Überschneidungen der Schichten führen. Daher erweitern wir die Method mit (2) logischen, bzw. statistischen Wahrscheinlichkeitskriterien, wie z.B. das Sedimentbildung nicht an zu steilen Hängen (Kurven mit hohen Werten in der 1. Ableitung), oder das trockener aber saugfähiger Sediment nicht direkt mit feuchten Regionen in Kontakt kommen wird (da es sonst zu einer Übertragung der Feuchtigkeit führt) etc. Fundstücke, sofern exakt genug verzeichnet, werden dabei als zusätzliche Kriterien für die Schichtenverteilung berücksichtigt (zusätzliche Punkte für die Polynom-Approximation und statische Wahrscheinlichkeitspunkte im diskretisierten Raum). Ein besonderes Designkriterium bei dem Entwickeln der Software bestand und besteht dabei darin, diese logischen und statistischen Regeln einfach anpassen zu können: nicht nur um die Parameter zu optimieren und an die Umgebung anzupassen, sondern auch um weitere Regeln erstellen zu können, die neue Erkenntnisse repräsentieren. Ziel ist es, langfristig auch (3) Aspekte der zeitlichen Veränderung verschiedener Materialien in den Algorithmus einfließen zu lassen, wie z.B. die Auswirkung von Druck durch weitere Schichtenbildung, klimatische Einflüße etc. Desweiteren können prinzipiell (4) Nutzungs-Kriterien einfließen, die es so erlauben, verschiedene (menschliche) Einflüsse zu simulieren und deren Auswirkung auf die Ausgrabunsstätte zu modellieren. Wir sind jedoch noch weit entfernt von diesem Schritt und untersuchen im Moment vor allem die möglichen Parameter für die beste Repräsentation der Schichten Derzeit wird der Algorithmus mit verschiedenen, möglichst vollständigen Ausgrabungsberichten getestet, die nur partiell in den Algorithmus gespeist werden. Die Abweichung zwischen den Ergebnissen und den tatsächlich vorhandenen Daten gibt damit die Qualität des Algorithmus wieder. Einfache Gräben mit geringem Ausmaß (ca. 2 auf 2 Meter) können dabei zufriedenstellend rekonstruiert werden, jedoch wirkt sich der zunehmende Abstand (größere Ausmaße) rasch auf die Fehlerhaftigkeit aus, die durch verbesserte Parametrisierung hoffentlich reduziert werden kann. Es ist auch offensichtlich, dass der Algorithmus nicht in der Lage ist, fehlende Informationen, wie z.B. sekundärer Kontext, der nicht kartografiert wurde, wieder herzustellen. Die Darstellung durch den Algorithmus muss immer als unterstützende visualisierende Methode zur Modellierung der möglichen Verteilung verstanden werden (wie die menschliche Interpretation in diesem Kontext auch). In dem Vortrag sollen die Grundlagen des Algorithmus vorgestellt und vor allem kritisch diskutiert werden, um dessen prinzipielle Nützlichkeit zu untersuchen – einfachere Methoden mögen hinreichend präzise Daten generieren, die die Visualisierung ausreichend unterstützen. Insbesondere hoffen wir, weitere Interessenten zu finden, die mit ihrer Expertise und Wissen das Modell verfeinern können. Natürlich wird das Programm als open source zur Verfügung gestellt werden. Die Anwendung wird im Rahmen der Abschlussarbeit von Ana Predoi entwickelt und verwendet. Ana Predoi ist Studentin der Archäologie am Birkbeck College London, Lutz Schubert arbeitet an der Universität Ulm als Leiter der Forschungsabteilung heterogene parallele Systeme. |
|
11:20 h | Melanie Schwinning, Hella Harten-Buga, Ute Brinker, Annemarie Schramm
Computertomographie, Stereomikroskopie, 3D-Rekonstruktionen, Morphometrik und Finite-Elemente-Analysen im Einsatz für die anthropologischen/osteoarchäologischen Auswertungen von menschlichem Knochenmaterial des bronzezeitlichen Fundortes im Tollensetal
Im Tollensetal nördlich von Altentreptow (Mecklenburg-Vorpommern) wurden in den 1990er Jahren am Flussufer zwei Holzwaffen zusammen mit Pferde- und Menschenknochen entdeckt. Seit August 2010 wird der Fundplatz mit finanzieller Unterstützung der DFG untersucht. Die zahlreichen Verletzungen an den Menschenknochen sowie Pfeil- und Lanzenspitzen aus der Zeit um 1200 v.Chr. sprechen für Gewaltkonflikte in einem für die Bronzezeit bislang unbekannten Ausmaß. Aus dem Untersuchungsgebiet liegen mittlerweile mehr als 10.000 Menschenknochen vor, die im Rahmen von Dissertationsvorhaben und Masterarbeiten ausgewertet werden.
Die anthropologische/osteoarchäologische Arbeitsgruppe hat es sich zum Ziel gesetzt, mit innovativen Methoden das menschliche Knochenmaterial bzgl. der quantitativen Erfassung, anatomischen Bestimmung und insbesondere der zahlreichen Verletzungsspuren zu analysieren, um detaillierte Aussagen zu den bronzezeitlichen Kampfhandlungen, den am Kampf beteiligten Menschen und verwendeten Waffentypen im Tollensetal zu ermöglichen. Die angewandten Methoden, Technologien und erste Ergebnisse werden im Überblick exemplarisch vorgestellt. So wurden alle Menschenknochen mit den archäologischen sowie anthropologischen Basisdaten (z. B. Fundherkunft, Fund-Koordinaten, Alter, Geschlecht, Knochenerhaltung, metrische Daten) in einer Datenbank erfasst und in ein AutoCad-GIS-System übertragen, um u. a. Verteilungsmuster und zusammengehörende Knochen zu analysieren. Des Weiteren stützen sich die laufenden Studien auf morphometrische Messungen an Schädeln, 3D-Bildanalysen der inneren und äußeren Strukturen der Knochen anhand von Computertomographie und Stereomikroskopie, 3D-Rekonstruktion von Knochenfragmenten und Waffentypen sowie auf biomechanische Analysen bzw. nummerische Simulationen (Finite-Elemente-Analysen) der Verletzungsvorgänge. Basierend auf medizinischen CTs und Micro-CTs wurden 3D-Volumenmodelle der Knochen generiert, welche gemeinsam mit stereomikroskopischen Untersuchungen die Identifizierung forensischer Merkmale an den Verletzungen zuließen. So konnten u. a. Hinweise auf die Ein- und Austrittsrichtung, Größe und Form des Projektils bzw. der verwendeten Waffe ermittelt werden. Anhand der 3D-Modelle wurden zudem Schuss- und Stichkanäle innerhalb der Knochen und/oder noch im Knochen befindliche Fragmente von Waffen zerstörungsfrei sichtbar gemacht, vermessen und rekonstruiert. Die derart gewonnenen Informationen flossen, neben anderen Faktoren, als Randbedingungen in die nummerische Simulation (Finite-Elemente-Analyse) der Verletzungsvorgänge ein. Die komplexen und in hohem Grad dynamischen Prozesse, welche zu Traumata führen sind mit konservativen oder experimental-archäologischen Methoden alleine nur schwer fassbar. Daher wird von uns ein von den Ingenieurswissenschaften entwickeltes Vorgehen angewendet, wie es u. a. auch in der Medizin, Unfallforschung, Forensik und Arbeitswissenschaft seit Jahrzehnten erfolgreich eingesetzt wird, in der prähistorischen Anthropologie aber bislang noch keine relevanten Vorbilder hat. Bezogen auf die traumatologisch veränderten Knochen, lässt sich mit der Finite-Elemente-Methode z. B. die Richtung und Intensität einer auf einen Körper wirkenden Kraft darstellen. Weiterhin kann der Effekt der Kraft auf den Körper (z. B. der Frakturvorgang oder Schussverletzung) simuliert werden. Auf diese Weise konnten von uns die Beziehungen zwischen den am untersuchten Knochenmaterial identifizierten traumatologischen Veränderungen und äußeren mechanischen Einflüssen hergestellt und mit den gewonnenen Daten zur Rekonstruktion des Verletzungsvorgangs beigetragen werden. |
|
11:45 h | Thomas Reuter
Auf den Spuren des Varus: Rekonstruktion chronologischer und räumlicher Abläufe der römischen Germanienpolitik in der augustäischen Epoche mittels HR-3D Scanning römischer Gegenstempel
Nach der Entdeckung des römischen Schlachtfeldes bei Kalkriese haben in den letzten Jahren besonders die Neuentdeckung mehrerer römischer Militärlager aus augustäischer Zeit zwischen Rhein und Elbe (Hedemünden, Wilkenburg) die archäologische Quellenlage zur römischen Präsenz in Germanien erheblich erweitert. Größtes Hindernis bei der Interpretation dieser Fundstellen ist jedoch die fehlende chronologische Feindatierung. Da die Datierung weitgehend über Münzfunde erfolgt, ist deren zum Teil lange Umlaufzeit für die Trennung einzelner römischer Militäroperationen problematisch. Eine erhebliche relativchronologische Verfeinerung kann hier die Auswertung der nachträglich auf den Umlaufmünzen angebrachten Gegenstempel liefern. Diese wurden durch einzelne Kommandeure auf Kupfermünzen aufgestempelt, wenn diese als Geschenke an die Truppen ausgezahlt wurden. Da es sich überwiegend um kleine Nominale handelte, ist eine Zirkulation eher im lokalen Bereich anzunehmen. Gelingt es, die Abnutzung einzelner Stempeltypen sicher zu bestimmen, so können einzelne Münzensembles relativchronologisch zueinander in Beziehung gesetzt und möglicherweise sogar die Bewegungsmuster einzelner Kommandeure rekonstruiert werden.
Im Rahmen des durch den Bernd-Breuckmann-Award 2014 geförderten Projektes wurden römische Asse mit dem Gegenstempel VAR des Varus mit einem optischen 3D-Scanner aufgenommen. Obwohl die Münzen von verschiedenen römischen Fundorten zwischen der Schweiz und den Niederlanden stammen, werden sie in der Literatur auf das gleiche Stempeleisen zurückgeführt. Eine erste Analyse der 3D-Modelle mit Generalized Procrustes-Analysis zeigt, dass eine sichere Zuweisung zu einzelnen Stempeln verifiziert werden kann. Um die zeitliche Reihenfolge der Abschläge des identifizierten Stempels zu erkennen, wurden besonders dem Verschleiß ausgesetzte Stempelareale vermessen und entsprechend des Entwicklungstrends gereiht. Die Feinanalyse der besonders mechanisch beanspruchten Bereiche erfolgte schließlich über den Vergleich der 3D-Analyse mittels eines Best-Fit-Ansatzes. Die ersten Ergebnisse zeigen, dass die Münzen auf Grundlage der Stempelentwicklung nach dem Zeitpunkt ihrer sekundären Stempelung gereiht werden können. Dabei konnten auch zwischenzeitliche Modifikationen wie ein Nachschneiden des Stempels identifiziert werden. Die räumliche Analyse der Fundorte der Münzen spricht zudem dafür, dass die Anbringung des Stempels an unterschiedlichen Orten zu unterschiedlichen Zeitpunkten erfolgte, die sich mit historisch bekannten römischen Aufmarschmustern deckt. Über die konkreten Ergebnisse hinaus kann damit das große Potenzial dieser Methode für die Lösung des feinchronologischen Datierungsproblems römische Fundstellen sowie als wertvolles neues Werkzeug für die Numismatik aufgezeigt werden. |
|
12:10 h | Thomas Kersten, Kristin Schreyer, Maren Lindstaedt, Felix Tschirschwitz
Entwicklung eines virtuellen Museums für archäologische Fundstücke
aus Al-Zubarah in Katar In den meisten Fällen verbleiben archäologische Fundstücke und Objekte gemäß Gesetzgebung im Herkunftsland. Damit können solche Objekte nur sehr eingeschränkt wissenschaftlich oder für Interessierte genutzt werden, da der Zugriff nur wenigen Personen vor Ort möglich ist. Um eine Verbreitung von Informationen über archäologische Objekte zu fördern, ist es eine unerlässliche Voraussetzung, sie mit modernen Messmethoden in 3D aufzunehmen und detailliert zu dokumentieren. Die stetig zunehmende Leistungsfähigkeit von Internet und Computertechnologie kombiniert mit einer schnellen Weiterentwicklung der Algorithmen im Bereich der Computer Vision machen heutzutage eine effiziente und flexible Rekonstruktion der 3D-Geometrie von wichtigen und nachgefragten Kulturobjekten für deren ortsunabhängige Präsentation und für viele zukünftige Anwendungen möglich. Durch 3D-Modellierung, Analyse und Visualisierung dieser Fundstücke z.B. in effizienten web-basierten Datenbanken ergeben sich vielfältige neue Forschungsmöglichkeiten, so dass die Dokumentation der Objekte eine zunehmende Bedeutung erfährt. Im Rahmen von virtuellen Museen können diese Objekte verknüpft mit zusätzlichen Angaben (Metainformationen) im Internet vielen verschiedenen Interessierten und Anwendern gezeigt und somit als Informationsquelle genutzt werden. Somit stellt ein virtuelles Museum in erster Linie eine Sammlung von digitalen, virtuellen 3D-Modelle interessanter Kulturgüter da, die für jeden Interessierten im Internet frei verfügbar sind, um sie interaktiv zu untersuchen und zu erforschen.
In diesem Beitrag wird der Aufbau eines ersten Prototypen für ein virtuelles Museum zur Präsentation archäologischer Fundstücke aus Al-Zubarah in Katar gezeigt. Der Besucher des virtuellen Museums kann sich in Räumen, die durch virtuelle 360 Grad Panoramabilder dargestellt sind, interaktiv bewegen, um die dort platzierten Objekte anzuschauen. Ihm wird zusätzlich die Möglichkeit gegeben, den Museumsinnenraum zu verlassen, um über sphärische Panoramafotos eine archäologische Grabung zu erkunden und wichtige Informationen zu sammeln. Ein wichtiger Aspekt bei der Betrachtung von 3D-Modellen sind die Auflösung des dargestellten Objektes und das damit verbundene Datenvolumen. |
|
12:35 h | Abstimmung “Bestes Poster” und “Bester Vortrag” mit anschließender Verleihung des Preises | |
12:50 h | Verabschiedung | |
13:00 h | Pause | |
14-17 h | Tutorials (mit Kaffee-/Teepause) | Anmeldung erforderlich |
Poster
Georg Roth: Es muss nicht immer CA sein. Die transformationsbasierte
PCA für Inventar-Typ-Tabellen als Alternative zur CA
PCA für Inventar-Typ-Tabellen als Alternative zur CA
In den Archäologien hat die (einfache symmetrische) Korrespondenzanalyse (CA) den Status einer Standardmethode eingenommen. Die CA ist eine Möglichkeit, bei Kreuztabellen, deren Zellen Anzahlen (Abundanzen) von Typen (Spalten) pro Inventar (Zeilen) enthalten, die Inventare nach Ähnlichkeit anordnen zu lassen. Ihr Einsatz basiert allerdings auf einer impliziten Annahme, deren Sinn selten bis gar nicht mehr hinterfragt wird, nämlich: für die Ähnlichkeit der Inventare sind Unterschiede bei den selteneren Typen viel wichtiger, als Unterschiede bei den häufigeren Typen. Was aber, wenn man Inventare einfach nach der Ähnlichkeit ihrer Zusammensetzung anordnen möchte, ohne dabei seltene Typen stärker zu gewichten?
Als erstes denkt man natürlich an die der CA verwandte Methode der Hauptkomponentenanalyse (PCA). Aufgrund des Rechenweges lässt sich die PCA allerdings nur dann sinnvoll als Ähnlichkeitsanordnung auf Abundanzen anwenden, wenn diese eine ganze bestimmte Datenstruktur besitzen: die Fundmengen der Inventare sollten alle etwa die gleiche Größenordnung besitzen. Diese Voraussetzung ist bei Inventarvergleichen aber nur sehr selten gegeben.Der Vortrag stellt eine Lösung dieser Probleme vor, die es erlaubt, Abundanztabellen unterschiedlichster Struktur mit einer PCA ohne (oder mit leichter) Betonung seltener Typen auszuwerten: die sog. transformationsbasierte PCA (tbPCA). Die Umrechnungen (Transformationen) der Abundanzen ermöglichen es, sie mit Verfahren wie der PCA zu analysieren, welche euklidischen Distanzen erhalten.
Zunächst wird erläutert, wie und warum CA-Ergebnisse entscheidend vom Auftreten seltener Typen geprägt werden, sowie, welches Problem unterschiedlich große Inventare für die PCA darstellen. Anschließend werden zwei Transformationen vorgestellt, die Grundlage einer tbPCA sein können. Möchte man eine tbPCA ganz ohne Typen-Gewichtung ist eine Chord-Transformation zu berechnen, möchte man seltene Typen leicht betonen ist eine Hellinger-Transformation zu verwenden. Die Vorteile einer chord-transformation-basierten PCA werden danach beispielhaft an einem archäobotanischem Datensatz aus dem Rheinland vorgestellt.Alle Berechnungen des Vortrags erfolgten mit der statistischen Programmieroberfläche R. Die Transformationen lassen sich im Paket vegan durch die Funktion ’decostand()’ mit den Argumenten „norm“ oder „hell“ berechnen. Interessierte können einen Beispiel-R-Code vom Autor erhalten.
Als erstes denkt man natürlich an die der CA verwandte Methode der Hauptkomponentenanalyse (PCA). Aufgrund des Rechenweges lässt sich die PCA allerdings nur dann sinnvoll als Ähnlichkeitsanordnung auf Abundanzen anwenden, wenn diese eine ganze bestimmte Datenstruktur besitzen: die Fundmengen der Inventare sollten alle etwa die gleiche Größenordnung besitzen. Diese Voraussetzung ist bei Inventarvergleichen aber nur sehr selten gegeben.Der Vortrag stellt eine Lösung dieser Probleme vor, die es erlaubt, Abundanztabellen unterschiedlichster Struktur mit einer PCA ohne (oder mit leichter) Betonung seltener Typen auszuwerten: die sog. transformationsbasierte PCA (tbPCA). Die Umrechnungen (Transformationen) der Abundanzen ermöglichen es, sie mit Verfahren wie der PCA zu analysieren, welche euklidischen Distanzen erhalten.
Zunächst wird erläutert, wie und warum CA-Ergebnisse entscheidend vom Auftreten seltener Typen geprägt werden, sowie, welches Problem unterschiedlich große Inventare für die PCA darstellen. Anschließend werden zwei Transformationen vorgestellt, die Grundlage einer tbPCA sein können. Möchte man eine tbPCA ganz ohne Typen-Gewichtung ist eine Chord-Transformation zu berechnen, möchte man seltene Typen leicht betonen ist eine Hellinger-Transformation zu verwenden. Die Vorteile einer chord-transformation-basierten PCA werden danach beispielhaft an einem archäobotanischem Datensatz aus dem Rheinland vorgestellt.Alle Berechnungen des Vortrags erfolgten mit der statistischen Programmieroberfläche R. Die Transformationen lassen sich im Paket vegan durch die Funktion ’decostand()’ mit den Argumenten „norm“ oder „hell“ berechnen. Interessierte können einen Beispiel-R-Code vom Autor erhalten.
Moritz Mennenga, Hauke Jöns: Der erste Internetatlas zu archäologischen Unterwasserfundstellen der europäischen Vorgeschichte – Der Splashcos Viewer
Während der vergangenen sechs Jahre hat das EU-finanzierte SPLASHCOS-Netzwerk seinen Fokus auf die Untersuchungen der prähistorischen Unterwasserlandschaften im Bereich der europäischen Schelfmeere gelegt. Die Forschungen basieren auf einer engen Verzahnung unterschiedlicher Disziplinen und dem kombinierten Einsatz von archäologischen, geophysikalischen, geologischen, ozeanographischen und biologischen Methoden. Bisherige Untersuchungen haben den bekannten Erfahrungsschatz über das vorgeschichtliche Leben, im Besonderen die ökonomischen Verhältnisse und Umweltbedingungen, denen die Menschen ausgesetzt waren, enorm erweitert. In vielen Fällen war es möglich durch die hervorragende Erhaltung, von z.B. organischen Materialien in den durch Wasser abgeschlossenen Sedimenten, vollständig neue Einsichten in das prähistorische Leben zu gewinnen.
Die 25 Teilnehmerländer haben früh begonnen ihre nationalen Datenbanken und Literaturquellen nach archäologischen Fundstellen zu durchsuchen und diese zusammenzutragen. Dabei wurde jedoch nicht nur die reine Existenz eines Fundplatzes und seine geographische Lage dokumentiert, sondern auch weitere Informationen wie der Fundplatztyp, die Erhaltung organischer Materialien, die Datierung oder die Auffindungstiefe aufgenommen. Diese Daten geben erstmals die Möglichkeit die Erhaltungsbedingungen und den Forschungsstand europaweit zu vergleichen und so neue Einblicke in die Verteilung der Fundstellen über Raum und Zeit zu erhalten. Durch den dauerhaften Zugriff auf die gesammelten Fundstelleninformationen ist zum einen ein besserer Schutz möglich und zum anderen eine Basis für Untersuchungen, Visualisierungen, Diskussionen der Fundstellen und Landschaften vorhanden. Die archäologischen Daten des Netzwerkes sind online als Webviewer oder per WMS verfügbar und werden vom Marine Information Service (Maris.nl) bereitgestellt. Zusätzlich finden sich hier auch bathymetrische, chemische, geologische und viele weitere maritime Daten.
Somit stellt der Splashcos-Viewer nicht nur ein Werkzeug dar um die Daten der Öffentlichkeit zugänglich zu machen, sondern schafft gleichzeitig eine Datenbasis für weiterführende wissenschaftliche Forschungen, die durch eine mögliche externe Dateneinbindung durch WMS unterstützt wird.
Das Poster wird das Netzwerk, den Datenumfang, die Zugangsmöglichkeiten und erste Ergebnisse der Datenauswertung vorstellen.
Die 25 Teilnehmerländer haben früh begonnen ihre nationalen Datenbanken und Literaturquellen nach archäologischen Fundstellen zu durchsuchen und diese zusammenzutragen. Dabei wurde jedoch nicht nur die reine Existenz eines Fundplatzes und seine geographische Lage dokumentiert, sondern auch weitere Informationen wie der Fundplatztyp, die Erhaltung organischer Materialien, die Datierung oder die Auffindungstiefe aufgenommen. Diese Daten geben erstmals die Möglichkeit die Erhaltungsbedingungen und den Forschungsstand europaweit zu vergleichen und so neue Einblicke in die Verteilung der Fundstellen über Raum und Zeit zu erhalten. Durch den dauerhaften Zugriff auf die gesammelten Fundstelleninformationen ist zum einen ein besserer Schutz möglich und zum anderen eine Basis für Untersuchungen, Visualisierungen, Diskussionen der Fundstellen und Landschaften vorhanden. Die archäologischen Daten des Netzwerkes sind online als Webviewer oder per WMS verfügbar und werden vom Marine Information Service (Maris.nl) bereitgestellt. Zusätzlich finden sich hier auch bathymetrische, chemische, geologische und viele weitere maritime Daten.
Somit stellt der Splashcos-Viewer nicht nur ein Werkzeug dar um die Daten der Öffentlichkeit zugänglich zu machen, sondern schafft gleichzeitig eine Datenbasis für weiterführende wissenschaftliche Forschungen, die durch eine mögliche externe Dateneinbindung durch WMS unterstützt wird.
Das Poster wird das Netzwerk, den Datenumfang, die Zugangsmöglichkeiten und erste Ergebnisse der Datenauswertung vorstellen.
Thomas Kersten, Maren Lindstaedt, Klaus Mechelke, Daniel Omelanowsky, Johannes Prenting: Mobile Aufnahmeverfahren im Vergleich – 3D-Aufnahme der Ringwallanlage Lembecksburg auf der Nordseeinsel Föhr
Das Labor für Photogrammetrie & Laserscanning der HafenCity Universität Hamburg hat im Rahmen einer Messexkursion vom 26. bis zum 29. Mai 2015 die Ringwallanlage Lembecksburg auf der Insel Föhr (Landkreis Nordfriesland) mit verschiedenen Verfahren dreidimensional erfasst. Die bis in die Jungsteinzeit zurückdatierbare Lembecksburg ist ein gut erhaltener, stattlicher Ringwall 1 km nördlich des Dorfes Borgsum. Unter geschickter Ausnutzung der topographischen Verhältnisse erbaute man die Burg auf einer weitgehend isoliert liegenden Geestkuppe am Rand der Föhrer Marsch. Der Außendurchmesser der Burg beträgt heute etwa 142 m, der Innendurchmesser 92 m. Die Krone des steil geböschten Ringwalles liegt 3 bis 4 m über der Innenfläche der Burg, aber bis zu 10 m über der Außenfläche. Bei archäologischen Grabungen und Untersuchungen in den 50ziger Jahren des vorherigen Jahrhunderts konnten auch Fundstücke aus der römischen Kaiserzeit und der Wikingerzeit nachgewiesen werden.
Das Ziel der Messexkursion bestand darin, eine lückenlose und detaillierte 3D-Dokumentation des historischen Ringwalles Lembecksburg zu erstellen. Außerdem sollten die eingesetzten Messverfahren geometrisch und wirtschaftlich verglichen werden. Folgende Messverfahren wurden für die Aufnahme der Burg eingesetzt: a) Topographische Aufnahme mit dem Tachymeter, b) Topographische Aufnahme mit GPS, c) Statisches terrestrisches Laserscanning, d) Kinematisches (mobiles) Laserscanning mit dem portablen Aufnahmesystem der Firma p3dsystems und e) Luftbildaufnahme mit einem Unmanned Aerial Vehicle (Hexacopter).
Das Ziel der Messexkursion bestand darin, eine lückenlose und detaillierte 3D-Dokumentation des historischen Ringwalles Lembecksburg zu erstellen. Außerdem sollten die eingesetzten Messverfahren geometrisch und wirtschaftlich verglichen werden. Folgende Messverfahren wurden für die Aufnahme der Burg eingesetzt: a) Topographische Aufnahme mit dem Tachymeter, b) Topographische Aufnahme mit GPS, c) Statisches terrestrisches Laserscanning, d) Kinematisches (mobiles) Laserscanning mit dem portablen Aufnahmesystem der Firma p3dsystems und e) Luftbildaufnahme mit einem Unmanned Aerial Vehicle (Hexacopter).
Thomas Kersten, Maren Lindstaedt – Bewahre die Vergangenheit für die Zukunft: 3D-Dokumentation von Kulturgütern aus Punktwolken bild-basierter Low-Cost Systeme
Kulturgüter sind bedeutende Zeugnisse der menschlichen Vergangenheit. Diese Objekte sind heute aufgrund zunehmender Zerstörung durch Krieg und Terrorismus sowie durch schleichende Verwitterung weltweit in großer Gefahr. Um den Verlust dieses Kulturerbes zu vermeiden, ist es eine unerlässliche Voraussetzung, sie mit modernen Messmethoden 3D aufzunehmen und detailliert zu dokumentieren. Die stetig zunehmende Leistungsfähigkeit von Internet und Computertechnologie kombiniert mit einer schnellen Weiterentwicklung der Algorithmen im Bereich der Computer Vision machen heutzutage eine effiziente und flexible Rekonstruktion der 3D-Geometrie von wichtigen und nachgefragten Kulturobjekten für deren ortsunabhängige Präsentation und für zukünftige Konservierungsaufgaben möglich.
Kulturgüter von unterschiedlicher Größe können mithilfe hochentwickelter Softwarepakete aus Bildsequenzen kommerzieller digitaler Kameras 3D modelliert werden. Kamera und Software sind damit Bestandteile sogenannter Low-Cost Systeme für eine Vielzahl von Anwendungen (Restauration, Denkmalpflege, Visualisierung, Analyse von Baukonstruktion und deren Beschädigung, etc.). In diesem Beitrag werden verschiedene Beispiele von Kulturgütern unterschiedlicher Größe (historisches Gebäude in Norddeutschland, hölzernes Tempelmodell aus Hamburg und Museumsexponate aus dem Iran und Vietnam) vorgestellt, die aus Punktwolken 3D rekonstruiert wurden, um digitale foto-realistische Kopien für die Dokumentation und für eine 3D-Visualisierung in Museumsanwendungen herzustellen. Solche bild-basierten Low-Cost Systeme stellen eine effiziente Alternative zu teuren Scanning-Systemen für die Ist-Dokumentation von 3D-Objekten in der Architektur, der Denkmalpflege und in der Archäologie dar.
Kulturgüter von unterschiedlicher Größe können mithilfe hochentwickelter Softwarepakete aus Bildsequenzen kommerzieller digitaler Kameras 3D modelliert werden. Kamera und Software sind damit Bestandteile sogenannter Low-Cost Systeme für eine Vielzahl von Anwendungen (Restauration, Denkmalpflege, Visualisierung, Analyse von Baukonstruktion und deren Beschädigung, etc.). In diesem Beitrag werden verschiedene Beispiele von Kulturgütern unterschiedlicher Größe (historisches Gebäude in Norddeutschland, hölzernes Tempelmodell aus Hamburg und Museumsexponate aus dem Iran und Vietnam) vorgestellt, die aus Punktwolken 3D rekonstruiert wurden, um digitale foto-realistische Kopien für die Dokumentation und für eine 3D-Visualisierung in Museumsanwendungen herzustellen. Solche bild-basierten Low-Cost Systeme stellen eine effiziente Alternative zu teuren Scanning-Systemen für die Ist-Dokumentation von 3D-Objekten in der Architektur, der Denkmalpflege und in der Archäologie dar.
Irmela Herzog, Alden Yépez: Wege- und Erreichbarkeitsberechnungen im Gebiet der Quijos, Ecuador
Das Poster präsentiert Wege- und Erreichbarkeitsberechnungen für das Gebiet der Quijos am Ostabhang der Anden in Ecuador. Das Volk der Quijos hatte bereits vor der Eroberung von Quito durch die Inka im 15. Jahrhundert weitreichende Handelsbeziehungen sowohl nach Quito als auch in das Amazonasgebiet. Es erscheint wahrscheinlich, dass man beim Transport von Gütern versuchte, hohe Aufwände zu vermeiden. Somit sollten Kosten-basierte Wege-berechnungen die alten Handelswege rekonstruieren können. Gerade in einer durch starkes Relief geprägten Gegend wie den Anden gibt die Topographie häufig Korridore vor; neue Wege sind nur dann notwendig, wenn sich die Topographie oder die Transport¬modalitäten ändern, etwa beim Einsatz von Tragtieren statt menschlichen Lastenträgern. Da die histori-schen Quellen auch noch im 19. Jahrhundert nur den Transport mittels einheimischen Lastenträgern im Gebiet der Quijos erwähnen, liegt die Vermutung nahe, dass die auf historischen Karten aus der Mitte des 18. Jahrhunderts verzeichneten Wege, die sich zum Teil auch auf den Karten Alexander von Humboldts (1814/1834) finden, eine lange Kontinuität aufweisen und erst durch den modernen Straßenbau abgelöst wurden. Das Poster vergleicht unterschiedliche Ansätze und verwendet verschiedene Datengrundlagen, um den Verlauf dieser alten Hauptwege zu rekonstruieren. In Ecuador liegen die topographischen Karten im Maßstab 1:50.000 in digitalisierter Form vor, mit Höhenlinien, aus denen sich digitale Geländemodelle ableiten lassen. Alternativ kommen Höhendaten aus Satellitenmessungen zum Einsatz. Neben klassischen Wegeberechnungen mit unterschiedlichen für Fußgänger konzipierten Kostenmodellen wird auch das Ergebnis von Erreichbarkeitsberechnungen präsentiert. Dabei ergibt sich die Schwierigkeit, dass die Erreichbarkeit im nördlichen Teil des Untersuchungsgebiets durch steiles Geländerelief geprägt und daher niedrig ist, während im Südosten geringere Steigungen mit günstigerer Erreichbarkeit vorherrschen. Um relative Unterschiede in diesen Teilgebieten hervorzuheben, findet eine Methode Anwendung, die sich aus Lloberas „local prominence“-Prinzip ableitet.
Ulrich Stockinger: Vom Produktionsabfall zur Produktivversion – Antike Werkstätten Online
Die handwerkliche Produktion bildete einen elementaren Bestandteil antiker Wirtschaftssysteme, schließlich war die Werkstätte ein wichtiger Schnittpunkt zwischen Gewinnung und Nutzung von Rohstoffen, sei es Ton, Stein oder Eisenerz. Im Rahmen des DFG-Graduiertenkollegs 1878 »Archäo¬logie vormoderner Wirtschaftsräume« wurde die Basis für eine möglichst vollständige Zusammenstellung ar¬chäologisch bezeugter Werkstätten gelegt. Diese ist weltweit online frei verfügbar und kann so eine wichtige Recherchebasis für weitergehende Fragestellungen und Forschungsprojekte sowie gleichzeitig eine übersichtliche Informationsplattform zum antiken Wirtschafts- und Alltagsleben für die interessierte Öffentlichkeit darstellen. Das Projekt konzentriert sich auf den Mittelmeerraum in der griechischen und römischen Antike und umfasst gegenwärtig Werkstätten von der portugiesischen Küste bis ins ägyptische Niltal, die von archai¬scher bis in spätantike Zeit reichen. Mittelfristig kann und soll die Datenbasis um weitere Werkstätten aus anderen Epochen und Regionen ergänzt werden.
Basierend auf den relevanten Publikationen werden in dem dafür eigens adaptierten Gerüst der Objektdatenbank ARACHNE die wichtigsten Informationen zu den durch archäologische Funde und/oder Befunde nachgewiesenen Werkstätten über ein standardisiertes Vokabular erfasst, um übergeordnete Suchen, Vergleiche und Analysen zu ermöglichen. Durch die einheitliche Bereit¬stellung der ansonsten verstreuten, heterogenen und häufig nur schwer zugänglichen Veröffentli¬chungen wird die Untersuchung von thematisch, chronologisch oder geographisch übergreifenden Aspekten deutlich vereinfacht und beschleunigt.
Die Werkstätten werden im Rahmen der Datenerfassung und -verwaltung mit verschiedenen tech-nischen Ressourcen des Deutschen Archäologischen Instituts und des Cologne Digital Archaeology Laboratory kontextualisiert, sodass weitere Informationen beispielsweise zu relevanten Orten, Literaturzitaten, Rohstoffvorkommen oder Transportwegen bereitgestellt werden können. Dabei wurde eine möglichst generische Lösung angestrebt, archäologisch relevante Daten verschiedenster Natur aus den unterschiedlichen Systemen der iDAI.welt miteinander zu verknüpfen, die auch auf bereits vorhandene Objektgruppen sowie für künftige Projekte in ARACHNE – beispielsweise für die Onlinepublikation eines Fundkatalogs – anwendbar ist.
Basierend auf den relevanten Publikationen werden in dem dafür eigens adaptierten Gerüst der Objektdatenbank ARACHNE die wichtigsten Informationen zu den durch archäologische Funde und/oder Befunde nachgewiesenen Werkstätten über ein standardisiertes Vokabular erfasst, um übergeordnete Suchen, Vergleiche und Analysen zu ermöglichen. Durch die einheitliche Bereit¬stellung der ansonsten verstreuten, heterogenen und häufig nur schwer zugänglichen Veröffentli¬chungen wird die Untersuchung von thematisch, chronologisch oder geographisch übergreifenden Aspekten deutlich vereinfacht und beschleunigt.
Die Werkstätten werden im Rahmen der Datenerfassung und -verwaltung mit verschiedenen tech-nischen Ressourcen des Deutschen Archäologischen Instituts und des Cologne Digital Archaeology Laboratory kontextualisiert, sodass weitere Informationen beispielsweise zu relevanten Orten, Literaturzitaten, Rohstoffvorkommen oder Transportwegen bereitgestellt werden können. Dabei wurde eine möglichst generische Lösung angestrebt, archäologisch relevante Daten verschiedenster Natur aus den unterschiedlichen Systemen der iDAI.welt miteinander zu verknüpfen, die auch auf bereits vorhandene Objektgruppen sowie für künftige Projekte in ARACHNE – beispielsweise für die Onlinepublikation eines Fundkatalogs – anwendbar ist.
Benjamin Gehmlich, Marco Block-Berlitz, Dennis Wittchen, Raul Rojas: UAV-gestützte 3D-Rekonstruktion archäologischer Grabungen:
Planung, Aufnahme und Prozessierung
Planung, Aufnahme und Prozessierung
Viele Archäologen, die Ihre Ausgrabungen mit der Unterstützung von UAVs photogrammetrisch dokumentieren wollen, stehen bei der Planung und den Aufnahmestrategien oft vor den gleichen Herausforderungen:
• Wie kann ich einen sicheren Umgang mit UAVs erlernen und diese erfolgreich für Dokumentationen einsetzen?
• Wie kann ich im Vorfeld die Aufnahmekampagne effizient und erfolgreich planen?
• Was muss für eine erfolgreiche Aufnahme berücksichtigt werden?
• Wie kann ich sicherstellen, dass ich in den zur Verfügung stehenden Zeitfenstern an einem möglicherweise sehr weit entfernten Ort Daten aufnehmen und im Anschluss sicher und erfolgreich prozessieren kann?
• Wie sichere ich meine Daten vor Ort und auf lange Sicht?
Im Rahmen des Projekts “Archaeocopter” wurde gerade diesen Praxisfragen besondere Aufmerksamkeit gewidmet. Die unterschiedlichen Phasen einer Dokumentation bedürfen verschiedener Herangehensweisen. Das Motto: „Safety first!“ gilt bei der Datenaufnahme genauso, wie bei der Sicherstellung der Prozessierungsergebnisse. Dabei sind im Projekt unterstützende Workflows, Checklisten und zahlreiche Hilfsmittel entstanden, die durch die Praxis und den Austausch mit Kollegen kontinuierlich optimiert werden.
Um Lücken in den benötigten “Softskills” zu schließen, über die fast an keiner anderen Stelle etwas zu erfahren ist, geben wir nicht nur Einblicke in die tägliche Dokumentationsarbeit, sondern stellen die Workflows und Hilfmittel frei zur Verfügung.
Weiterhin ist das Projekt “Archaeocopter” darauf fokussiert, einen einfachen Zugang zu UAVs in der Archäologie aufzuzeigen und mit Hilfe der Videogrammetrie auch den Faktor Kosten überschaubar zu halten. Wir stellen ein System vor, das mit einer Investition von weniger als 1000 Euro und komplett freier Software die Anforderungen vieler archäologischer Projekte erfüllen dürfte.
• Wie kann ich einen sicheren Umgang mit UAVs erlernen und diese erfolgreich für Dokumentationen einsetzen?
• Wie kann ich im Vorfeld die Aufnahmekampagne effizient und erfolgreich planen?
• Was muss für eine erfolgreiche Aufnahme berücksichtigt werden?
• Wie kann ich sicherstellen, dass ich in den zur Verfügung stehenden Zeitfenstern an einem möglicherweise sehr weit entfernten Ort Daten aufnehmen und im Anschluss sicher und erfolgreich prozessieren kann?
• Wie sichere ich meine Daten vor Ort und auf lange Sicht?
Im Rahmen des Projekts “Archaeocopter” wurde gerade diesen Praxisfragen besondere Aufmerksamkeit gewidmet. Die unterschiedlichen Phasen einer Dokumentation bedürfen verschiedener Herangehensweisen. Das Motto: „Safety first!“ gilt bei der Datenaufnahme genauso, wie bei der Sicherstellung der Prozessierungsergebnisse. Dabei sind im Projekt unterstützende Workflows, Checklisten und zahlreiche Hilfsmittel entstanden, die durch die Praxis und den Austausch mit Kollegen kontinuierlich optimiert werden.
Um Lücken in den benötigten “Softskills” zu schließen, über die fast an keiner anderen Stelle etwas zu erfahren ist, geben wir nicht nur Einblicke in die tägliche Dokumentationsarbeit, sondern stellen die Workflows und Hilfmittel frei zur Verfügung.
Weiterhin ist das Projekt “Archaeocopter” darauf fokussiert, einen einfachen Zugang zu UAVs in der Archäologie aufzuzeigen und mit Hilfe der Videogrammetrie auch den Faktor Kosten überschaubar zu halten. Wir stellen ein System vor, das mit einer Investition von weniger als 1000 Euro und komplett freier Software die Anforderungen vieler archäologischer Projekte erfüllen dürfte.
Dirk Rieke-Zapp: Genauigkeit und Auflösung in der optischen Nahbereichsvermessung
Für die Vermessung im Nahbereich gibt es unterschiedliche optische Messtechniken zur Erfassung von Form und Farbe von Objekten. Wesentliche Kriterien und Unterscheidungsmerkmale der einzelnen Methoden sind Auflösung und Genauigkeit, aber auch Kantenschärfe und Vollständigkeit der Erfassung. Obwohl diese Begriffe eine eindeutige Definition besitzen, fehlt bei reinen Anwendern oft ein Gespür für die Bedeutung dieser Begriffe. Für die korrekte Auswahl und Beurteilung von Methoden in Hinsicht auf eine bestimmte Messaufgabe ist es zudem wichtig, das Prinzip der Datenaufnahme soweit zu kennen, dass man die jeweils beste Methode auswählen kann, beziehungsweise die Vor- und Nachteile verschiedener Methoden gegeneinander abwägen kann. Verglichen wird die photogrammetrische Vermessung von Objekten mit Korrelationsverfahren zu der Messung mit Streifenprojektionssystemen. Beide Techniken werden in der Praxis für die Erfassung von kleinen (Münzen, Zähne) bis größeren (Statuen, Reliefs) Objekten angewendet. Anhand von Beispielen wird gezeigt, welcher Zusammenhang zwischen 3d Punktdichte und Ortsauflösung besteht und in welchen Anwendungen die Technik bedeutenden Einfluss auf die Datenqualität hat und somit die Interpretation beeinflusst. Neben der reinen Qualität der Daten spielt die Mobilität – Verfügbarkeit im Feld – der Messmethode eine bedeutende Rolle. Auch hier ist häufig eine Abwägung von Aufwand und Nutzen durch den Anwender notwendig, um Projekte zu planen. Streifenlichtsysteme bieten klare Vorteile bei Genauigkeit, Auflösung, Kantenauflösung und der Vollständigkeit der Objekterfassung gegenüber photogrammetrischen Messungen mit Korrelationsverfahren. Photogrammetrische Systeme sind dagegen flexibler einsetzbar und mobiler. Zudem können geübte Anwender mit sinnvollem Aufwand komplette Objekte mit hoher Detailsauflösung erfassen. Vollständigkeit und Genauigkeit der Erfassung sind in diesem Fall stärker von den Materialeigenschaften der Objekte abhängig.