Jahresabschlussbericht 2015

Project Report 3

DOI: http://dx.doi.org/10.20376/IDIOM-23665556.16.pr003.de

Nikolai Grube1, Christian Prager1, Katja Diederichs1, Sven Gronemeyer1,2, Elisabeth Wagner1, Maximilian Brodhun3 & Franziska Diehr3

1 Rheinische Friedrich-Wilhelms-Universität, Bonn
2 La Trobe University, Melbourne
3 Niedersächsische Staats- und Universitätsbibliothek, Göttingen

Projektbeschreibung, Zielsetzung und die Entwicklung von IDIOM „Interdisciplinary Database of Classic Mayan”

Die nur teilweise entzifferte Hieroglyphenschrift und Sprache der Mayakultur steht im Mittelpunkt des Forschungsprojekts, das seit Mitte 2014 in Kooperation zwischen der Universität Bonn und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB)1)http://www.sub.uni-goettingen.de/ besteht und gefördert wird durch die Nordrhein-Westfälische Akademie der Wissenschaften und der Künste. Ziel ist die Erstellung einer Textdatenbank und eines darauf basierenden Wörterbuchs des Klassischen Maya (Blütezeit von 250 bis 950 n. Chr.). Bis zum Projektbeginn 2014 fehlten eine systematische Dokumentation und umfassende Analyse der rund 10.000 Bild- und Textträger, die eine eingehende und präzise Untersuchung der Klassischen Schriftsprache erlauben. Im Rahmen des Projekts werden die Text- und Bildträger systematisch und nach einheitlichen Standards beschrieben. Sie werden als Ausgangsmaterial auf Basis von XML (Extensible Markup Language) maschinenlesbar gemacht, in die Virtuelle Forschungsumgebung (VFU) des Forschungsverbunds TextGrid2)https://textgrid.de/ integriert um auf diese Weise die Grundlagen für die Kompilation des Wörterbuchs zu schaffen. Das Projekt greift auf Methoden und Technologien aus den digitalen Geisteswissenschaften zurück, die bereits durch die VFU zur Verfügung gestellt werden bzw. im Rahmen des Projektes entwickelt und implementiert werden. Zu diesem Zweck passen wir die durch TextGrid zur Verfügung gestellten Dienste und Werkzeuge an projektspezifische Bedürfnisse an und fassen diese Projektspezifika unter dem Begriff IDIOM „Interdisciplinary Database of Classic Mayan” zusammen. IDIOM ermöglicht mit der Technologie von TextGrid ein systematisches und vernetztes Arbeiten mit Text-, Bild- und Informationsträgern der Klassischen Maya. Aufbau und Funktionen von IDIOM orientieren sich dabei am epigraphischen Workflow „Dokumentation – Beschreibung – Analyse – Edition” und unterstützen damit unsere Arbeit mit den Inschriften. Nicht nur der Inhalt der Inschriften, sondern auch Daten über die Inschriften- und Bildträger (Beschreibungs- oder Metadaten) werden berücksichtigt und in der VFU gesammelt. Die VFU enthält nicht nur Beschreibungen der Textträger oder Informationen über die Texte, sondern der Datenbanknutzer bekommt mit Hilfe der Literaturdatenbank auch einen Überblick darüber, welche Autoren sich mit einem Monument befasst oder es publiziert haben, eine Textpassage diskutiert oder erstmals eine bis heute gültige sprachliche Lesung einer Hieroglyphe präsentiert haben. Der Textträger erhält dadurch eine ‚Biographie‘, die eng mit den Textinhalten verwoben ist und bei der Bedeutungsanalyse von Wörtern berücksichtigt wird.

Im Fokus der Projektphase 2015 stand die Konzipierung und Umsetzung eines von den Bonner Fachwissenschaftlern entwickelten modellhaften Metadatenschemas für die Erfassung nicht-textueller Informationen über die Textträger selbst. Für die epigraphische Analyse muss die Kontextinformation um den Schriftträger als Objekt erfasst werden, da seine physischen Eigenschaften, assoziierter archäologischer Befund oder Fundkontext Einfluss auf Textinhalt und Gestaltung haben können. Die Modellierung einer Objektbiographie und die Einbettung der Texte in ihren kulturellen Kontext sind zunächst informationstechnologisch zu bewältigen, um die epigraphische Analyse der Textinhalte in ihrem außersprachlichen, kulturellen Kontext zu gewährleisten. Als Basis für die Beschreibung der Artefakte und der relevanten objektgeschichtlichen Ereignisse wie Herstellung, Fund, Erwerbung und Sammlungskontext sowie den mit dem Artefakt in Verbindung stehenden Akteuren nutzt das Projekt das CIDOC CRM (CIDOC Conceptual Reference Model)3)http://www.cidoc-crm.org/, das eine erweiterbare Ontologie für Begriffe und Informationen im Bereich des kulturellen Erbes anbietet, nach und passt es an seine spezifischen Bedürfnisse an. Das entstandene Anwendungsprofil (Application Profile) wird durch Elemente aus weiteren Standards und Schemata angereichert. Die nachgenutzten Schemata und erstellten Metadaten werden in einer Linked (Open) Data-Struktur (LOD)4)https://www.w3.org/standards/semanticweb/data abgebildet werden. Diese basiert auf dem Standard-Modell für Datenaustausch im Web, dem RDF-Standard5)https://www.w3.org/RDF/. Bei diesem Datentyp werden logische Aussagen über Ressourcen als Triple in der sprachlich bekannten Form Subjekt-Prädikat-Objekt gespeichert (Beispiel: Teobert Maler – entdeckte – Stela A), das bedeutet, hier ist die Speicherung zwischen Objekten und ihren Eigenschaften ein wichtiges Gestaltungsprinzip. Somit lassen sich sehr komplexe Abfragen an die Datenbank durch den Standard SPARQL6)https://www.w3.org/TR/rdf-sparql-query/, eine graphenbasierte Abfragesprache für RDF, gestalten. Durch die Repräsentation im XML-Format, sowie die Nutzung von HTTP-URIs wird eine einfache Austauschbarkeit der Daten ermöglicht und eine Zitierbarkeit der Daten erreicht. Durch diese Umsetzung können Objektmetadaten getrennt vom erfassten Text gespeichert werden und durch die Verwendung der HTTP-URI verlinkt werden. Erstellt werden die RDF-Objekte mit Hilfe einer speziell für das Projekt angepassten RDF-Eingabemaske, die mit Hilfe eines HTML-Formulars den Mitarbeitern in Bonn die Möglichkeit gibt, schnell und unkompliziert Metadaten zu den Textträgern, Informationen über Akteure oder Orte zu erfassen. Eine ausführliche Beschreibung folgt im unteren Abschnitt.

Viel Aufmerksamkeit wurde 2015 auf die Kategorisierung und Schematisierung der Inhalte gerichtet. Dies ist wegen der Vielfalt und Verschiedenheit der Daten geboten und es spart Entwicklungszeit, wenn bereits bestehende Standards nachgenutzt werden. Mit Hilfe kontrollierter Vokabulare erfolgt die Kategorisierung unserer heterogenen Daten. Kontrollierte Vokabulare sind definierte und strukturierte Begriffssammlungen, die nach speziellen Regeln angelegt werden um die Mehrdeutigkeit der natürlichen Sprache zu reduzieren. Sie umfassen definierte Begriffe und feste Relationen gemäß spezifischer ontologischer Konzepte und erlauben somit konzeptuelle Kontrolle. Die Entwicklung kontrollierter Vokabulare zur Unterstützung der Auszeichnung nicht-textueller und textueller Objekte ist essentiell für die Eingabe und Analyse der Daten. Somit sind sie ein wesentliches Hilfsmittel bei der Nutzung der Such- und Analysetools. Die inhaltsbasierte Analyse wird ermöglicht durch konsistentes Indexieren, verbesserte Abfragen und Präzision bei der Suche und Ausgabe. Zur maschinenlesbaren Repräsentation und Integration in ein Metadatenschema werden die Vokabulare mit Hilfe von SKOS7)https://www.w3.org/2004/02/skos/ (Simple Knowledge Organisation System) strukturiert. Terminologische Kontrolle wird erzielt durch die Definition und Auszeichnung präferierter, alternativer sowie ungültiger (non-valid) Begriffe, wobei letztere die korrekte Ausgabe eines Suchergebnisses auch z.B. nach der Eingabe eines falsch geschriebenen Begriffs erlaubt. Sprachauszeichnung (language tags) erlauben auch die Suche in einer bestimmten Sprache. Konzeptuelle Kontrolle wird durch die Schaffung von Konzeptschemata (knowledge organisation systems) erreicht, die hierarchisch in „broader“ und „narrower“ strukturiert werden, oder miteinander als synonym, antonym oder kausal in Beziehung gesetzt werden.

Die Entwicklung von kontrollierten Vokabularen und Konzeptschemata im Projekt ist wichtig, denn bezüglich der Dokumentation von Inschriftenträgern und -texten, ihrer jeweiligen Kontexte und Objektbiographien existieren in der Mayaschriftforschung zahlreiche verschiedene Begriffe, Vokabularien und Beschreibungsschemata, was zu einer großen Bandbreite unterschiedlich dokumentierter Schriftträger geführt hat. Die in den Dokumentationen verwendeten Begrifflichkeiten zeigen teilweise wenig Übereinstimmung und sind oft unvollständig, fehlerhaft, unpräzise oder stark vereinfachend. Diese Inkonsistenzen aufgrund des Fehlens einer standardisierten Terminologie in der Mayaforschung machen den Vergleich zwischen verschieden dokumentierten Schriftträgern oft schwierig bis unmöglich. Zur Entwicklung der kontrollierten Vokabulare wurden alle bisher in der Literatur sowie in Standardvokabularen verwendeten Begriffe und Taxonomien kompiliert, auf ihre Plausibilität, Vergleichbarkeit und ihren Nutzbarkeit hin überprüft, und in die Vokabulare integriert.

Mitglieder der Arbeitsstelle, Aufgaben und Kommunikation im Projekt

Wie bereits 2014 sind in Bonn die drei Fachwissenschaftler Dr. Christian Prager (Projektkoordination), Elisabeth Wagner, M.A. und Dr. Sven Gronemeyer als Experten für Mayaschrift, -sprache und -ikonologie tätig. Katja Diederichs zeichnet für den informationswissenschaftlichen Bereich in der Bonner Arbeitsstelle verantwortlich. Zusammen mit Jan Kenter von der Universitäts- und Landesbibliothek Bonn (ULB) koordiniert sie unter anderem die Zusammenarbeit zwischen dem Projekt und der ULB. Im Laufe des Jahres 2017 soll auf der Präsentationsplattform Visual Library das Virtuelle Inschriftenarchiv online gestellt werden, dessen Daten aus Langzeitrepositorium von TextGrid stammen. Vorbereitungen dazu wurden 2015 im Zuge der Entwicklung des Metadatenschemas in Angriff genommen. Ebenso wurde zusammen mit Göttingen das Mapping vom projektinternen Metadatenschema auf die Datenstruktur des Visual Library konzipiert, um einen Datenaustausch zwischen den beiden unterschiedlichen Systemen zu ermöglichen. Franziska Diehr setzte ihre Arbeit von 2014 fort und entwickelte das projektinterne Metadatenschema auf der Basis der fachwissenschaftlichen Vorgaben aus Bonn weiter; Maximilian Brodhun programmierte und implementierte auf Grundlage von Franziska Diehrs Metadatenschema den epigraphischen Workflow und stellte vor dem Jahresende die erste Produktivversion einer Eingabemaske für RDF-Objekte fertig. Sie dient den Bonner Fachwissenschaftlern zur komfortablen und unkomplizierten Eingabe der Metadaten und basiert auf einem HTML-Formular, über das die jeweiligen Daten in RDF/XML umgewandelt und in TextGrid gespeichert werden. Die Eingabemaske wurde November und Dezember getestet und erste Ergebnisse konnten am 14. Dezember im Rahmen eines öffentlichen Projektworkshops vorgestellt werden.

Unterstützt wurden die Mitarbeiter in Bonn 2015 durch die Hilfskräfte Laura Burzywoda (Digitalisierung), Nicoletta Chanis (Digitalisierung), Antje Grothe (Bibliographie), Laura Heise (Digitalisierung), Leonie Heine (Digitalisierung), Jana Karsch (Epigraphik, Digitalisierung), Nikolai Kiel (Epigraphik, Digitalisierung), Catherine Letcher Lazo (Redaktion der Website), Lisa Mannhardt (Digitalisierung), Mallory Matsumoto (Linguistik, Digitalisierung) und Nadine Müller (Digitalisierung). Die Digitalisierung von Fotoarchiven mit über 100.000 Fotodokumenten, die dem Projekt von Karl Herbert Mayer, Berthold Riese, Daniel Graña-Behrens und von den aktuellen Mitarbeitern des Projekts zur Verfügung gestellt wurden, erfolgt im Zusammenhang mit der Virtuellen Forschungsumgebung TextGrid, wo die Digitalisate der Photographien 2016 und 2017 in die Virtuelle Forschungsumgebung von TextGrid integriert werden.

Wie bereits 2014 hat sich die schriftliche Zusammenarbeit zwischen Bonn und Göttingen auf der Grundlage eines gemeinsam bearbeiteten Wikis bewährt. Die schriftliche Kommunikation erfolgte dabei über die Kollaborationssoftware Confluence, die Bestandteil der DARIAH-DE8)https://de.dariah.eu/ Forschungsinfrastruktur für digitales Arbeiten in den Geisteswissenschaften ist. Das Wiki enthält die vollständige Projektdokumentation mit den bisher aggregierten technischen und fachwissenschaftlichen Inhalten, die als Referenzmaterial langfristig verfügbar sein werden. Dokumente wie etwa Vorträge, Präsentationen oder Arbeitslisten werden zusätzlich in einem Cloudspeicher von Google abgelegt und können auf diese Weise kollaborativ bearbeitet werden. Diese Arbeitsweise hat sich insbesondere bei der Vorbereitung gemeinsamer Vorträge bewährt. Für die Planung von Monatszielen und mittelfristigen Meilensteinen oder bei dringenden und kurzfristigen Anfragen und Problemen kommunizieren die Projektbeteiligten in wöchentlichen Telefonkonferenzen und monatlichen Projektgesprächen in Bonn und Göttingen.

Im Fokus des 8. Projekttreffens vom 15. und 16. Januar 2015 stand die detaillierte Diskussion des Metadatenschemas für nicht-textuelle Objekte sowie die Nutzung von XML/TEI und EpiDoc für die Auszeichnung der Textdaten. Das 9. Treffen fand am 9. und 10. Februar in Bonn und Düsseldorf statt und behandelte erneut Fragen zum Metadatenschema, den Stand der RDF-Eingabemaske sowie die Ausarbeitung eines Konferenzposters für den DH Summit vom 3. und 4. März in Berlin. Am 11. Februar nahmen die Projektmitarbeiter an einem von der NRW Akademie der Wissenschaften und der Künste organisierten Workshop zu Digital Humanities in Düsseldorf teil. Der Maya-Kalender und seine Funktionen und Repräsentationen in den Inschriften waren das Thema eines zweitägigen Workshops vom 27. bis 29. April 2015 in Göttingen. Die Bonner Wissenschaftler erklärten den Göttinger Kollegen die Funktionen des Maya-Kalenders um diesen informationstechnologisch in der Virtuellen Forschungsumgebung umzusetzen. Im Fokus standen die Elemente und Strukturen der Maya-Kalendersysteme, die Einzelelemente des Kalenders sowie die Darstellung von Mayadaten mit Konventionen anhand von Beispielen. Das Ziel ist es die Funktionen und Strukturen des Maya-Kalenders in TextGrid umzusetzen und auf dieser Basis ein Tool zur Berechnung von Mayadaten zu entwickeln und für die Textanalyse bereit zu stellen. Eine erste Version der Eingabemaske für nicht-textuelle RDF-Objekte präsentierte Maximilian Brodhun im Rahmen des 10. Projekttreffens vom 18. und 19. Mai 2015 in Bonn. Thema waren ebenfalls die Organisation der Objekte in TextGrid, die Einbettung der bibliographischen Daten aus der Zotero-Datenbank sowie das Design der Projektwebsite, die schließlich im Dezember 2015 online ging. Die Textanalyse mit Hilfe von XML/TEI und EpiDoc wurde im Rahmen des 11. Projekttreffens am 23. und 24. Juni 2015 in Göttingen besprochen. Eine neue Version der Eingabemaske und Hilfetexte für die Dateneingabe wurden vorgestellt und Planungen für den funktionellen Testlauf im Oktober und November 2015 wurden ebenfalls in der Runde besprochen. Ein Workshop zu Funktion und Nutzung der Eingabemaske für die Erfassung nicht-textueller Metadaten sowie die Nutzung des Vokabulartools durch die Bonner Fachwissenschaftler fand im Rahmen des 12. Projekttreffens am 17. und 18. August 2015 in Bonn statt. Im Anschluss an dieses Treffen wurde die Eingabemaske vom Bonner Team ausgiebig getestet und im November 2015 produktiv geschaltet. Nach Besprechungen mit Jan Kenter (ULB) Anfang 2015 über die weitere Zusammenarbeit mit der ULB, sowie nach einem Mapping der Daten für die Visual Library im Herbst 2015, wurden erste Testdaten im Dezember 2015 von Franziska Diehr und Maximilian Brodhun an Jan Kenter übermittelt, der sie an den Kooperationspartner der ULB, die Firma Semantics weiterleitete.

Neben der Projektarbeit bildete auch 2015 die berufliche Weiterbildung einen Bestandteil des Projekts. Mitglieder des Forschungsprojekts besuchten nationale und internationale Tagungen und Kursangebote mit dem Schwerpunkt Digital Humanities (Essen, Graz, London, Lyon). Die Mitarbeiter haben dabei Methoden der digitalen Geisteswissenschaften kennen gelernt und ihr Wissen über die Auszeichnungssprache XML vertiefen können. Außerdem organisierte das Forschungsprojekt am 5. und 6. Oktober einen Workshop zur Verwendung von XML/TEI für die Auszeichnung von Texten, die in komplexen Schriftsystemen, darunter Altägyptisch, Keilschrift und die Mayaschrift, verfasst wurden. Im Rahmen dieses Workshops konnten sich die Mitarbeiter, die in der Hauptsache für die informationstechnologische Umsetzung der Forschungsfragen zuständig sind, ein Bild über die Funktionen und Strukturen komplexer Schriftsysteme machen, zu denen das Klassische Maya ebenfalls zählt.

Projektpräsentation

Das Projekt wurde 2015 im Rahmen von Vorträgen bei Fachtagungen und Workshops sowie in gedruckten und online Publikationen vorgestellt.

Vorträge

Das Projekt hat sich 2015 an dreizehn nationalen und internationalen Tagungen mit Vorträgen präsentiert. Ziel unserer Aktivitäten war es nicht nur das Projekt vorzustellen, sondern sich mit anderen Digital Humanities Projekten zu vernetzen, die eine ähnliche Fragestellung aufweisen. Im Rahmen des SUB und DARIAH-DE Panels „Das Wissen der Bilder. Spielarten des digitalen Annotierens“ präsentierte das Projekt zusammen mit Frauke Sachse und Michael Dürr einen Werkstattbericht zum Thema: „Text – Bild – Inschrift: Hieroglyphenschrift und Sprachen der Maya annotieren“. Der Titel des Vortrags lautete „Digitale Epigraphik – Die Erforschung der Hieroglyphentexte und Bildbotschaften der Maya in der Virtuellen Forschungsumgebung TextGrid“.

Beim DH Summit in Berlin vom 3. bis 5. März stellte sich das Projekt mit einem Poster und einem Posterslam-Beitrag vor. Die Veranstaltung richtete sich besonders an die vom BMBF geförderten DH-Projektverbünde, zwei DH-Zentren und Nachwuchsgruppen sowie assoziierte Projektpartner von TextGrid und DARIAH-DE. Im Rahmen des vom „Digital Humanities Forschungsverbund (DHFV)“ organisierten Workshops „Semantic Web Applications in the Humanities“ präsentierte das Projekt am 10. März in Göttingen sein Metadatenkonzept sowie die technischen Grundlagen, auf deren Basis die Inschriften beschrieben und die Hieroglyphentexte analysiert werden. Die Auszeichnung der Hieroglyphentexte mit Hilfe von EpiDoc war das Thema eines Vortrags in London, den Katja Diederichs im Rahmen des jährlichen EpiDoc Workshops am 22. April gehalten hat. Die EpiDoc Guidelines beschreiben spezielle Richtlinien für strukturiertes Markup und Repräsentation von epigraphischen Texten in digitaler Form mittels auf XML/TEI. Zum Thema Urheberrecht und Open Access in den digitalen Geisteswissenschaften referierte Christian Prager mit dem Beitrag „Open Access vs. Copyright im Projekt ‚Textdatenbank und Wörterbuch des Klassischen Maya“ am 11. Mai in Göttingen. Bei dieser von DARIAH-DE, SUB und DAI (Deutsches Archäologisches Institut)9)https://www.dainst.org/ organisierten Tagung „Store it, Share it, Use it“ stand die Lizenzierung digitaler Forschungsdaten in den Sprach- und Literaturwissenschaften im Vordergrund.

Mit einem Beitrag und einem Projektstand präsentierten Nikolai Grube, Sven Gronemeyer und Elisabeth Wagner am 11. Mai das Projekt im Rahmen des Akademientags 2015 in Berlin. Im Zusammenhang mit dem Abschlussworkshop des Verbundprojekts MayaArch3D stellten Nikolai Grube, Katja Diederichs und Elisabeth Wagner das Projekt vor. Thematisiert wurden die kontrollierten Vokabulare, das Metadatenschema sowie die Open Science Strategie im Projekt. Katja Diederichs und Christian Prager präsentierten am 21. Juli in der ULB eine Projektvorstellung mit dem Titel „Textdatenbank und Wörterbuch des Klassischen Maya“. Der Vortrag lief im Rahmen einer Digital Humanities Informations- und Netzwerkveranstaltung, die von Jan Kenter in der ULB veranstaltet wurde. Ziel dieser regelmäßigen Veranstaltung ist es, Digital Humanities Projekte in Bonn miteinander zu vernetzen.

In Heidelberg stellte Christian Prager das Projekt bei der Veranstaltung „Historische Semantik und Semantic Web“ unter dem Titel „Dokumentation, Analyse und Edition der Hieroglyphentexte der Klassischen Maya in der Virtuellen Forschungsumgebung TextGrid“ vor. Dieser von der Akademienunion am 16. September organisierte Workshop fokussierte auf elektronisches und digitales Publizieren. Dieses Thema stand ebenfalls im Mittelpunkt einer Tagung am 29. September in Göttingen, die von DINI und DARIAH-DE gemeinsam veranstaltet wurde. Christian Prager und Katja Diederichs stellten das Projekt Vertretern aus Bibliotheken, Medien- und Rechenzentren vor. Ziel des Workshops war es Möglichkeiten aufzuzeigen, die Infrastrukturen und Services in DARIAH-DE für digitales Arbeiten bieten. Im Rahmen des von der Max Weber Stiftung veranstalteten Workshops „Digital Humanities Bilder“ präsentierte Christian Prager am 2. Oktober das Projekt mit dem Vortrag „Digitale Epigraphik am Beispiel des Wörterbuchs des Klassischen Maya“. Franziska Diehr vertrat das Projekt bei der Tagung „Digitale Metamorphose: Digital Humanities und Editionswissenschaft“ am 2. November in Wolfenbüttel, die von der Herzog August Bibliothek Wolfenbüttel organisiert wurde. Mit jeweils einem Vortrag war das Projekt bei einer eigenen Veranstaltung am 5. Oktober in Bonn („Mayaschrift“, siehe Workshops), am 13. Dezember im Rahmen der 20. Europäischen Mayakonferenz („Digital Epigraphy – The Text Database and Dictionary of Classic Mayan Project”) und am 14. Dezember bei dem jährlichen Projektworkshop in Bonn beteiligt.

2016 sind Vorträge in Berlin im Rahmen der 19. Mesoamerikanisten-Tagung sowie bei der EAGLE 2016 Konferenz zu digitaler und traditioneller Epigraphik eingereicht. Geplant sind außerdem Vorträge über das Projekt und den gegenwärtigen Stand der Arbeiten u.a. bei Tagungen in Basel (März), Mainz (April) sowie Cambridge (Juli).

Workshops

Am 5. und 6. Oktober sowie am 14. und 15. Dezember organisierte das Projekt zwei Workshops. Am 5. und 6. Oktober fand ein internationaler Workshop mit dem Titel „Digitale Epigraphik: XML/TEI und EpiDoc für die epigraphische Forschung zu nicht-alphabetischen Schriftsystemen“ statt.
Im Fokus des von über 30 Teilnehmern besuchten Workshops stand die Verwendung der Auszeichnungssprache XML (Extensible Markup Language), insbesondere XML/TEI und EpiDoc, für die epigraphische Forschung. Das Projekt lud dazu Schriftexperten und IT-Spezialisten aus dem In- und Ausland ein. In dem englischsprachigen Workshop diskutieren die Experten den Einsatz von XML-basiertem TEI und EpiDoc für die Dokumentation und Erforschung von komplexen Schriftsystemen. TEI ist ein Standard zur Kodierung von gedruckten Werken oder zur Auszeichnung von sprachlichen Informationen in Texten. Unter EpiDoc sind spezielle Richtlinien für strukturiertes Markup von epigraphischen Dokumenten in XML/TEI zusammengefasst und unser Forschungsprojekt wird die Maya-Inschriften damit digital erfassen und auf dieser Grundlage das Wörterbuch des Klassischen Maya aufbauen. EpiDoc wurde bislang nur für die digitale Kodierung und Annotation von Texten in alphabetischen Schriftsystemen verwendet.

Das Bonner Mayawörterbuch-Projekt diskutierte zusammen mit Schriftexperten den Einsatz der etablierten XML-basierten Auszeichnungsstandards von TEI und EpiDoc für die Erforschung syllabischer und logosyllabischer Schriftsysteme und befasste sich mit der Frage, ob die vorhandenen Standards für die linguistische Annotation von hieroglyphischen Schrift- und Keilschriftsystemen anwendbar sind, die teilweise nur partiell oder kaum entziffert sind. Um in der Diskussion auf eine große Bandbreite an Beispielen zurückgreifen zu können, wurden Schriftexperten zum Hieroglyphen-Luwischen (Annick Payne, Basel), den ägäischen Schriftsystemen (Miguel Valerio, Valencia), Altägyptisch (Daniel Werning, Berlin), zu den Keilschriftsystemen (Hubert Mara, Heidelberg) und zur aztekischen Hieroglyphenschrift (Gordon Whittaker, Göttingen) eingeladen. Auf der Seite der mit digitaler Auszeichnung von Inschriften Erfahrenen berichtete Thomas Kollatz (Essen) über seine Arbeit mit XML/TEI für seine epigraphischen Forschungen zu jüdischen Grabinschriften und deren Dokumentation und Edition. Als Entwickler von EpiDoc und Experte für griechische und lateinische Texte auf Stein und Papyrus erörterte Gabriel Bodard (London) die Richtlinien für die epigraphische digitale Annotation anhand von bisherigen Forschungsprojekten, in denen EpiDoc zum Einsatz kommt.

Am ersten Tag wurden in Vorträgen Graphemik und Graphetik der jeweiligen Schriftsysteme, Entzifferungsstand, Transliterations- und Transkriptionsnormen, der Stand der digitalen Erforschung, sowie weitere Eigenheiten und Besonderheiten der jeweiligen Schriftsysteme dargestellt. Folgende Themen und Fragestellungen wurden in den Vorträgen angesprochen: 1a) Graphemik und Graphotaktik des jeweiligen Schriftsystems: welche Zeichentypen existieren und welche Prinzipien existieren um komplexe Schrifteinheiten zu bilden (z.B. Affigierung, Infigierung, Ligatur, Überlagerung, Auslassung und Abkürzung, Diakritika, Phonetische Komplementierung und semantische Auszeichnung usw.). Gibt es schon Projekte, wo die Auszeichnung dieser Schreibpraktiken kodiert wurde? 1b) Grapheminventar: Zeichenklassifikationen und Zeichenkataloge: welche Bedeutung kommen den Zeichenklassifikationen in der epigraphischen Forschung zu? Wo kommen diese zum Einsatz und welche Rolle spielen sie bei der Transliteration und Transkription der Texte? 2) Graphetik (Schriftverwendung: formale Gestaltung sprachlicher Einheiten ohne Bedeutungsunterscheidung, Gestaltung der Texte). Allographie und Schreibvarianten: welche Bedeutung besitzt dieses Schriftprinzip für das jeweilige Schriftsystem – wird es bei der Annotation und Analyse von Texten berücksichtigt und falls ja, wie? Wie ist die Lesefolge der Zeichen im Text (lineare Schreibung, Kolumnenschreibung)? Existieren Worttrenner oder wie sind unabhängige Lemmata zu erkennen? Welche graphischen Hilfsmittel setzen die Schreiber dafür ein? Gibt es Abweichungen in der Lesefolge – gibt es sogar eine Systematik? Gibt es eine Verbindung von Bild und Text – wie werden Texte in Bilder integriert oder umgekehrt? Wie sind die Textfelder angeordnet und welchen Einfluss hat die Größe des Textfelds oder die Art des Schreibmaterials auf die Graphemik? 3) Stand der Entzifferung und Lesbarkeit der Texte: Wie ist der Stand der Entzifferung des jeweiligen Schriftsystems? Wie ist der Umgang mit einzelnen nicht entzifferten Zeichen, wird dies in der Transliteration und Transkription kenntlich gemacht und welche Regeln gelten hier? Wie geht man mit hypothetischen Entzifferungen einzelner Zeichen oder Passagen um? Werden (physische) Lücken im Text annotiert und kommentiert bzw. in der Edition markiert? Die an diesem Tag erörterten Probleme, Fragestellungen und Herausforderungen wurden am zweiten Tag im Rahmen eines runden Tisches diskutiert.

Ein zentrales Ziel beim strukturierten Markup syllabischer und logo-syllabischer Hieroglyphen- und Keilschriftsysteme ist, dass die Struktur der Originalschreibung und die Anordnung der Zeichen im Text möglichst genau mit Hilfe von XML/TEI für Abfragen abgebildet werden kann. Bei partiell entzifferten oder unentschlüsselten Schriftsystemen kommt hinzu, dass anstelle von Transliterationen und Transkriptionen unentzifferte Zeichen oder Textstellen mit Hilfe von Codes und Nomenklaturen wiedergegeben werden müssen um auf dieser Grundlage unklare und diskussionsbedürftige Zeichen in ihrem jeweiligen Verwendungskontext zu dokumentieren. Grundsätzlich sollte auf der Grundlage der mit XML/TEI ausgezeichneten Texte nicht nur die epigraphische, sondern auch die (korpus)linguistische Analyse möglich sein. Die Dokumentation der Originalschreibung ist jedoch grundlegend für die epigraphische Arbeit mit syllabischen und logo-syllabischen Hieroglyphen- und Keilschriftsystemen. Viele epigraphische Dokumentations- und Datenbankprojekte arbeiten mit Transliterationen und Transkriptionen der Texte aus denen die Originalschreibung nicht mehr hervorgeht und somit systematische graphemische und graphetische Untersuchungen nicht möglich sind. Zudem sollte auf dieser Basis die Analyse der Inschriften bis hin zur linguistischen Untersuchung möglich werden. Unser Projekt hat hier ein Desiderat erkannt und wollte in Zusammenarbeit mit den Schriftexperten Lösungen auf der Grundlage von XML/TEI und EpiDoc diskutieren. Ein wichtiges Resultat dieser Veranstaltung ist die Gründung der Forschergruppe EnCoWs „Encoding Complex Writing Systems“. Ziel dieses Verbundes von Schriftforschern, Sprachwissenschaftlern und Experten für Digital Humanities ist es in den kommenden Monaten gemeinsame Standards für die Auszeichnung von Texten zu entwickeln, die in einem komplexen Schriftsystem verfasst sind. Die Kommunikation innerhalb dieser Gruppe erfolgt über ein Google Group Konto mit gegenwärtig 41 Schriftexperten aus dem In- und Ausland. Über dieses Wiki werden Dokumente gemeinsam bearbeitet, Diskussionen geführt und Material ausgetauscht. Die Ergebnisse dieser Diskussionsgruppe fließen in die laufende und künftige Projektarbeit ein und Ziel ist es, dort erarbeitete Standards zu definieren und in einem gemeinsamen Working Paper festzuhalten und zu publizieren.

Die Jahrestagung des Projekts fand im Anschluss an die 20. Europäische Mayakonferenz am 14. und 15. Dezember in Bonn statt. Das Bonner Mayaprojekt beteiligte sich finanziell und mit seinen Mitarbeitern an der Organisation dieser größten Fachtagung zur Mayakultur in Europa und nutzte die Gelegenheit das Projekt nicht nur im Rahmen eines Vortrags an dieser Tagung selbst, sondern auch bei einem anschließenden Workshop den Teilnehmern der Mayakonferenz vorzustellen. Die Jahrestagung ist eine Folgekonferenz der Auftaktveranstaltung vom 14. Oktober 2014 in Düsseldorf, die über den Stand der laufenden und abgeschlossenen Projektaktivitäten Auskunft gibt. Bei dem anschließenden Workshop mit dem wissenschaftlichen Beirat wurden Standards und Konventionen bei der Transliteration, Transkription und Analyse der Mayatexte diskutiert und festgelegt. Diese werden in einem Arbeitspapier auf der Website des Projekts veröffentlicht.

Publikationen

  1. DIEDERICHS, K. 2015. Unsere „Open Science“-Strategie. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Working Paper 1. http://mayawoerterbuch.de/?p=4334. DE | EN
  2. DIEDERICHS, K., C.M. PRAGER., E. WAGNER., S. GRONEMEYER. & N. GRUBE. 2015. Textdatenbank und Wörterbuch des Klassischen Maya. Electronic Document Wikipedia. https://de.wikipedia.org/wiki/Textdatenbank_und_Wörterbuch_des_Klassischen_Maya.
  3. DIEDERICHS, K., C.M. PRAGER., E. WAGNER., S. GRONEMEYER. & N. GRUBE. 2015. Text Database and Dictionary of Classic Mayan. Electronic Document Wikipedia. https://en.wikipedia.org/wiki/Text_Database_and_Dictionary_of_Classic_Mayan.
  4. GRONEMEYER, S. Class Struggle: Towards a Better Understanding of Maya Writing Using Comparative Graphematics, in H. Kettunen & C. Helmke (ed.) On Methods: How We Know What We Think We Know about the Maya. Proceedings of the 17th European Maya Conference, 2012 (Acta Mesoamericana 28): 101–17. Markt Schwaben: Verlag Anton Saurwein.
  5. GRONEMEYER, S., C.M. PRAGER., E. WAGNER., K. DIEDERICHS., N. GRUBE., F. DIEHR. & M. BRODHUN. 2015. Website. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya. http://mayawoerterbuch.de/. DE | EN | ES
  6. GRONEMEYER, S., C.M. PRAGER. & E. WAGNER. 2015. Evaluating the Digital Documentation Process from 3D Scan to Drawing. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Working Paper 2. http://mayawoerterbuch.de/?p=3405.
  7. GRUBE, N. & C.M. PRAGER. 2015. Textdatenbank und Wörterbuch des Klassischen Maya, in N.-W. Akademie der Wissenschaften und der Künste (ed.) Jahrbuch 2015: 160–64. Düsseldorf: Nordrhein-Westfälische Akademie der Wissenschaften und der Künste.
  8. GRUBE, N., C.M. PRAGER., K. DIEDERICHS., S. GRONEMEYER., E. WAGNER., M. BRODHUN., F. DIEHR. & P. MAIER. 2015. Jahresabschlussbericht 2014. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Project Report 2. http://mayawoerterbuch.de/?p=4477. DE | EN | ES
  9. MAIER, P. 2015. Ein TEI-Metadatenschema für die Auszeichnung des Klassischen Maya. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Working Paper 3. http://mayawoerterbuch.de/?p=5067. DE | EN
  10. PRAGER, C.M. 2015. Das Textdatenbank- und Wörterbuchprojekt des Klassischen Maya: Möglichkeiten und Herausforderungen digitaler Epigraphik, in H. Neuroth, A. Rapp, & S. Söring (ed.) TextGrid: Von der Community – für die Community: Eine Virtuelle Forschungsumgebung für die Geisteswissenschaften: 105–24. Glückstadt: Werner Hülsbusch.
  11. PRAGER, C.M., S. GRONEMEYER. & E. WAGNER. 2015. A Ceramic Vessel of Unknown Provenance in Bonn. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Research Note 1. http://mayawoerterbuch.de/?p=2221.
  12. WAGNER, E., S. GRONEMEYER. & C.M. PRAGER. 2015. Tz’atz’ Nah, a “New“ Term in the Classic Mayan Lexicon. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Research Note 2. http://mayawoerterbuch.de/?p=3827.

Wissenschaftlicher Beirat, Kooperationen und Vernetzung

Der wissenschaftliche Beirat setzt sich aus Prof. Dr. David Stuart (Austin), Prof. Dr. Marc Zender (New Orleans), Prof. em. Dr. Peter Mathews (Melbourne) und Prof. Dr. Gordon Whittaker (Göttingen) zusammen. Ein Treffen mit dem Beirat fand am 15. Dezember in Bonn statt. Es ist geplant, dass sich der Beirat erneut im November 2016 im Rahmen einer Tagung zur Lexikographie des Klassischen Maya in Bonn oder Düsseldorf trifft.

Das Projekt nahm am 28. und 29. Januar 2015 in Essen an einem von Thomas Kollatz organisierten Arbeitstreffen der beiden vom Bundesministerium für Bildung und Forschung (BMBF) geförderten e-Humanities-Projekte „Relationen im Raum“ und „Inschriften im Bezugssystem des Raumes“ teil. Der Workshop war ein Testfall für den Nachweis der Übertragbarkeit der entwickelten Softwarekomponenten in den beiden Projekten, die auch vom Bonner Projekt nachgenutzt werden sollen. In beiden Projekten geht es um die Identifikation der Zusammenhänge zwischen inhaltlichen und räumlichen Merkmalen kulturwissenschaftlich relevanter Objekte. Beide Projekte verbinden epigraphische Studien und Objekte im Raum um auf dieser Basis Aussagen über Bedeutung und Funktion der Schriftträger zu gewinnen. Dieser Ansatz wird auch vom Bonner Mayaprojekt verfolgt, weshalb ein fachlicher Austausch zwischen diesen Projekten angestrebt wird.

Im Rahmen der von der Max Weber Stiftung organisierten Tagung „Digital Humanities Bilder“ in Bad Godesberg ergab sich ein produktiver Kontakt mit dem von der Akademie der Wissenschaften und der Literatur Mainz geförderten Forschungsvorhaben „Altägyptische Kursivschriften: Digitale Paläographie und systematische Analyse des Hieratischen und der Kursivhieroglyphen“10)http://www.adwmainz.de/projekte/altaegyptische-kursivschriften/informationen.html. Dieses Digital Humanities Projekt erstellt eine digitale Paläographie der hieratischen Kursivschrift und nutzt digitale Präsentations- und Auswertungsverfahren, die auch vom Bonner Mayaprojekt eingesetzt werden. Da beide Projekte komplexe und hieroglyphische Schriftsysteme zum Gegenstand ihrer Forschung haben und vergleichbare Zielsetzungen verfolgen, wurde eine engere Zusammenarbeit in Betracht gezogen. Mitglieder des Mainzer Akademieprojekts haben den Workshop vom 14. Dezember in Bonn besucht, das Bonner Mayaprojekt wird im Rahmen der Tagung „Formen und Funktionen der Edition und Paläographie von altägyptischen Kursivschriften“ das Projekt präsentieren und seine Ansätze vorstellen, wie die variantenreichen Mayahieroglyphen informationstechnologisch repräsentiert werden können. Enge Zusammenarbeit besteht auch im Rahmen des vom Projekt initiierten Verbundes „Encoding Complex Writing Systems“ mit über 40 Forschern, die gemeinsam Richtlinien für die TEI Kodierung komplexer Schriftsysteme erarbeiten werden.

Aufgaben und laufende Arbeiten in Bonn

In dieser Sektion des Arbeitsberichts berichten die Mitglieder der Bonner Forschungsstelle über ihre Tätigkeiten und den Stand der Arbeit.

Textarchiv

Die im Jahr 2014 begonnen Arbeiten zum Textarchiv wurden 2015 fortgesetzt (siehe Arbeitsbericht 2014). Seit 2014 werden das Textarchiv und verschiedene Datensammlungen und Arbeitslisten erarbeitet bzw. zusammengestellt, die nicht nur zeitnah auf der Projektwebsite www.http://mayawoerterbuch.de veröffentlicht, sondern auch in die Virtuelle Forschungsumgebung in TextGrid eingepflegt werden. Es ist geplant Digitalisate der Photographien online über die genannte Website unter dem Label CC BY zu veröffentlichen. Dem Projekt stehen neben den Archiven des Projektleiters und der Mitarbeiter auch die Inschriftenarchive von Prof. Karl Herbert Mayer, Prof. Dr. Berthold Riese und Dr. Daniel Graña-Behrens zur Verfügung. Von den über 40.000 analogen Photographien aus dem Inschriftenarchiv von Prof. Karl Herbert Mayer, Graz, wurden bis Dezember über 21.000 Objekte von den studentischen Hilfskräften digitalisiert und indexiert. Sie werden im Laufe der nächsten Jahre in die Virtuelle Forschungsumgebung eingearbeitet und teilweise über die Website veröffentlicht. Von den 135 Aktenordnern mit Photographien, Zeichnungen und Notizen aus dem Archiv von Prof. Berthold Riese wurden bis Dezember 34 Ordner gescannt und rund 11.000 Digitalisate produziert und inventarisiert. Wir erwarten hier ein Gesamtvolumen von zirka 45.000 Objekten, die in die Virtuelle Forschungsumgebung eingearbeitet werden. Aufgrund der großen Datenmenge wird die Digitalisierung und Indexierung der Fotos aus den Archiven von Berthold Riese und Karl Herbert Mayer mindestens bis Mitte 2017 andauern und deren Implementierung läuft parallel zur Bearbeitung der Hieroglypheninschriften. 2015 konnte das Projekt auch das umfangreiche Fotoarchiv des Mayaforschers Daniel Graña-Behrens aufnehmen. In mehreren Feldforschungen dokumentierte Graña-Behrens die Inschriften aus Maya-Fundstätten im Norden der Halbinsel Yukatan. Seine Datensammlung umfasst nicht nur 5.000 Diapositive, sondern auch Zeichnungen, die 2016 digitalisiert und indexiert werden. Es ist geplant, diese Fotos in naher Zukunft über die Projektwebsite der Öffentlichkeit zugänglich zu machen.

Dokumentation von Mayainschriften

Im Frühjahr 2015 erwarb das Bonner Mayaprojekt für die Dokumentation von Mayainschriften einen 3D Streifenlichtscanner der Marke Breuckmann, Typ smartScan. Laut eigener Aussage11)Der Inhalt dieses Abschnitts ist ein Auszug von der Website des Herstellers: http://aicon3d.de/produkte/breuckmann-scanner/smartscan/auf-einen-blick/funktionsprinzip.html. beschreibt der Hersteller das System wie folgt:

„Das Streifenprojektionssystem arbeitet mit der sog. miniaturisierten Projektionstechnik (MPT). Dieses Verfahren ist als aktive Triangulation bekannt, im Angelsächsischen findet man dazu häufig den Begriff ‚White Light Scanner‘. Ein Weißlichtscanner besteht aus verschiedenen Hardware- und Softwarekomponenten, zu denen ein bis zwei Digitalkameras (Messfeld und Auflösung individuell der jeweiligen Anwendung angepasst), eine Projektionseinheit (ungefähr vergleichbar mit einem Diaprojektor) sowie ein Computer mit einer Aufnahme- und Auswertungssoftware gehören. Die Erfassung mit einem Weißlichtscanner / Streifenprojektionssystem erfolgt in folgenden Schritten: Nachdem der 3D Scanner, das Messobjekt und ggfs. ein Drehteller oder ein Roboter für eine automatisierte Erfassung eingerichtet sind, wird die Sensorik (Kameras, Projektor) kalibriert. Es folgt die digitale Vermessung des Objekts, indem der Projektor eine Sequenz von Streifenmustern (hier: Gray-Code-Verfahren kombiniert mit Phasen-Shift-Technik) auf das Messobjekt überträgt. Dabei stehen für jedes Objekt an die Aufgabenstellung angepasste Mustersequenzen zur Verfügung. Die Systemkameras nehmen das projizierte Streifenmuster unter einem vordefinierten Betrachtungswinkel auf, wobei diese Projektion für jedes Objekt, sogar für jede Ansicht des Objekts, individuell verschieden ist. […] Eine einzelne Messsequenz ist nach etwa einer Sekunde abgeschlossen; abhängig von der Komplexität des Messobjekts dauert der gesamte Messvorgang zwischen wenigen Sekunden und mehreren Minuten. Der Prozess ist beendet, wenn das Objekt vollständig digitalisiert wurde, d.h. einzelne Bilder aller Objektseiten aufgenommen und automatisch abgespeichert wurden. Innerhalb weniger Sekunden berechnet der Computer daraufhin die 3D Daten des Messobjekts, indem er die Einzelaufnahmen einfach anhand der Objektgeometrie oder mittels vor der Erfassung angebrachter Passmarken aufeinander ausrichtet und sie so zu einem vollständigen digitalen 3D Abbild des Messobjekts zusammensetzt. Das Ergebnis ist zunächst eine sog. Punktewolke, die dann durch spezialisierte Programme und abhängig von der Messaufgabe […] in ein ausgedünntes Dreiecksnetz, das ‚Mesh‘, überführt wird. In diesem Arbeitsschritt werden z.B. Oberflächen geglättet oder das Messrauschen sowie die Datenmenge verkleinert, ohne dass dadurch die Datenqualität reduziert wird. Das exakte dreidimensionale Abbild des Objekts steht als Datensatz in verschiedensten Formaten zur Verfügung und kann beliebig weiterverarbeitet werden […].“

Erste Tests mit dem Scanner erfolgten in der Altamerika-Sammlung in Bonn, wo ein Originalstück und drei Replika aus Gips und Fiberglas gescannt wurden: 1) das Original eines Tabakgefäßes mit Inschrift und figürlicher Darstellung, 2) Abguss eines großformatigen aztekischen Altars mit der Darstellung der Göttin Coyolxauhqui, der im Eingangsbereich der Abteilung für Altamerikanistik an der Wand hängt, 3) Gipsabguss von Hieroglyphenblock K1 von Stufe LXIII der Hieroglyphentreppe aus Copán und 4) die Fiberglasreplik der linken Tafel aus der Cella im Inneren des Tempels der Sonne in Palenque, wovon Sven Gronemeyer eine Umzeichnung auf einem digitalen Zeichentablett anfertigte. In der Publikation „Tz’atz’ Nah, a ‚New‘ Term in the Classic Mayan Lexicon“ (siehe Publikation 12) wurde auf der Grundlage des 3D Scans der Text neu interpretiert, da mit Hilfe des 3D-Modells eine wichtige Passage lesbar wurde. Eine weitere Publikation des Projekts (Publikation 6) befasst sich mit dem zuvor besprochenen Dokumentationsverfahren und dessen Vorteilen für die epigraphische Forschung, insbesondere im Fall erodierter Passagen. Die Bonner Objekte wurden auf dem projekteigenen Account der für 3D Objekte spezialisierten Internetplattform Sketchfab12)https://sketchfab.com/ veröffentlicht und sind mit der Projektwebsite verlinkt (dazu näheres im Abschnitt „Social Media“).

Das Projekt strebt zum Zweck der Dokumentation von Mayatexten die Zusammenarbeit mit Museen und Sammlungen an, in deren Bestände sich Objekte mit Inschriften befinden. Im Projektjahr 2015 kooperierten wir erfolgreich mit dem Knauf-Museum – Reliefsammlung der großen Epochen in Iphofen, mit dem Museum der Kulturen in Basel, Schweiz und mit dem Ethnologischen Museum, Berlin. Eine weitere Kooperation wurde im Rahmen einer Dienstreise von Christian Prager nach Cambridge, England, im März vereinbart. Das örtliche Museum of Archaeology and Anthropology beherbergt eine große Sammlung mit Gipsabgüssen von Mayamonumenten, die vor über einhundert Jahren hergestellt wurden und seither im Archiv des Museums lagern. Die Abgüsse zeigen den Zustand der Monumente bei ihrer Entdeckung; viele davon sind heute zerstört oder durch Verwitterung stark beschädigt. Das Projekt wird diese Abgüsse mit dem 3D Scanner dokumentieren, in das Inschriftenarchiv integrieren und über die Website der Forschung zur Verfügung stellen. Die Dokumentation dieser Objekte erfolgt im Rahmen einer Dienstreise im Sommer 2016.

Iphofen

Vom 29. Juli bis 4. August 2015 haben die Projektmitarbeiter Sven Gronemeyer, Antje Grothe, Christian Prager und Elisabeth Wagner Gipsrepliken von Maya-Monumenten in Originalgröße im Knauf-Museum in Iphofen mit dem im Jahr 2015 angeschafften 3D Streifenlichtscanner dokumentiert. Das 1983 unter der Schirmherrschaft der Firma Gebrüder Knauf Westdeutsche Gipswerke im ehemaligen fürstbischöflichen Rentamt aus dem 17. Jahrhundert eröffnete Museum besitzt 205 Originalabgüsse, die weltweit in den großen Museen und in archäologischen Stätten von Monumenten in situ angefertigt wurden. Die in 20 Räumen untergebrachte Sammlung umfasst aus Alabastergips hergestellte Repliken aus Mesopotamien, Ägypten, Rom, Griechenland, Altamerika, Indien, Kambodscha und der Osterinsel und umspannt damit die großen Kulturepochen seit 3500 v. Chr. Unter den bekannten Exponaten finden sich etwa Abformungen der Grenzstele Sesostris III, der Gesetzesstele des Hamurabi oder des Rosette-Steins aus dem Britischen Museum.

Iphofen: Palenque, Ovale Tafel

Aus dem vorspanischen Amerika sind neben den Steinmonumenten aus Cerro Sechin und Chavin de Huantar (Peru) auch eine Sammlung aztekischer, totonakischer und zapotekischer Artefakte ausgestellt. In einem eigenen Raum ist eine Sammlung von Maya-Monumenten untergebracht, die während des viertägigen Aufenthalts vom Bonner Team streifenlichttopometrisch dokumentiert wurden. Im Einzelnen dokumentierten wir die 1) ovale Steintafel aus Palenque, Palast, Haus E, an der Wand des westlichen Korridors, 2) den Mittelteil des Reliefs im Sonnentempel (Rückwand der Cella), 3) den rechten Teil der zentralen Tafel im Tempel des Blätterkreuzes (Rückwand der Cella), 4) die skulptierte Tafel im Kreuztempel von der Westseite des Cella-Eingangs, 5) Quirigua, Altar L, 6) Fragment der Hieroglyphentreppe in Seibal, sowie 7) Details von Türsturz 23 aus Yaxchilan. Die 3D Modelle werden derzeit analysiert und für die Publikation auf der Website 2016 vorbereitet.

Basel

Die Dokumentation der hölzernen Türsturze 2 aus Tempel IV sowie die beiden Türsturze 2 und 3 aus Tempel I aus der Mayastadt Tikal mittels Streifenlichtscanner stand im Fokus zweier Forschungsreisen nach Basel vom 9. bis 18. Juli und 26. August bis 4. September. Beteiligt waren Christian Prager, Elisabeth Wagner und Sven Gronemeyer. Die sogenannten Tikaltafeln gehören zu den wenigen historischen Holzartefakten der Mayakultur, welche das tropische Klima des Mayagebiets lange überlebt haben und 1878 nach Basel überführt wurden. Ihre Texte nennen Schlüsselereignisse in der späten Geschichte des Mayatieflandes und erwähnen unter anderem das Ende einer über hundertjährigen hegemonialen Vormacht Calakmuls über die Stadt Tikal. Die Tafeln werden wegen ihrer Einzigartigkeit als „Mona Lisa“ der Basler Sammlung bezeichnet und ihre Bedeutung wird in zahlreichen Publikationen unterstrichen.

In Zusammenarbeit mit dem Kurator für die Amerikaabteilung, Alexander Brust, wurden die einzelnen Planken im Museumsdepot vollständig gescannt. Von Türsturz 3 aus Tempel 4 konnte nur die Vorderseite mit Text und Bildwerk gescannt werden, da sich das Objekt derzeit in der Ausstellung im Museum befindet. Es ist geplant, die Rückseite zu scannen, sobald die Ausstellung im nächsten Jahr wieder umgebaut wird. Mit Hilfe der erstellten 3D Modelle sollen Reproduktionen der Türsturze angefertigt werden und außerdem ist eine gemeinsame Publikation geplant. Die 3D-Modelle werden dem Museum zur Verfügung gestellt und werden auf Anfrage interessierten Forschern zur Verfügung gestellt. Das Museum besitzt darüber hinaus Gipsabgüsse von Monumenten aus Yaxchilan, die teilweise gescannt wurden. Es ist geplant, weitere Objekte mit Mayaschriften im Museum zu scannen und über die Website der Öffentlichkeit zur Verfügung zu stellen.

Berlin

Vom 15. bis 21. März unternahm Elisabeth Wagner eine Dokumentationsreise in das Ethnologische Museum in Berlin. Dort wurden photographisch Maya-Objekte mit Inschriften und bildlichen Darstellungen im Depot des Museums dokumentiert, wobei auch in diesem Falle die Photographien dem Museum zur Verfügung gestellt werden. Die bisherige photographische Dokumentation erfasste die im Museumsdepot gelagerten Objekte mit Mayainschriften und umfasst vollständige Keramikgefäße, Gefäßscherben und Figurinen sowie ein Inschriftenfragment aus Stein. Es ist geplant diese Arbeit mit den übrigen Inschriftenträgern (Steinmonumente, Keramikgefäße, Kleinplastiken und Schmuckobjekte) in der öffentlichen Ausstellung des Museums fortzusetzen und in naher Zukunft auch mittels Streifenlichtscanner und Photogrammetrie zu dokumentieren.

Fundstättenliste

Die im Jahresbericht 2014 beschriebene Fundstättenliste ist mittlerweile online in Form einer Datenbank über die URL http://mayawoerterbuch.de/?cat=83 verfügbar. Derzeit sind von den 526 dokumentierten Fundstätten mit Mayainschriften 296 veröffentlicht und die restlichen 229 Fundorte werden in den kommenden Monaten bearbeitet und online gestellt. Die Arbeitsliste umfasst primär nach Appellativa sortiert die Ruinenorte in Mesoamerika, wo bislang Maya-Hieroglypheninschriften im Zuge archäologischer Erkundungen und Ausgrabungen entdeckt und nachweislich dokumentiert wurden. Sofern bekannt, sind die Fundorte anhand der recherchierten geographischen Koordinaten in Google Maps angezeigt. Die Arbeitsliste bildet die Grundlage des Inschrifteninventars, das derzeit in der Bonner Arbeitsstelle vorbereitet und auf der Projektwebsite ebenfalls als separate, dynamische Arbeitsliste veröffentlicht und gepflegt wird. Mit diesen Materialien bietet das Projekt einen Überblick über die bisher dokumentierten Fundorte mit Angabe der jeweils dort entdeckten Inschriftenträger. Diese datenbankbasierte Publikationsform ist dynamisch und hat gegenüber gedruckten Fundortlisten den Vorteil, dass neu entdeckte Ruinen mit Inschriften unmittelbar in die Fundortdatenbank eingetragen werden können, wodurch sich die Arbeitsliste stets auf dem neuesten Stand befindet. Für die nachhaltige Nutzung und Langzeitspeicherung werden Druckversionen dieses liquid documents mit seinem aktuellen Bearbeitungsstand in regelmäßigen Abständen im Jahresbericht des Projekts veröffentlicht. Für jeden Ruinenort werden nicht nur Quellenangaben (persönliche Mitteilungen, Literaturhinweise, Karten, Internetverweise etc.) dokumentiert, sondern auch wesentliche Metadaten wie zum Beispiel das bevorzugte Appellativ, alternative Bezeichnungen oder Schreibungen, Abkürzungen, geographische Koordinaten und weitere Referenzen. Die Forschungsdaten selbst sind gemeinfrei und werden unter der Lizenz CC BY zur Verfügung gestellt. Unser Metadatenkonzept wird weiter unten vorgestellt.

Die Fundortdatenbank ist auf zwei Ebenen angelegt. Der Einstieg findet über eine dreispaltige Tabelle statt, die alle Fundstätten enthält. Sie ist alphabetisch aufsteigend sortiert. Eine Neusortierung (alphabetisch absteigend) ist für alle Spalten der Tabelle möglich. In der ersten Spalte von links erscheint in blauer Schrift der präferierte Name der jeweiligen Fundstätte (gemäß der Konventionen des CMHI). Darunter erscheinen ggf. alternative Namen in schwarzer Schrift. Existieren mehrere Alternativnamen, dann werden sie durch ein Gleichheitszeichen „=“ getrennt.

In der mittleren Spalte „Akronym“ werden die Dreibuchstabencodes aufgeführt, die als Abkürzung für die Fundortnamen verwendet werden. Bislang erscheinen hier Akronyme, die nachweislich in publizierten Quellen erschienen sind (Riese 2004; Graham 1975, 1982; Graham & Mathews 1999; Fash & Corpus of Maya Hieroglyphic Inscriptions Program 2012; Mathews 2005). Mit Hilfe der Sortierungsfunktion lässt sich einen Überblick darüber verschaffen, welche Fundorte noch kein Akronym besitzen. In der dritten Spalte ist das Land und der Bundesstaat bzw. departamento/district angegeben, in denen sich der Fundort befindet. Die Sortierung ist hier ausschließlich nach Ländern möglich. Über das Auswahlfeld am Kopf der Fundstättenliste kann man sich standardmäßig Ruinenorte in Mexiko, Belize, Costa Rica, El Salvador, Guatemala und Honduras anzeigen lassen. Die Instant-Suchfunktion erlaubt auch eine Abfrage nach Namen oder Namensteilen von Fundstätten.

Der präferierte Name einer Fundstätte ist gleichzeitig ein Link, der zur zweiten Ebene der Fundortdatenbank führt. Diese bietet detaillierte Informationen zu jeder Fundstätte. Die Rahmeninformationen zu den einzelnen Fundorten umfassen:

  1. Bezeichnungen
  2. Identifikationsnummern
  3. geographische Position
  4. Anzahl an Inschriften aus früheren Inventaren
  5. Onlinepräsenzen
  6. weiterführende Bemerkungen und Referenzen

In der ersten Kategorie „Bezeichnungen“ erscheinen weitere alternative Abkürzungen und Namen, die in der Forschungsliteratur belegt sind. Die entsprechenden Quellen sind unter der Kategorie „Quellen“ im Feld „Bemerkungen“ zu finden. Die Angabe von Alternativnamen ist essentiell, denn in der Literatur kursieren öfters verschiedene Namen für ein und dieselbe Fundstätte. Identifikationsnummern aus Normdateien und Thesauri zu zitieren und die Einträge der Fundstättenliste mit diesen zu verknüpfen, stellt eine weitere Möglichkeit dar, um eine Fundstätte eindeutig zu identifizieren. Normdateien sind Verzeichnisse von vereinheitlichten Bezeichnungen, die in einer Dokumentation als Schlagwörter (Deskriptoren) verwendet werden. Sie ermöglichen eine eindeutige Zuordnung und Identifikation von Personen(namen), Geographika, Sachschlagwörtern, Körperschaften, Werktiteln etc.

Wir verknüpfen Fundstätten auch mit dem Getty Thesaurus of Geographic Names Online (TGN)13)http://www.getty.edu/research/tools/vocabularies/tgn/index.html. Es handelt sich dabei um eine Datenbank mit Normdaten, die für die Anwendung in der Museumsdokumentation entwickelt wurde. Der Thesaurus umfasst aktuelle und historische Ortsbezeichnungen in verschiedenen Sprachen, zudem Informationen wie Geokoordinaten und Ortstypen. Seine Normdaten werden unter einer freien Lizenz (Open Data Commons Attribution License (ODC-By) 1.0) veröffentlicht und werden durch ein spezielles Editing- und Reviewverfahren durch autorisierte Fachleute ergänzt und modifiziert. Fundorte unserer Datenbank werden daher nicht nur mit den Normdaten des Thesaurus of Geographic Names Online (TGN) verknüpft, sondern das Projekt wird umgekehrt auch Normdaten in TGN einpflegen, etwa wenn bestehende Daten nicht korrekt sind oder Einträge fehlen.

Sofern ein Eintrag in TGN vorhanden ist, erscheint dieser in der Kategorie „Identifikationsnummer“ im Feld „Getty ID“. Die Fundstätten sind – wenn möglich – auch mit den Identifikationsnummern im Vokabular von GeoNames verknüpft. Diese Datenbank enthält über 10 Millionen geographische Namen, die in jeweils eine von neun Klassen und einen von über 645 Codes kategorisiert sind. Neben Ortsnamen in verschiedenen Sprachen sind auch Längen- und Breitengrade, Meereshöhen, Einwohnerzahlen und administrative Unterteilungen in der Datenbank enthalten. Alle Koordinaten verwenden WGS84 (World Geodetic System 1984), wie es auch in GPS zur Anwendung kommt. Wenn verfügbar, dann erhalten die Fundstätten auch fachspezifische Identifikationsnummern im Feld „Atlas ID“. Bei mexikanischen Fundorten wird die offizielle ID des INAH (Instituto Nacional de Arqueología e Historia) angegeben, bei guatemaltekischen die Fundort-Codes des IDAEH (Instituto de Arqueología e Historia) und bei belizensischen die Registrierungsnummern des NICH (National Institute of Culture and History).

Für die meisten Fundorte ist die genaue geographische Lage gut dokumentiert. In der Kategorie „Position“ bieten wir Informationen zu: a) Land und politisch-territoriale Untereinheit, in der die Fundstätte liegt und b) geographische Koordinaten (WGS84). Nach Angabe des Landes und der politisch-territorialen Untereinheit folgt in Klammern ein ISO 3166-Code. Es handelt sich dabei um einen internationalen, standardisierten Ländercode, der aus drei Teilen besteht. Der erste Teil steht für den aktuellen Staat, der zweite Teil für die politisch-territoriale Untereinheit und der dritte Teil für ehemalige Staaten (seit 1977). Die geographischen Koordinaten werden im Dezimalformat angegeben und stammen aus unterschiedlichen Quellen, die wir unter „Quellen/Bemerkungen“ aufführen. Darüber hinaus stellen wir in dieser Kategorie einen Link zu einem Tool zur Verfügung, mit dessen Hilfe die von uns angegebenen Koordinaten umgerechnet werden können.

Jeder Eintrag wird mit Hilfe von Google Maps oder anderen Portalen auf seine Verlässlichkeit geprüft. Ist die angegebene, geographische Lage plausibel und wie exakt sind die Messungen? In vielen Fällen lassen sich die in der Literatur enthaltenen Angaben durch Google Maps verifizieren. Unsichere oder problematische Messungen werden unter „Quellen/Bemerkungen“ vermerkt. Jede Lage wird mit einer Quellenangabe belegt und kann durch den Nutzer anhand der eingebetteten Karte von GoogleMaps selbst überprüft werden.

Unter der Kategorie „Anzahl an Inschriften“ erscheint die Anzahl der Hieroglyphentexte, die in den beiden bislang publizierten Inschrifteninventaren dokumentiert sind. Das erste Inventar stammt von Sylvanus Morley aus dem Jahr 1948 (siehe oben). Bei dem zweiten Inventar handelt es sich um eine Übersicht von Berthold Riese (1980), die nicht nur alle bis dahin bekannten Fundorte mit Inschriften enthält, sondern auch für jeden Fundort die Anzahl der Inschriften angibt. Dieser Bereich wird zukünftig mit Angaben aus dem CMHI und eigenen Forschungsdaten ergänzt.

Darüber hinaus verknüpfen wir die Fundorte unter der Kategorie „Online“ mit der Internetpräsenz von Forschungsprojekten, verweisen auf etwaige Google Street View Ansichten und verlinken auf Facebook und Twitter, sofern diese Projekte über Social Media-Kanäle verfügen. Kommentare zum Fundort, der Verlässlichkeit von geographischen Koordinaten, zu Quellennachweisen usw. befinden sich unter „Bemerkungen“ und „Referenzen“. In den Referenzen finden sich nicht nur Quellenangaben zu den Einträgen selbst, sondern auch weiterführende Literatur, die in der Literaturdatenbank Zotero gepflegt wird und dadurch stets auf dem neuesten Stand gehalten werden kann. Die Literaturrecherche wird als Funktion in der Zukunft verfügbar sein.

Liste von Museen und Sammlungen

Außer der zuvor erwähnten Fundortdatenbank steht zudem die bereits 2014 beschriebene Museumsliste unter der URL http://mayawoerterbuch.de/?cat=80 als Datenbank aller öffentlichen und für die Forschung zugänglichen Sammlungen von Objekten der Mayakultur in Museen und archäologischen Stätten. Gegenwärtig enthält sie über 200 Einträge und wird laufend erweitert. Nach der Fundortliste bildet die Museumsliste eine weitere Grundlage des Inschrifteninventars. Neben zahlreichen Objekten der Mayakultur unbekannter Herkunft, die oftmals u.a. Schenkungen, Nachlässe oder Käufe in die Sammlungen der Museen gelangten, führten manche Museen und Institutionen auch eigene Forschungen im Mayagebiet durch und gelangten so in den Besitz von Mayaartefakten. Somit sind Informationen zu Museen und Sammlungen bei der Erstellung der Objektbiographien, welche auch Informationen zu Dokumentation, Erwerbshistorie und Standort einschließen, von wesentlicher Bedeutung. Um die Erwerbs- und Dokumentationshistorie eines gegebenen Objekts möglichst lückenlos zu dokumentieren, werden nicht nur noch bestehende Sammlungen dokumentiert und – im Falle einer Namensänderung – deren frühere Bezeichnungen, sondern auch bereits aufgelöste Museen und Sammlungen. In der online veröffentlichten Datenbank sind Letztere durch ein in Klammern gesetztes Kreuz hinter dem Namen als aufgelöst gekennzeichnet.

Wie auch die Fundortliste ist die Museumsdatenbank in zwei Ebenen angelegt. Auf der Einstiegsseite findet sich eine vierspaltige Tabelle, von der jede Spalte alphabetisch auf- und abwärts sortierbar ist. Die Spalten umfassen Name, Akronym, Stadt sowie das Land mit dem jeweiligen Bundesstaat. Die zweite Ebene bildet der Datensatz zu jeweils dem ausgewählten Museum oder der Sammlung. Ein solcher Datensatz enthält außer dem aktuellen Namen, ggf. dem Akronym, Standort und Kontaktdaten auch die Onlinepräsenz des jeweiligen Museums mit Links zu seiner Website sowie dessen Kanälen in sozialen Medien. Als Hilfsmittel zur weiteren Recherche erscheinen, soweit verfügbar, auch Direktlinks zu Katalogen und Datenbanken mit Beständen an Objekten der Mayakultur. Zur genauen Georeferenzierung werden wenn vorhanden die geographischen Koordinaten, IDs von Geonames, sowie TGN und ULAN (Union List of Artist Names)14)http://www.getty.edu/research/tools/vocabularies/ulan/index.html aufgeführt. Zu jedem Datensatz erscheint auch eine Karte von Google Maps, auf der die genaue Lage des jeweiligen Museums angezeigt wird. Durch die Registrierung des Projekts bei Geonames konnte bereits einer Reihe von vorher noch nicht georeferenzierten Museen eine Geonames ID vergeben oder bereits bestehende Referenzierungen korrigiert oder präzisiert werden. Wie der TGN steht ULAN ebenso als Normdatenbank zur Verfügung und kann daher ebenso ergänzt und modifiziert werden.

Mittels Auswahlfeldern oberhalb des Tabellenkopfes lassen sich Museen und Sammlungen in ausgewählten Ländern anzeigen. Zudem werden rechts oben auf der Einstiegsseite in einem separaten Menü der jeweils neueste Eintrag sowie die drei zuletzt bearbeiteten Einträge angezeigt. Des Weiteren lädt eine Kommentarfunktion die Besucher der Website ein, neue Museen oder Sammlungen als auch Korrekturen, Änderungen oder Aktualisierungen zu bereits aufgeführten Museen zu melden, damit diese dann in die Liste aufgenommen bzw. bestehende Einträge aktualisiert werden können.

Literatur

Ein weiteres Ziel des Projekt ist es eine vollständige Bibliographie über die Mayakultur zu erstellen (siehe Arbeitsbericht 2014). Für jeden Textträger wird eine Objektbeschreibung und -biographie erstellt. Nutzer der Textdatenbank können dadurch Informationen zum jeweiligen Kontext einer Inschrift abrufen. Die virtuelle Arbeitsumgebung enthält daher nicht nur Beschreibungen über die Textträger oder Informationen über den Inhalt der Texte, sondern Datenbanknutzende bekommen mit Hilfe der Literaturdatenbank auch einen Überblick darüber, welche Autoren sich mit einem Monument befasst oder es publiziert haben, eine Textpassage diskutiert oder erstmals eine bis heute gültige sprachliche Lesung einer Hieroglyphe bzw. eines Zeichens der Öffentlichkeit präsentiert haben. Für die Erfassung der Literatur wird die freie und quelloffene Anwendung Zotero verwendet um unterschiedliche Online- und Offlinequellen zu sammeln, zu verwalten und zu zitieren. Die Anwendung unterstützt die Bearbeitung und Edition von Literaturangaben und Literaturlisten und erlaubt kollaboratives Arbeiten an unterschiedlichen Standorten. Im Dezember 2014 wurden 4.836 Datensätze erfasst, Ende 2015 umfasst die Literaturdatenbank 11.441 Einträge. Jeder Eintrag wurde mit Hilfe von Datenbanken und der Originalliteratur auf Vollständigkeit und Richtigkeit überprüft und – wenn vorhanden – mit einer URL verknüpft, wodurch auf eine Onlineversion der entsprechenden Monographie oder Artikels zugegriffen werden kann. Für das Projekt wurde in Kooperation mit der Universitäts- und Landesbibliothek für 2015 und 2016 auch eine Lizenz für die Nutzung der bibliographische Datenbank „Anthropology Plus“ erworben, mit deren Hilfe die Datensätze überprüft und weitere Literatur erfasst und eingepflegt werden kann. Die Kosten hierfür teilen sich die das Projekt und die ULB. Die Literatur kann über verschiedene Formate exportiert werden und wurde auch erfolgreich in IDIOM implementiert, so dass die Einträge dort auch referenziert werden können. Die Literaturdatenbank wird im Laufe des Jahres 2016 zur freien Recherche und mit einer Exportfunktion über die Projektwebsite verfügbar sein.

Virtuelles Inschriftenarchiv in der Digitalen Bibliothek

Die ULB bietet einen freien Webzugang zu ihrem Bestand elektronisch verfügbarer Medien auf ihrer Web-Präsenz, in den sogenannten Digitalen Sammlungen15)http://digitale-sammlungen.ulb.uni-bonn.de/ an. Diese umfassen neben digitalisierten Drucken aus dem historischen Altbestand der ULB auch elektronische Publikationen. Um die Digitalisate und Medien zu managen und im Web zu präsentieren bzw. verfügbar zu machen, wird seitens der ULB die Software Visual Library (VL), sowie der VL-Manager der kooperierenden Software-Firma Semantics Kommunikationsmanagement GmbH16)http://www.semantics.de/ eingesetzt.

Das TWKM-Projekt hat durch die Zusammenarbeit mit der ULB in seiner Projektplanung den Aufbau eines Virtuellen Inschriftenarchivs in deren Digitalen Sammlungen vorgesehen. In diesem Inschriftenarchiv sollen die Digitalisate und einige objektbeschreibende Metadaten sowie Textanalysen und Übersetzungen von ausgewählten Maya-Inschriften abgebildet werden, deren Quelle die Projektdatenbank sein wird. Die Projektdatenbank wiederum soll innerhalb der Virtuellen Forschungsumgebung in TextGrid erstellt und gespeichert werden. Die projekteigenen, in der TextGrid-Umgebung gespeicherten Digitalisate samt ihrer Metadaten sind somit keine Bibliotheksbestände der ULB im üblichen Sinne, die im gewohnten Prozedere auf dem hbz-Server (hbz: Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen)17)https://www.hbz-nrw.de/ gehostet und mittels Visual Library Manager bearbeitet werden können. Um die Projektinhalte wie geplant in den Digitalen Sammlungen der ULB zu präsentieren und sie dort öffentlich zugänglich zu machen, mussten seit Projektbeginn in Bonn und Göttingen in Kooperation mit der ULB und der Firma Semantics neue Lösungen erarbeitet werden.

Die Zusammenarbeit mit Semantics und der ULB fuhr diesbezüglich 2015 fort. Die Arbeit konzentrierte sich auf das Ziel, erste Testdaten aus im Projekt erstellten Metadaten an Semantics zu übermitteln, so dass beide Parteien konkretere Maßnahmen treffen können für die technische Planung und Umsetzung der nötigen Schritte zur Übermittlung und Darstellung der Daten im Virtuellen Inschriftenarchiv.

Zunächst wurden hierzu Anfang 2015 in einem Treffen zwischen Jan Kenter (ULB), Christian Pager und Katja Diederichs in Bonn anknüpfend an die Besprechung mit Semantics im Dezember 2014 die durch die Projektarbeit notwendigen Änderungen im Vorgehen aktualisiert und weitere Arbeitsschritte in Bezug auf einen Datenaustausch mit der Visual Library-Software festgelegt und angegangen. Gewählt wurde zunächst aus allen vorhandenen Optionen, die einer möglichen Datenübertragung per OAI-PMH18)https://www.openarchives.org/-Schnittstelle. OAI-PMH (Open Archives Initiative Protocol for Metadata Harvesting) ist ein barrierearmer Weg, um Interoperabilität für Web-Repositorien zu ermöglichen. Darauffolgend wurde von Max Brodhun (SUB) in Göttingen evaluiert, ob eine Lieferung von auf ein anderes Format gemappten Daten über OAI-PMH seitens TextGrid möglich sei. Nachdem die Prüfung zur technischen Gestaltung der Schnittstelle positiv ausfiel, wurde sich darauf geeinigt, diese Option zu realisieren und andere vorgeschlagenen Alternativen zugunsten einer Datenlieferung über das OAI-PMH-Interface fallen zu lassen. Diese technische Entscheidung führte zu dem Entschluss, im Weiteren eine Aktualisierung des ursprünglichen Angebotes mit Semantics zu kommunizieren, in der auf eine geplante Schulung zur Semantics-Software Visual Library Manager, mithilfe derer die Inhalte für die Darstellung im Visual Library gestaltet werden, verzichtet werden könne. Ebenso würden eine Lizenzvergabe zu dessen Nutzung und Softwarepflege sowie eine Vergabe von URNs hinfällig, da die per Schnittstelle gelieferten Daten bereits von TextGrid erstellte persistente Indentifier besitzen werden.

Nach Fertigstellung des Metadatenschemas für die Eingabemaske des Projekts, konnte im Herbst 2015 das Mapping ausgewählter Inhalte umgesetzt werden. Hierzu wurden Elemente des Metadatenschemas identifiziert, die für die Präsentation in der Visual Library relevant sein würden. Diese nun auf ein anderes Metadatenformat zu mappen ist eine notwendige technische Maßnahme, um die Inhalte des größtenteils auf CIDOC-CRM bestehenden, nicht-textuelle Inhalte beschreibenden Metadatenformats in ihrer Semantik konsistent einem in einer anderen Syntax bestehenden Format zuzuordnen. Das in den Digitalen Sammlungen entsprechend zur Abbildung der Inhalte genutzte Format besteht aus den für Digitale Bibliotheken bewährten, offenen XML-basierten Standards METS (Metadata Encoding & Transmission Standard)19)http://www.loc.gov/standards/mets/ und MODS (Metadata Object Description Schema)20)http://www.loc.gov/standards/mods/ deren Schemadefinitionen darüber hinaus die Inhalte zum DFG-Viewer kompatibel machen.

Im September 2015 wurde ein erstes Mapping dann in einem weiteren Treffen in Göttingen zwischen Katja Diederichs und Franziska Diehr auf Durchführbarkeit geprüft, diskutiert und im Anschluss konkretisiert. Hierbei wurden sowohl Metadaten Elemente für das Mapping definiert, die zur visuellen Präsentation in der Visual Library dienen, als auch Elemente, die lediglich für die Recherche in der Digitalen Sammlung benötigt werden. Metadatenelemente etwa, welche die wichtigsten Grundinformationen zu einer Inschrift beschreiben, und hierzu präsentiert werden sollen wie z.B. der Artefakttitel, Ort oder die Abmessungen wurden dementsprechend passenden MODS-Elementen zugewiesen. Zum Beispiel würde bei einem Mapping der Inhalt des Metadatenschemas für den bevorzugten Titel folgendermaßen abgebildet werden: Über das Metadaten-Element idiom:Artefact besteht eine Verbindung mit dem Element idiom:preferredTitle, welches ein Literal enthält mit dem Wert „Yaxchilan Lintel 8“. Dieser Inhalt würde bei einem Mapping abgebildet werden auf das MODS-Element <mods:titleInfo> (mit dem auszufüllenden Attribut xml:lang) und dem darin verschachtelten Unterelement <title>.

So würde schließlich die Beschreibung des mit der Artefaktklasse verbundenen Titelelements im Metadatenschema folgendermaßen aussehen:

<idiom:preferredTitle>Yaxchilan Lintel 8</idiom:preferredTitle>

Dieser würde folgende Abbildung in MODS entsprechen:

<mods:titleInfo xml:lang="en">
<mods:title>Yaxchilan Lintel8</mods:title>
</mods:titleInfo>

Ende 2015 wurde aus Göttingen die erste Testdatenlieferung an fertig gemappten Objektdaten an Semantics geliefert, um auf Nutzbarkeit geprüft zu werden. Hierbei handelt es sich einerseits um die objektbeschreibenden METS/MODS-basierte Daten und andererseits um ein Mockup, das graphisch darstellt, wie die Abbildung der Daten schließlich im Visual Library-Portal aussehen könnte.

Die im Weiteren für 2016 geplante Erstellung eines XML/TEI-basierten Metadatenschemas für die textuellen Analysedaten wird im nächsten Schritt erfordern, einen Weg zu finden, die noch fehlen Transkriptionen, Transliterationen und Übersetzungen in die Visual Library zu übermitteln. Dort werden dann schließlich die Abbildungen der Inschriften neben den objektbeschreibenden Daten mit den textuellen Metadaten (Transliteration, Transkription und Übersetzung) für das Virtuelle Inschriftenarchiv umgesetzt werden. Im Laufe des Jahres 2016 wird der Austausch zwischen Semantics, dem Projekt in Bonn und der SUB in Göttingen über das weitere Vorgehen hinsichtlich der textuellen Metadaten fortgeführt.

Onlinepräsentation und Social Media

Onlinepräsentation

Die Fortentwicklung der im Oktober 2014 aufgesetzten Instanz von WordPress für die Projektwebsite21)http://mayawoerterbuch.de als Phase II der Onlinepräsentation wurde 2015 fortgeführt. Der von Beuse Projektmanagement als ausführende Agentur projektierte Go-Live Ende 2014 konnte aufgrund mehrerer Umstände nicht eingehalten werden. Basierend auf der initialen Umsetzung der Website im CMS (Content Management System) bedurfte es eines weiteren, iterativen Prozesses, um Design, Konzeption, Usability und Technologie im Sinne aller Projektbeteiligter abzustimmen.

Eine erste Korrekturschleife mit einem dreispaltigen Seitenlayout, angelehnt an das Corporate Design der NRW-AWK, wurde im März 2015 beendet. Im April erhielt Sven Gronemeyer mehrere grundlegende Schulungen durch Beuse Projektmanagement, welche verschiedene Module beinhaltete: WordPress als Redaktionsoberfläche, Nutzung des Backends, grundlegende objektorientierte PHP-Kenntnisse zur Verwaltung von Templates und Änderungen im Core, sowie die Nutzung von git zur Versionskontrolle zwischen lokaler Entwicklungsumgebung und entferntem Bare Repository zur gemeinsamen Entwicklung. Eine zweite Korrekturschleife mit einer Feinabstimmung von Funktionalitäten, Designs und einem weitgehenden Bugfixing konnte im Juni 2015 abgeschlossen werden. Weitere kleinere Anpassungen wurden im laufenden Redaktionsbetrieb bis Ende 2015 durchgeführt.

Nachdem hiermit ein stabiles System geschaffen werden konnte, wurde aus dem Bare Repository und der MySQL-Datenbank mit den Inhalten der Seite ein Klon auf der Virtual Machine der (Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen) GWDG22)https://www.gwdg.de/de in Göttingen erstellt, welche der Internet Service Provider der Website ist. Weiterhin wurde ein Backup-Tool implementiert, das über einen Cronjob (zeitbasierter Prozess) täglich Sicherungen des Contents vornimmt. Laufende Redaktionsarbeiten wurden von diesem Zeitpunkt an auf dem Klon durchgeführt, um seine Systemstabilität zu testen.

Neben dem Verfassen diverser Projektpublikationen bestand die inhaltliche Arbeit vor allem in der Qualitätssicherung der Arbeitslisten. Vorrangig wurden hierfür die Fundstättenliste und die Museumsliste einer Revision unterzogen, um einen einheitlichen Informationsstand für den Go-Live zu gewährleisten. Von den 526 Fundstätten der Arbeitsliste konnten bis Go-Live 296 Einträge redigiert werden, von den 365 Museen und Sammlungen 127. Zum Oktober 2015 konnte mit Catherine Letcher Lazo eine wissenschaftliche Hilfskraft zur Koordinierung der redaktionellen Arbeiten angestellt werden. Diese beinhalten eine Redaktion der deutschen Texte, eine Koordination für die Übersetzung für die englische Sprachinstanz (durch Mallory Matsumoto) und die Übersetzungen für die spanische Sprachinstanz.

Nach Abschluss der Testphase und einer als ausreichend erachteten Contentpflege wurde die Website am 14. Dezember 2015 im Rahmen der zweiten Jahrestagung des Projekts der Öffentlichkeit vorgestellt, nachdem der eigentliche Go-Live eine Woche zuvor stattfand. Einige unwesentliche Bugs bedürfen eines weiteren Fixing in 2016, ebenso steht der Ausbau der Arbeitslisten und der spanischen Fassung an. Für die Zeichenkonkordanz und die Morphemliste wird ebenfalls der Plugin „Magic Fields“23)https://de.wordpress.org/plugins/magic-fields/ benutzt werden, hierfür sind weitere angepasste Templates erforderlich, deren Konzeption in 2016 weitergeführt wird.

Das Zotero-Plugin zur Verwaltung der Literaturangaben ist weiterhin in der Entwicklung, die in einen Funktions-Branch (Kommunikation mit der Zotero-API) und einen Backend-Branch (Einbettung des Plugin in WordPress) aufgespalten wurde. Die Entwicklung wird 2016 abgeschlossen sein. Phase III der Website (Integration von SADE (Skalierbare Architektur für Digitale Editionen) zur Publikation von TextGrid-Objekten) ist derzeit nicht skalierbar und wird ausgesetzt. Stattdessen wird die Website ab 2016 um weitere Funktionen erweitert: die Bereitstellung von nicht-epigraphischen Fotos aus den digitalisierten Archiven in einer durchsuchbaren Galerie (nach Beschreibung/Tags), eine vergleichbare Galerie für 3D-Daten, sowie eine weitere Kategorie für außerhalb der Website veröffentlichte Publikationen. Diese Initiativen finden im Rahmen des „Green Open Access“, der Selbstarchivierung von Materialien, statt.

Social Media

Ein Aspekt der Website ist die schnelle und breite Bekanntmachung von Forschungsdaten und -fragen, nach Möglichkeit in Interaktion mit dem Nutzer, d.h. der Fachwelt. So kann etwa bei allen Arbeitslisten Feedback gegeben werden, um Diskussionen anzustoßen, die allerdings abseits sichtbarer Kanäle ablaufen würden. Um ein weniger formelles und schnelles Format von großer Reichweite zu schaffen, wird das Projekt auf der Website auch eine Kommentarfunktion bei den Projektpublikationen anbieten, die nativ in WordPress verfügbar ist. Diese Kommentare zielen vor allem auf einen wissenschaftlichen Diskurs ab, der sich inhaltlich mit den Publikationen auseinandersetzt.

Neben der eigentlichen Website spielen Kanäle in sozialen Netzwerken eine große Rolle. Zeitgleich mit dem Go-Live der Website gingen Kanäle auf Facebook24)https://www.facebook.com/idiom.project/ und Twitter25)https://twitter.com/idiom_project/ online. Beide Kanäle erlauben es, das Projekt vertieft in der Forschergemeinschaft und einer breiteren Community einzubetten. Dies beinhaltet die Ankündigung von Veranstaltung, neuer Publikationen, neuer Einträge in den Arbeitslisten, etc. Gleichzeitig können Blicke hinter die Kulissen und damit quasi Einblicke in die Arbeit des Projekts in Echtzeit gegeben werden. Kommentare sind hier eher auf einer kolloquialen Ebene zu erwarten und sogar erwünscht.

Ein weiterer Kanal bei einem webbasierten Dienst ist bei Sketchfab26)https://sketchfab.com/idiom-project/ eingerichtet. Diese Plattform bietet einen Online-Viewer für 3D-Modelle und hat eine soziale Komponente, bei der Modelle geteilt, bewertet und kommentiert werden können. Da serverseitig die WebGL JavaScript API zur Darstellung von 3D-Daten und browserseitig die gemeinfreie OSG.JS JavaScript-Bibliothek eingesetzt werden, können die frei beweglichen 3D-Modelle des Projekts plattformunabhängig betrachtet werden (inkl. interaktiver Parameter wie bewegliche Lichtquellen oder Renderingoptionen). Als Bildungseinrichtung hat das Projekt kostenfrei einen Pro-Account erhalten, der den Upload komplexerer Modelle (bis 10 Mio. Faces) erlaubt. Andere kulturelle Institutionen (z.B. das British Museum oder das Peabody Museum) haben bereits eigene Kanäle eingerichtet, so dass ein interaktives Repository von Maya-Objekten zur Verfügung gestellt werden kann. Die 3D-Modelle von Sketchfab können ebenso einfach über andere soziale Medien geteilt oder auf anderen Websites (inklusive der des Projekts) eingebettet werden.

Aufgaben und laufende Arbeiten in Göttingen

Die Konzeption und Entwicklung der informationstechnologischen Komponenten des Projekts gehört zum Aufgabenbereich der SUB Göttingen. Im Vordergrund stehen dabei die Entwicklung des Metadatenschemas und die darauf aufbauende Programmierung und Anpassung der Virtuellen Forschungsumgebung TextGrid an die Aufgaben, Bedürfnisse und Zielsetzungen des Projekts. Im Folgenden fassen wir die im Jahre 2015 geleisteten Arbeiten zusammen.

Metadatenerfassung für nicht-textuelle Objekte

Die Erfassung der Daten für nicht-textuelle Objekte zu ermöglichen, bildete die Kernkomponente des Jahres 2015. Die Umsetzung umfasst im Wesentlichen vier große Bereiche, die eng miteinander verbunden sind und sich in ihrer Entwicklung gegenseitig stark beeinflussten: Die Formulierung fachwissenschaftlicher Anforderungen an die Metadatenerfassung, die Konzeption des Metadatenschemas, die Entwicklung von Vokabularen und die Implementierung der Eingabemaske in die virtuelle Forschungsumgebung.

Zum Ende des Jahres 2014 befanden sich die Bereiche auf einem konzeptionellen Stand, welcher im Laufe 2015 auf einen produktiven und damit einsatzfähigen Status gebracht wurde.

Die Entwicklung der Eingabemaske kann als iterativer Prozess verstanden werden, bei dem alle Bereiche voneinander abhängig sind. Durch die gegenseitige Beeinflussung waren folgende Arbeitsschritte nicht voneinander zu trennen und bedurften einer engen Zusammenarbeit und stetigen Austausch:

  1. Formulierung fachwissenschaftlicher Anforderungen an Metadatenerfassung
  2. Entwicklung und Anpassung des Metadatenschemas
  3. Entwicklung von Vokabularen
  4. Technische Umsetzung
  5. Testen des Prototyps

Die fachwissenschaftlichen Anforderungen an die Metadatenerfassung wurden größtenteils bereits 2014 formuliert und bereits zum Teil im Metadatenschema umgesetzt. Im ersten Jahresdrittel 2015 konnte eine erste Version des Metadatenschemas fertiggestellt werden. Dieses gibt die Struktur für die Datenorganisation für die technische Umsetzung vor. Im nächsten Schritt fand die Entwicklung eines ersten Prototyps der Eingabemaske statt, der dann in einer ausgiebigen Testphase von allen Mitgliedern des Teams begutachtet und verbessert wurde. Während der Testphase konkretisierten sich auch die fachwissenschaftlichen Anforderungen an die Metadatenerfassung. Dies machte Anpassungen am Schema und an der technischen Umsetzung notwendig. Die Möglichkeit mit der Eingabemaske direkt zu interagieren zeigte auf welche Komponenten nicht vorhanden bzw. fehlerhaft waren.

Die neu umgesetzten Anforderungen müssen wiederum getestet werden, was den Prozess zu einem Kreislauf macht, der erst dann seinen Abschluss findet, wenn alle gewünschten Anforderungen im Metadatenschema und in der Eingabemaske umgesetzt sind. Dieses Ziel war Ende 2015 erreicht und die Eingabemaske konnte in die Produktivversion übergehen. Im Folgenden werden die einzelnen Phasen und die jeweils ausgeführten Arbeitspakete im Detail erläutert.

Formulierung fachwissenschaftlicher Anforderungen sowie Entwicklung und Anpassung des Metadatenschemas

Für die Formulierung der fachwissenschaftlichen Anforderungen diente ein Anforderungskatalog als Hilfsmittel. Seine Ausarbeitung begann bereits im Jahre 2014 und konnte zu Beginn 2015 fertiggesellt werden. Auf dieser Grundlage konnte die im Vorjahr begonnene Modellierung des Schemas fortgesetzt werden.

Als Basis für die Modellierung des IDIOM-Metadatenschemas diente das CIDOC CRM (CIDOC Conceptual Reference Model), ein ISO-Standard, der im Museumsbereich entwickelt wurde, um museale Objekte und Prozesse formal beschreibbar zu machen. Das Referenzmodell eignet sich daher auch für die Beschreibung epigraphischer Prozesse und Objekte sowie der Dokumentation von Forschungsgeschichte. Neben dem CIDOC CRM fanden weitere Standards und Schemata bei der Modellierung Anwendung. Viele der Standard-Terme wurden jedoch nicht direkt in das IDIOM-Schema integriert, sondern dienten als Super-Class bzw. Super-Property für einen spezifizierten IDIOM-Term.

Die fachwissenschaftlichen Anforderungen an die Metadatenerfassung gestalten sich umfangreich und komplex. Das Projekt möchte zur Geschichte eines Inschriftenträgers alle bekannten Informationen sammeln. Dies beinhaltet auch die Dokumentation sich widersprechender Fakten, die unterschiedlichen Ursprungs sein können. Ein Beispiel dafür sind die Maße eines Schriftenträgers. Ein Artefakt ist häufig von mehreren Forschern vermessen worden. Demzufolge kursieren unterschiedliche Maßangaben zu einem Artefakt in der Forschungswelt und -literatur. Die verschiedenen Maße müssen dabei nicht zwangsläufig fehlerhaftem Messverfahren oder verschieden angewandter Messmethoden geschuldet sein, sondern können auch durch die Verwitterung des Monuments begründet sein. Daher kann nicht zwangsläufig eine Aussage über die Korrektheit der Angaben getroffen werden. Das Projekt entschied alle Messungen eines Artefakts unter Angabe der Quelle zu dokumentieren.

Das IDIOM-Schema

Im Folgenden wird das Metadatenschema in seinen Grundzügen vorgestellt (Abbildung 1).

Unter der Klasse Artefakt (idiom:Artefact) werden von Menschenhand erschaffene bzw. bearbeitete physische Objekte zusammengefasst. Dies schließt nicht nur Schrift- und Bildträger ein, sondern auch weitere Objekte, die nicht zwangsläufig eine Inschrift bzw. eine bildliche Darstellung tragen. Dies ermöglicht auch die Dokumentation von Objekten, die im Zusammenhang mit einem Informationsträger stehen, selbst aber keine Schrift bzw. Bild enthalten wie Gebäude, Artefaktfragmente, Gräber usw.

Durch die Schema-Klasse Artefakt kann das Objekt mit seinen Eigenschaften wie u.a. Form, Maße, Zustand beschrieben werden. Um in einem weiteren Schritt auch die Biographie des Artefakts zu erfassen, wird es mit Ereignissen verknüpft. Diese Ereignisse werden ihrerseits wiederum detailliert beschrieben. Im Folgenden werden die zentralen Ereignisse zur Dokumentation der Objektbiographie kurz erläutert.

Mit dem Ereignis Produktion (crm:E12_Production) wird die Herstellung eines Artefakts mit Informationen zu verwendetem Material und angewandter Technik (kontrollierte Vokabulare), Herstellungsort und -datum, Erschaffer und Auftraggeber dokumentiert.

Die erste wissenschaftlich dokumentierte Entdeckung eines Artefakts wird mit dem Ereignis Entdeckung (idiom:Discovery) beschrieben. Hier können detaillierte Angaben zum Fundkontext, Entdecker, Fundort und -datum gemacht werden.

Wenn sich ein Artefakt in der Obhut einer Person (z.B. Privatsammler) oder Institution (z.B. Museum) befindet, kann das mit dem Ereignis Aufbewahrung (idiom:Custody) erfasst werden. Der Eigentumswechsel von Artefakten kann mittels des Ereignisses Erwerbung (crm:E8_Acquisition) beschrieben werden.

Es besteht die Möglichkeit weitere Ereignisse anzulegen, die mit dem Artefakt verbunden sind oder historische Relevanz für die Mayakultur haben. Dazu ist im Schema ein nicht weiter spezialisiertes Ereignis Aktivität (crm:E7_Activity) definiert. Mit Hilfe des kontrollierten Vokabulars Aktivitätstypen (idiom:ActivityType) kann das Ereignis kategorisiert werden und eine Suche nach bspw. Expeditionen, Kriegen oder Thronbesteigungen ist möglich. Weiterhin können Personen und Gruppen, die an Ereignissen teilgenommen haben, mit Hilfe des kontrollierten Vokabulars Rolle (idiom:ActorRole) konkrete Rollen zugewiesen werden, die sie in dem beschriebenen Ereignis ausgeführt haben. Ereignisse können mit Orten (crm:E53_Place), Daten (idiom:Date) und Akteuren (crm:E39_Actor) verknüpft werden, zu denen wiederum weitere Informationen erfasst werden.

Als Orte werden u.a. archäologische Fundstätten und Artefaktfundstellen erfasst. Durch verschiedene Relationen können hier Ortshierarchien angelegt werden, um z.B. den Aufbau einer Fundstätte abzubilden. Des Weiteren werden Orte mit Geokoordinaten versehen und erhalten IDs aus den Normdatensätzen Getty TGN und GeoNames. Auch Grabungsquadranten und andere Referenzkoordinaten, die bei archäologischen Grabungen verwendet werden, können mit dem IDIOM-Schema erfasst werden.

Ein Datum kann sowohl in Form des Gregorianischen Kalenders als auch in Long Count angegeben werden. Zusätzlich bietet die Eingabemaske eine automatische Umrechnungsfunktion.

Das Projekt erfasst Akteure, die mit Ereignissen aus der Artefaktbiographie in Verbindung gebracht werden wie Forscher, Sammler, Händler, Museen, Archive und andere Institutionen.

Weiterhin werden Personen und Gruppen der Klassischen Mayakultur (dazu zählen auch die mythologischen Ursprungs) erfasst. Diese stehen entweder im Zusammenhang mit der Geschichte des Artefakts, spielen eine inhaltliche Rolle in den Texten oder sind anderweitig bedeutend für die Zivilisation der Klassischen Maya. Für Personen können Verwandtschaftsverhältnisse dokumentiert werden.

Die Forschungspraxis zeigt, dass für Orte, Akteure und Artefakte oft mehr als nur eine Bezeichnung verwendet wird. Das Schema ermöglicht diese mit mehreren Namen (crm:E82_Actor_Appellation, crm:E48_Place_Name), Titeln (crm:E35_Title) und Identifikatoren (crm:E42:Identifer) zu verbinden.

Eine weitere aus fachwissenschaftlicher Sicht unverzichtbare Anforderung bestand darin, Literaturquellen zu den erfassten Informationen anzugeben. Quellen (idiom:Source) können zu allen bisher genannten Informationen (Artefakte, Ereignisse, Orte, Daten, Akteure, Bezeichnungen u.v.m.) hinzugefügt werden.

Durch seine Struktur ermöglicht das IDIOM-Schema einzelne Beschreibungssätze miteinander in Beziehung zu setzen. Dies hat den Vorteil, dass jede Entität nur einmal angelegt und dann mit andern verknüpft wird, z.B. muss eine Fundstätte nicht bei jeder Entdeckung neu verzeichnet werden, sondern es findet eine Verknüpfung von dem vollständigen Beschreibungssatz der Fundstätte (mit Koordinaten, verschiedenen Ortsnamen usw.) zu dem vollständigen Beschreibungssatz der Entdeckung (mit Akteuren, Datum usw.) statt. Dies erlaubt es, komplexe Zusammenhänge herzustellen.

Anpassungen des Schemas während der Testphase

Wie bereits erwähnt, ergaben sich durch die Testphase Änderungen am Metadatenschema. Anhand des folgenden Beispiels wird eine solche Anpassung beschrieben.

Das Projekt dokumentiert Personen der Klassischen Mayakultur. Im IDIOM-Schema sind diese unter der Klasse idiom:EpigraphicActor zusammengefasst. Eine Person, bspw. ein Herrscher, hat im Klassischen Maya jedoch nicht nur einen Namen sondern kann z.B. einen Geburts- und einen Herrschernamen haben. Hinzu kommt, dass in der Forschung häufig mehrere Namen für ein und dieselbe Person kursieren. Das Projekt hat es sich zum Ziel gesetzt sowohl den aktuellen Forschungsstand als auch die Forschungsgeschichte abzubilden. Daher ist es notwendig alle bekannten Namen und Namensvarianten eines Maya zu erfassen. Im IDIOM-Schema wurde dies im Prototyp folgendermaßen umgesetzt:

Die Klasse crm:E82_Actor_Appellation beschreibt den Namen eines Akteurs. Die Klasse ist mit idiom:EpigraphicActor durch die Relation crm:P131_is_idenitified_by verknüpft. Da eine Person mindestens einen Namen hat (1 – n), ist es mittels Eingabemaske möglich unendlich viele Namen hinzuzufügen.

Während des Testlaufs stellte das Team jedoch fest, dass es notwendig ist einen bevorzugten Namen für eine Person zu definieren. Ein Bestreben des Projekts ist die Entwicklung und Etablierung von Standards. Durch die Festlegung auf bestimmte Bezeichnungen für Personen, soll ein Beitrag zur Entwicklung von Namenskonventionen geleistet werden.

Die Anforderungen haben sich während der Testphase also dahingehend geändert, dass jeder „Epigraphic Actor“ eine Vorzugsbezeichnung haben soll sowie weitere Namensformen angeben werden können. Dies erforderte folgende Änderung des Metadatenschemas:

Die Klasse idiom:EpigraphicActor ist nun durch zwei Relationen mit der Klasse crm:E82_Actor_Appellation verbunden. Die Relation idiom:prefActorAppellation ermöglicht es, genau eine präferierte Bezeichnung einer Person zu zuordnen. Die Angabe eines bevorzugeten Namens ist somit Pflicht. Durch die Relation idiom:altActorAppellation können noch weitere Bezeichnungen angegeben werden. Dieses Beispiel soll stellvertretend für weitere durchgeführte Anpassungen stehen, die sich während der Testphase ergaben.

Änderungen am Metadatenschema ziehen nicht nur modellierungstechnischen Aufwand mit sich, wie Suche in Standards nach passenden Termen, Einordnung dieser in das eigene Schema, Hinzufügen neuer Klassen und damit verbundene Subklassierung oder Definition von Subproperties; sondern auch Änderungen an der Eingabemaske, was wiederum programmiertechnischen Aufwand nach sich zieht.

Mit dem Umstieg des Prototypen auf die Produktivversion der Eingabemaske Ende 2015 kann auch das IDIOM-Schema für nicht-textuelle Objekte als abgeschlossen betrachtet werden. Zu Beginn 2016 wird die Dokumentation des Schemas in maschinen- und menschenlesbarer Form veröffentlicht.

Entwicklung von Vokabularen

Zur Unterstützung der Erfassung nicht-textueller Objekte entwickelt das Projekt kontrollierte Vokabulare. Obwohl die Verwendung, Entwicklung und das Management von Vokabularen ein wichtiger Teil vieler Erschließungsprojekte ist, so mangelt es leider an praktikablen Softwarelösungen aus dem nicht-kommerziellen Bereich. Das Rechercheergebnis nach Open-Source-Tools stellte sich als wenig ertragreich heraus: Die meisten Programme waren nicht auf dem neuesten Stand, schlecht bis gar nicht dokumentiert und ließen sich meist nicht in die informationstechnologische Arbeitsumgebung des Projekts integrieren. Auch das Open-Source-Tool SKOS Vocabulary Editor27)https://trac.nbic.nl/skosvocabularyeditor/ (SKOtch) wird nicht mehr regelmäßigen Updates unterzogen. Dennoch entschied sich das Projekt für die Verwendung dieses Programms, da es leicht zu bedienen ist und den von Projekt geforderten Funktionsumfang bietet. SKOtch unterstützt die Vokabularmodellierung in RDF unter Nutzung des SKOS-Standards und speichert die Daten in einem Triplestore.

Während der Formulierung der fachwissenschaftlichen Anforderungen sowie der Entwicklung des Metadatenschemas stellte sich heraus, dass 10 kontrollierte Vokabulare für die Indexierung benötigt werden. Die Entwicklung der Vokabulare konnte zum Ende 2015 begonnen werden und wird im Folgejahr fortgesetzt. Bei 7 der 10 Vokabulare sind die Begriffe inkl. Vorzugsbezeichung und alternativen Bezeichnungen in englischer Sprache erarbeitet worden, so dass sie in der Eingabemaske verfügbar sind und für die Objekterfassung genutzt werden können. Es stehen noch die Begriffsdefinition, das Matching zu Normvokabularen (vor allem Getty Art and Architecture Thesaurus) und die Dokumentation der Vokabulare aus. Nach Fertigstellung werden sie in maschinen- und menschenlesbarer Form veröffentlicht.

Technische Umsetzung des Metadatenschemas

Die technische Umsetzung unterteilte sich in folgende Arbeitsschritte:

  1. Umsetzung des Metadatenschemas in ein maschinenlesbares Format
  2. Umsetzung des epigraphischen Workflows in der Eingabemaske
  3. Testphase der Eingabemaske
  4. Bearbeitung
    1. Usability
    2. Technische Fehler
  5. Eventuelle Überarbeitung im Metadatenschema
  6. Wieder bei 1. Beginnen
Erstellung des Turtles

Damit die Eingabemaske die zu einer Klasse zugeordneten Metadaten prozessieren kann, muss das Schema in einem maschinenlesbaren Format vorhanden sein. Dazu wurde eine Datei in der RDF-Syntax Turtle28)https://www.w3.org/TR/turtle/ erstellt.

Dies ist für jede Klasse und jede Eigenschaft einer Klasse notwendig. Somit zogen Änderungen am Schema auch Änderungen an der Turtle-Datei nach sich.

Das Turtle-Format trägt alle Informationen darüber, wie ein Formular zur Beschreibung eines Objekts erstellt werden muss. Neben den eigentlichen Metadaten werden an dieser Stelle auch Informationen zur technischen Umsetzung angegeben:

  • Wiederholbarkeit
  • Pflichtfeld
  • Art der Eingabe
    • Button
    • Textfeld
    • Textarea
    • Checkbox
    • Dropdown
  • Prioritätsnummer (an welcher Stelle wird das Feld im Formular dargestellt)
  • Hilfetext für die Eingabe
Visuelle Umsetzung des Schemas in der Eingabemaske

Einige Aspekte bei der visuellen Umsetzung des Metadatenschemas bedurften Änderungen an der Kernkomponente TG-forms29)TextGrid-Anwendung zur Generierung von Formularen für die Metadatenerfassung. Dies betrifft 1) die Unterobjekte einer Klasse im Schema und 2) die Kennzeichnung spezieller Feldeigenschaften. Zu Beginn konnten zwar mehrere Schema-Objekte in einem Formular geladen werden, jedoch war keine visuelle Abgrenzung und Zugehörigkeit vorhanden, da tiefergehende Ebenen zunächst nicht berücksichtigt wurden. Als Beispiel sei an dieser Stelle Epigraphic Actor (Abbildung 6) genannt.

Nicht jedes konzeptionelle Objekt des Metadatenschema ist auch als eigenständiges Objekt für die Datenbank zu verstehen. Als Beispiel sei hier die Beziehung zwischen den Schema-Klassen idiom:EpigraphicActor und crm:E82_Actor_Appellation genommen. Für das Metadatenschema sind diese beiden Objekte eigene Klassen, für die Speicherung und die Darstellung dieser Beziehung, wird die Klasse crm:E82_Actor_Appellation jedoch direkt an das Objekt gebunden. Daher waren in solchen Fällen zum einen verschiedene Arten der Speicherung notwendig und zum anderen musste die Visualisierung geklärt werden. Für die Visualisierung musste ein direkt sichtbarer Zusammenhang zwischen diesen Objekten bestehen. Eine mögliche Lösung wäre, die crm:E82_Actor_Appellation unter das bestehende Formular zu setzen. Die Actor Appellation hat jedoch weitere Unterobjekte, zum Beispiel eine Quellen-Angabe, für die ein weiteres Unterformular notwendig ist. Bei wiederholten Quellenangaben wäre also nicht mehr klar, auf welchen Eintrag sich die Quelle bezieht. Somit wurde sich für eine geschachtelte Darstellung entschieden und die Speicherung durch referenzierte IDs implementiert. Dabei wird durch Betätigung des Buttons für jedes Unterformular eine ID generiert (z.B. crm:P102_hasTitle15259507240GP). Diese ID wird zur Speicherung des Objektes im Triplestore genutzt und beim Öffnen des Oberobjektes für die Referenzierung auf dieses Unterobjekt verwendet. Durch dieses Verfahren ist stets erkennbar, worauf sich eine Relation bezieht und die Nutzung von RDF-Reifications30)RDF-Reifications sind Aussagen über Aussagen. Also eine zusätzliche Information über ein erstelltes Triple. Dies geht über die eigentlichen Eigeschaften von RDF hinaus. Der Umgang mit diesen ist umständlich und häufig unübersichtlich. Aus diesem Grund wurde im Projekt versucht, diese zu umgehen, falls es möglich ist. wurde an dieser Stelle verhindert.

Technische Umsetzung

Die Eingabemaske dient dazu die Metadaten der nicht-textuellen Objekte in RDF zu erfassen. Um die Eingabe so intuitiv wie möglich und fachwissenschaftlich korrekt zu gestalten, kamen im Vergleich zum Vorjahr weitere Anforderungen hinzu. Diese unterstützenden Funktionen werden im Folgenden beschrieben. Die IDIOM-Eingabemaske baut auf einer bereits in TextGrid vorhandenen RDF-Eingabemaske auf, wurde aber an die projektspezifischen Bedürfnisse angepasst. So mussten auch in der Kernanwendung TG-forms einige Anpassungen getätigt werden. Diese Änderungen wurden in die Gesamtanwendung von TG-forms integriert und können somit auch von anderen Projekten genutzt werden.

Unterstützende Funktionen innerhalb der Eingabemaske
Datumsumrechnung

Auf den Textträgern ist das Datum häufig im Long Count Format angegeben. Die Verwendung dieses Datumsformats wird gewöhnlich auch in der Forschung benutzt.

Für die programmatische Auswertung der Daten müssen diese jedoch im gregorianischen Format vorliegen. Aus diesem Grund wurde eine automatische Umrechnung eingefügt, die ausgeführt wird, sobald die Eingabe in das Feld Long Count getätigt und dieses anschließend verlassen wird.
Um ebenfalls automatisch das Long Count-Datum inklusive Kalenderrunde zu berechnen, werden zusätzlich noch die Werte für Tzolk’in und Haab berechnet. Diese werden ebenfalls nach Verlassen des Long Count Feldes ausgeführt und in die entsprechenden Felder eingefügt.

Ausgrauen nicht notwendiger Buttons

Es existieren drei verschiedene Arten von Buttons innerhalb der Eingabemaske.

  1. Öffnen eines Kontextmenüs, um nach bestimmten Objekten zu suchen und diese als verlinktes Objekt einzutragen
  2. Erzeugen eines Unterformulares und damit das Hinzufügen weiterer Metadaten
  3. Löschen dieser beiden Eintragungen

Die Funktionen zum Hinzufügen der Daten sollen nur dann möglich sein, wenn noch keine Verlinkung eingetragen wurde bzw. kein Unterformular geladen wurde. In diesem Fall soll die Lösch-Funktion nicht auswählbar sein (siehe Abbildung 6). Ist im anderen Fall bereits eine Verlinkung bzw. ein Unterformular erzeugt worden, so soll es dem Nutzer nicht möglich sein, ein weiteres Mal den Hinzufüge-Button zu nutzen (siehe Abbildung 8 und 9). Sollen Daten korrigiert werden, so muss der Inhalt zunächst gelöscht werden. Nach Betätigen dieses Buttons wird die Nutzung des Hinzufüge-Buttons wieder möglich. Durch diese Vorgehensweise werden Fehler vermieden.

Such-Funktionen

Um Objekte mit anderen Objekten durch einen URI zu verlinken, sind hinter den jeweiligen Kontextmenüs bestimmte Queries fest hinterlegt. So wurden beispielsweise Abfragen für die Suche nach Literaturquellen, Orten, Artefakten, Akteuren und Aktivitäten hinterlegt. Dabei handelt es sich um SPARQL-Queries, die zum Triplestore geschickt werden. Alle Suchfunktionen erlauben, dass nur Teile des Suchwortes genommen werden, dass Groß- und Kleinschreibung ignoriert wird und auch Sonderzeichen müssen nicht als solche eingegeben werden (bspw. wird bei Eingabe eines ‘a’ auch nach ‘ă’ gesucht).

Öffnen der Unterformulare

Jedes Objekt kann aus mehreren Unterobjekten bestehen, die durch eine Relation im Schema miteinander verbunden sind. Zu einem Unterobjekt wird jedoch nicht direkt von einem anderen Objekt verlinkt. Die Verknüpfung geht immer von einem Oberobjekt zu einem anderen Oberobjekt. Daher werden diese Unterobjekte nicht als eigenständiges Datenbank-Objekt gespeichert und bekommen keinen eigenen TextGrid-URI. Diese Unterobjekte werden im Triplestore gespeichert und bekommen durch Betätigung des Buttons einen Identifier, damit eine Zugehörigkeit auf Datenbankebene garantiert werden kann. Um ein Unterformular besser von dem darüber liegenden Objekt differenzieren zu können, wird jedes Unterobjekt der nächsten Tiefe, um einen Grauton dunkler (siehe Abbildung 9).

Speichern und Laden der Unterformulare

Das Speichern der Daten innerhalb der erzeugten Unterformulare erwies sich zunächst als schwieriger, als die Daten der ersten Ebene. Hierfür musste der Algorithmus zu einem rekursiven Vorgehen umprogrammiert werden. Die nächste Herausforderung trat beim Laden der Daten eines Unterformulars auf. Die Daten der ersten Ebene (auch die der ersten Unterformulare) haben den TextGrid URI als ersten Zuweisungspunkt. In der zweiten Ebene ist dieser Zuweisungpunkt jedoch nicht der TextGrid URI, da diese Daten unter der ID abgerufen werden müssen, die durch die Eingabemaske generiert wird. Dadurch musste neben dem Algorithmus zum Speichern, auch der Algorithmus zum Öffnen rekursiv angepasst werden.

Anbindung der Literaturdatenbank

Ein wichtiger Bestandteil der Metadatenerfassung ist die Angabe von Literaturquellen. Diese werden nach einem Daten-Dump aus der Literaturdatenbank Zotero mittels RDF-Export in den Triplestore eingespeist. Danach können sie mittels Eingabemaske durchsucht und mit den entsprechenden Daten verlinkt werden. Die Suche reagiert auf Autor, Titel, Erscheinungsjahr und Organisation. Bei der Suche ist die Berücksichtigung von Sonderzeichen wichtig. Enthält das Suchwort bspw. ein a, soll ebenfalls das Vorkommnis eines ă in das Resultat mit einbezogen werden.

Anbindung der Vokabulare

Die Verwendung von Vokabularen ist unverzichtbar. Diese werden von mittels des Tools SKOtch in RDF/SKOS gespeichert. Die Daten werden in einem Triplestore gespeichert. Da das Tool SKOtch nicht mit Fuseki kompatibel ist, musste zusätzlich der Triplestore Sesame installiert und konfiguriert werden. Um die Daten jedoch insgesamt in einer Datenbank vorrätig zu haben, werden diese Daten per Skript von Sesame nach Fuseki transferiert.

Beispiel Forschungsfrage

Ab November 2015 wurde mit der Eingabe einer größeren Datenmenge (751 Objekte mit 16857 Tripeln) begonnen. Inhaltlich wurden Metadaten über die Fundstätte Tikal erfasst. Diese Daten wurden als Grundlage für eine ausführliche Projektpräsentation im Rahmen der European Maya Conference im Dezember 2015 in Bonn genutzt. Um den Fachkollegen ein anschauliches Beispiel für die Nutzung der erfassten Daten zu geben, wurden Abfragen anhand einer Forschungsfrage visualisiert. Im Zentrum dabei standen die Fundorte und Weihedaten der Artefakte in Tikal: Welche Schriftträger befinden sich auf der Hauptplaza? Wann wurden sie eingeweiht und welcher Herrscher hat dies in Auftrag gegeben?

Zur Visualisierung der Artefakte auf einer Karte wurde der Geo-Browser des Projektes DARIAH-DE genutzt. Dafür mussten die Geokoordinaten der Artefaktfundorte vorhanden sein. Aus den Daten wird eine CSV-Datei generiert und an den Geo-Browser geschickt. Dieser stellt die Daten auf einer Karte dar und ermöglicht es, die Weihechronologie der Artefakte entlang einer Zeitlinie zu animieren.

Für diese Forschungsfrage mussten Artefakte, Orte (hierarchisch, entlang einer archäologischen Ordnung), Produktions- und Entdeckungsereignisse und die epigraphischen Akteure abgefragt werden und als Ergebnis sortiert ausgegeben werden. Durch die Verbindung innerhalb des Schemas konnten diese mittels einer SPARQL-Abfrage abgefragt werden. Abbildung 10 zeigt eine schematische Darstellung dieser Abfrage und der zugehörigen Objekte.

Triplestore

Die Tests des Triplestores Blazegraph, für dessen Verwendung sich letztes Jahr entschieden wurde, zeigten Inkompatibilität mit der zugrundeliegenden Anwendung TG-forms, welche den generischen Ausgangspunkt bildet, um die Formulare und Felder für die Metadatenerfassung zu generieren. Dies beinhaltet auch die Kommunikation mit einem Triplestore. TG-forms muss an die spezifischen Bedürfnisse jedes Projekts angepasst werden. Um die Integration von Blazegraph zu ermöglichen, wären jedoch tiefgreifende Änderungen nötig gewesen, welche ohne eine weitere Zusammenarbeit mit anderen Projekten, die TG-forms nutzen, nicht umgesetzt werden konnten. Der Vorteil von Blazegraph ist die Parallelisierbarkeit mehrerer Instanzen. Da dieses Projekt jedoch über ein servergesteuertes Backup verfügt und die Anforderung an eine so hohe Performanz nicht hat, wurde der größere Nutzen in der Austauschbarkeit von Quellcode und damit Funktionalitäten gesehen. Aufgrund dessen wurde sich für die Verwendung des Triplestores Fuseki31)https://jena.apache.org/documentation/serving_data/ entschieden.

____________________________________
Bonn und Göttingen, 1. März 2016
i.A. Dr. Christian Prager

Footnotes   [ + ]

1. http://www.sub.uni-goettingen.de/
2. https://textgrid.de/
3. http://www.cidoc-crm.org/
4. https://www.w3.org/standards/semanticweb/data
5. https://www.w3.org/RDF/
6. https://www.w3.org/TR/rdf-sparql-query/
7. https://www.w3.org/2004/02/skos/
8. https://de.dariah.eu/
9. https://www.dainst.org/
10. http://www.adwmainz.de/projekte/altaegyptische-kursivschriften/informationen.html
11. Der Inhalt dieses Abschnitts ist ein Auszug von der Website des Herstellers: http://aicon3d.de/produkte/breuckmann-scanner/smartscan/auf-einen-blick/funktionsprinzip.html.
12. https://sketchfab.com/
13. http://www.getty.edu/research/tools/vocabularies/tgn/index.html
14. http://www.getty.edu/research/tools/vocabularies/ulan/index.html
15. http://digitale-sammlungen.ulb.uni-bonn.de/
16. http://www.semantics.de/
17. https://www.hbz-nrw.de/
18. https://www.openarchives.org/
19. http://www.loc.gov/standards/mets/
20. http://www.loc.gov/standards/mods/
21. http://mayawoerterbuch.de
22. https://www.gwdg.de/de
23. https://de.wordpress.org/plugins/magic-fields/
24. https://www.facebook.com/idiom.project/
25. https://twitter.com/idiom_project/
26. https://sketchfab.com/idiom-project/
27. https://trac.nbic.nl/skosvocabularyeditor/
28. https://www.w3.org/TR/turtle/
29. TextGrid-Anwendung zur Generierung von Formularen für die Metadatenerfassung
30. RDF-Reifications sind Aussagen über Aussagen. Also eine zusätzliche Information über ein erstelltes Triple. Dies geht über die eigentlichen Eigeschaften von RDF hinaus. Der Umgang mit diesen ist umständlich und häufig unübersichtlich. Aus diesem Grund wurde im Projekt versucht, diese zu umgehen, falls es möglich ist.
31. https://jena.apache.org/documentation/serving_data/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.