Author Archives: Nikolai Grube

About Nikolai Grube

Lebenslauf
Studium der Altamerikanistik, Ethnologie, Altorientalistik und Indologie in Hamburg. Stipendiat der Studienstiftung des Deutschen Volkes. 1989 Promotion in Hamburg mit einer Arbeit über die Entwicklung der Mayaschrift. Nach der Promotion Wechsel nach Bonn und in Zusammenarbeit mit dem Roemer-und-Pelizaeus-Museum Hildesheim Organisation der Ausstellung Die Welt der Maya (Hildesheim, Wien, Mannheim, Köln). 1992-1995 Habilitationsstipendium der DFG für das Projekt "Orale Traditionen der Cruzoob-Maya in Mexiko" und verschiedene Forschungsprojekte in Guatemala, Mexiko, Belize und Honduras. Lehrstuhlvertretungen in Freiburg und Leiden. 1999 Habilitation in Ethnologie in Bonn und im gleichen Jahr Heisenberg-Stipendiat der DFG. 2000-2004 Inhaber des Linda Schele Chair an der University of Texas at Austin.
Publikationen
Die Arbeit an Schriftsystemen, insbesondere der Maya und im übrigen Mesoamerika, damit geht ebenfalls die Beschäftigung mit Ikonographie einher. Im Rahmen der politischen Anthropologie interessiert ebenfalls die politische Organisation von Agrargesellschaften und der Klassischen Maya. Weitere Schwerpunkte sind die Ethnographie des Sprechens und die Aufzeichnung oraler Traditionen, die Erforschung der historischen Kontinuität von Geschichte und Kultur in Mesoamerika, die Ethnohistorie indigener Aufstandsbewegungen, Milleniarismus und Revitalisierungsbewegungen, sowie Erhalt und Vermittlung indigener Kultur in Zusammenarbeit mit deren Trägern.

Jahresabschlussbericht 2015

Project Report 3

DOI: http://dx.doi.org/10.20376/IDIOM-23665556.16.pr003.de

Nikolai Grube1, Christian Prager1, Katja Diederichs1, Sven Gronemeyer1,2, Elisabeth Wagner1, Maximilian Brodhun3 & Franziska Diehr3

1 Rheinische Friedrich-Wilhelms-Universität, Bonn
2 La Trobe University, Melbourne
3 Niedersächsische Staats- und Universitätsbibliothek, Göttingen

Projektbeschreibung, Zielsetzung und die Entwicklung von IDIOM „Interdisciplinary Database of Classic Mayan”

Die nur teilweise entzifferte Hieroglyphenschrift und Sprache der Mayakultur steht im Mittelpunkt des Forschungsprojekts, das seit Mitte 2014 in Kooperation zwischen der Universität Bonn und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB)1)http://www.sub.uni-goettingen.de/ besteht und gefördert wird durch die Nordrhein-Westfälische Akademie der Wissenschaften und der Künste. Ziel ist die Erstellung einer Textdatenbank und eines darauf basierenden Wörterbuchs des Klassischen Maya (Blütezeit von 250 bis 950 n. Chr.). Bis zum Projektbeginn 2014 fehlten eine systematische Dokumentation und umfassende Analyse der rund 10.000 Bild- und Textträger, die eine eingehende und präzise Untersuchung der Klassischen Schriftsprache erlauben. Im Rahmen des Projekts werden die Text- und Bildträger systematisch und nach einheitlichen Standards beschrieben. Sie werden als Ausgangsmaterial auf Basis von XML (Extensible Markup Language) maschinenlesbar gemacht, in die Virtuelle Forschungsumgebung (VFU) des Forschungsverbunds TextGrid2)https://textgrid.de/ integriert um auf diese Weise die Grundlagen für die Kompilation des Wörterbuchs zu schaffen. Das Projekt greift auf Methoden und Technologien aus den digitalen Geisteswissenschaften zurück, die bereits durch die VFU zur Verfügung gestellt werden bzw. im Rahmen des Projektes entwickelt und implementiert werden. Zu diesem Zweck passen wir die durch TextGrid zur Verfügung gestellten Dienste und Werkzeuge an projektspezifische Bedürfnisse an und fassen diese Projektspezifika unter dem Begriff IDIOM „Interdisciplinary Database of Classic Mayan” zusammen. IDIOM ermöglicht mit der Technologie von TextGrid ein systematisches und vernetztes Arbeiten mit Text-, Bild- und Informationsträgern der Klassischen Maya. Aufbau und Funktionen von IDIOM orientieren sich dabei am epigraphischen Workflow „Dokumentation – Beschreibung – Analyse – Edition” und unterstützen damit unsere Arbeit mit den Inschriften. Nicht nur der Inhalt der Inschriften, sondern auch Daten über die Inschriften- und Bildträger (Beschreibungs- oder Metadaten) werden berücksichtigt und in der VFU gesammelt. Die VFU enthält nicht nur Beschreibungen der Textträger oder Informationen über die Texte, sondern der Datenbanknutzer bekommt mit Hilfe der Literaturdatenbank auch einen Überblick darüber, welche Autoren sich mit einem Monument befasst oder es publiziert haben, eine Textpassage diskutiert oder erstmals eine bis heute gültige sprachliche Lesung einer Hieroglyphe präsentiert haben. Der Textträger erhält dadurch eine ‚Biographie‘, die eng mit den Textinhalten verwoben ist und bei der Bedeutungsanalyse von Wörtern berücksichtigt wird.

Im Fokus der Projektphase 2015 stand die Konzipierung und Umsetzung eines von den Bonner Fachwissenschaftlern entwickelten modellhaften Metadatenschemas für die Erfassung nicht-textueller Informationen über die Textträger selbst. Für die epigraphische Analyse muss die Kontextinformation um den Schriftträger als Objekt erfasst werden, da seine physischen Eigenschaften, assoziierter archäologischer Befund oder Fundkontext Einfluss auf Textinhalt und Gestaltung haben können. Die Modellierung einer Objektbiographie und die Einbettung der Texte in ihren kulturellen Kontext sind zunächst informationstechnologisch zu bewältigen, um die epigraphische Analyse der Textinhalte in ihrem außersprachlichen, kulturellen Kontext zu gewährleisten. Als Basis für die Beschreibung der Artefakte und der relevanten objektgeschichtlichen Ereignisse wie Herstellung, Fund, Erwerbung und Sammlungskontext sowie den mit dem Artefakt in Verbindung stehenden Akteuren nutzt das Projekt das CIDOC CRM (CIDOC Conceptual Reference Model)3)http://www.cidoc-crm.org/, das eine erweiterbare Ontologie für Begriffe und Informationen im Bereich des kulturellen Erbes anbietet, nach und passt es an seine spezifischen Bedürfnisse an. Das entstandene Anwendungsprofil (Application Profile) wird durch Elemente aus weiteren Standards und Schemata angereichert. Die nachgenutzten Schemata und erstellten Metadaten werden in einer Linked (Open) Data-Struktur (LOD)4)https://www.w3.org/standards/semanticweb/data abgebildet werden. Diese basiert auf dem Standard-Modell für Datenaustausch im Web, dem RDF-Standard5)https://www.w3.org/RDF/. Bei diesem Datentyp werden logische Aussagen über Ressourcen als Triple in der sprachlich bekannten Form Subjekt-Prädikat-Objekt gespeichert (Beispiel: Teobert Maler – entdeckte – Stela A), das bedeutet, hier ist die Speicherung zwischen Objekten und ihren Eigenschaften ein wichtiges Gestaltungsprinzip. Somit lassen sich sehr komplexe Abfragen an die Datenbank durch den Standard SPARQL6)https://www.w3.org/TR/rdf-sparql-query/, eine graphenbasierte Abfragesprache für RDF, gestalten. Durch die Repräsentation im XML-Format, sowie die Nutzung von HTTP-URIs wird eine einfache Austauschbarkeit der Daten ermöglicht und eine Zitierbarkeit der Daten erreicht. Durch diese Umsetzung können Objektmetadaten getrennt vom erfassten Text gespeichert werden und durch die Verwendung der HTTP-URI verlinkt werden. Erstellt werden die RDF-Objekte mit Hilfe einer speziell für das Projekt angepassten RDF-Eingabemaske, die mit Hilfe eines HTML-Formulars den Mitarbeitern in Bonn die Möglichkeit gibt, schnell und unkompliziert Metadaten zu den Textträgern, Informationen über Akteure oder Orte zu erfassen. Eine ausführliche Beschreibung folgt im unteren Abschnitt.

Viel Aufmerksamkeit wurde 2015 auf die Kategorisierung und Schematisierung der Inhalte gerichtet. Dies ist wegen der Vielfalt und Verschiedenheit der Daten geboten und es spart Entwicklungszeit, wenn bereits bestehende Standards nachgenutzt werden. Mit Hilfe kontrollierter Vokabulare erfolgt die Kategorisierung unserer heterogenen Daten. Kontrollierte Vokabulare sind definierte und strukturierte Begriffssammlungen, die nach speziellen Regeln angelegt werden um die Mehrdeutigkeit der natürlichen Sprache zu reduzieren. Sie umfassen definierte Begriffe und feste Relationen gemäß spezifischer ontologischer Konzepte und erlauben somit konzeptuelle Kontrolle. Die Entwicklung kontrollierter Vokabulare zur Unterstützung der Auszeichnung nicht-textueller und textueller Objekte ist essentiell für die Eingabe und Analyse der Daten. Somit sind sie ein wesentliches Hilfsmittel bei der Nutzung der Such- und Analysetools. Die inhaltsbasierte Analyse wird ermöglicht durch konsistentes Indexieren, verbesserte Abfragen und Präzision bei der Suche und Ausgabe. Zur maschinenlesbaren Repräsentation und Integration in ein Metadatenschema werden die Vokabulare mit Hilfe von SKOS7)https://www.w3.org/2004/02/skos/ (Simple Knowledge Organisation System) strukturiert. Terminologische Kontrolle wird erzielt durch die Definition und Auszeichnung präferierter, alternativer sowie ungültiger (non-valid) Begriffe, wobei letztere die korrekte Ausgabe eines Suchergebnisses auch z.B. nach der Eingabe eines falsch geschriebenen Begriffs erlaubt. Sprachauszeichnung (language tags) erlauben auch die Suche in einer bestimmten Sprache. Konzeptuelle Kontrolle wird durch die Schaffung von Konzeptschemata (knowledge organisation systems) erreicht, die hierarchisch in „broader“ und „narrower“ strukturiert werden, oder miteinander als synonym, antonym oder kausal in Beziehung gesetzt werden.

Die Entwicklung von kontrollierten Vokabularen und Konzeptschemata im Projekt ist wichtig, denn bezüglich der Dokumentation von Inschriftenträgern und -texten, ihrer jeweiligen Kontexte und Objektbiographien existieren in der Mayaschriftforschung zahlreiche verschiedene Begriffe, Vokabularien und Beschreibungsschemata, was zu einer großen Bandbreite unterschiedlich dokumentierter Schriftträger geführt hat. Die in den Dokumentationen verwendeten Begrifflichkeiten zeigen teilweise wenig Übereinstimmung und sind oft unvollständig, fehlerhaft, unpräzise oder stark vereinfachend. Diese Inkonsistenzen aufgrund des Fehlens einer standardisierten Terminologie in der Mayaforschung machen den Vergleich zwischen verschieden dokumentierten Schriftträgern oft schwierig bis unmöglich. Zur Entwicklung der kontrollierten Vokabulare wurden alle bisher in der Literatur sowie in Standardvokabularen verwendeten Begriffe und Taxonomien kompiliert, auf ihre Plausibilität, Vergleichbarkeit und ihren Nutzbarkeit hin überprüft, und in die Vokabulare integriert.

Mitglieder der Arbeitsstelle, Aufgaben und Kommunikation im Projekt

Wie bereits 2014 sind in Bonn die drei Fachwissenschaftler Dr. Christian Prager (Projektkoordination), Elisabeth Wagner, M.A. und Dr. Sven Gronemeyer als Experten für Mayaschrift, -sprache und -ikonologie tätig. Katja Diederichs zeichnet für den informationswissenschaftlichen Bereich in der Bonner Arbeitsstelle verantwortlich. Zusammen mit Jan Kenter von der Universitäts- und Landesbibliothek Bonn (ULB) koordiniert sie unter anderem die Zusammenarbeit zwischen dem Projekt und der ULB. Im Laufe des Jahres 2017 soll auf der Präsentationsplattform Visual Library das Virtuelle Inschriftenarchiv online gestellt werden, dessen Daten aus Langzeitrepositorium von TextGrid stammen. Vorbereitungen dazu wurden 2015 im Zuge der Entwicklung des Metadatenschemas in Angriff genommen. Ebenso wurde zusammen mit Göttingen das Mapping vom projektinternen Metadatenschema auf die Datenstruktur des Visual Library konzipiert, um einen Datenaustausch zwischen den beiden unterschiedlichen Systemen zu ermöglichen. Franziska Diehr setzte ihre Arbeit von 2014 fort und entwickelte das projektinterne Metadatenschema auf der Basis der fachwissenschaftlichen Vorgaben aus Bonn weiter; Maximilian Brodhun programmierte und implementierte auf Grundlage von Franziska Diehrs Metadatenschema den epigraphischen Workflow und stellte vor dem Jahresende die erste Produktivversion einer Eingabemaske für RDF-Objekte fertig. Sie dient den Bonner Fachwissenschaftlern zur komfortablen und unkomplizierten Eingabe der Metadaten und basiert auf einem HTML-Formular, über das die jeweiligen Daten in RDF/XML umgewandelt und in TextGrid gespeichert werden. Die Eingabemaske wurde November und Dezember getestet und erste Ergebnisse konnten am 14. Dezember im Rahmen eines öffentlichen Projektworkshops vorgestellt werden.

Unterstützt wurden die Mitarbeiter in Bonn 2015 durch die Hilfskräfte Laura Burzywoda (Digitalisierung), Nicoletta Chanis (Digitalisierung), Antje Grothe (Bibliographie), Laura Heise (Digitalisierung), Leonie Heine (Digitalisierung), Jana Karsch (Epigraphik, Digitalisierung), Nikolai Kiel (Epigraphik, Digitalisierung), Catherine Letcher Lazo (Redaktion der Website), Lisa Mannhardt (Digitalisierung), Mallory Matsumoto (Linguistik, Digitalisierung) und Nadine Müller (Digitalisierung). Die Digitalisierung von Fotoarchiven mit über 100.000 Fotodokumenten, die dem Projekt von Karl Herbert Mayer, Berthold Riese, Daniel Graña-Behrens und von den aktuellen Mitarbeitern des Projekts zur Verfügung gestellt wurden, erfolgt im Zusammenhang mit der Virtuellen Forschungsumgebung TextGrid, wo die Digitalisate der Photographien 2016 und 2017 in die Virtuelle Forschungsumgebung von TextGrid integriert werden.

Wie bereits 2014 hat sich die schriftliche Zusammenarbeit zwischen Bonn und Göttingen auf der Grundlage eines gemeinsam bearbeiteten Wikis bewährt. Die schriftliche Kommunikation erfolgte dabei über die Kollaborationssoftware Confluence, die Bestandteil der DARIAH-DE8)https://de.dariah.eu/ Forschungsinfrastruktur für digitales Arbeiten in den Geisteswissenschaften ist. Das Wiki enthält die vollständige Projektdokumentation mit den bisher aggregierten technischen und fachwissenschaftlichen Inhalten, die als Referenzmaterial langfristig verfügbar sein werden. Dokumente wie etwa Vorträge, Präsentationen oder Arbeitslisten werden zusätzlich in einem Cloudspeicher von Google abgelegt und können auf diese Weise kollaborativ bearbeitet werden. Diese Arbeitsweise hat sich insbesondere bei der Vorbereitung gemeinsamer Vorträge bewährt. Für die Planung von Monatszielen und mittelfristigen Meilensteinen oder bei dringenden und kurzfristigen Anfragen und Problemen kommunizieren die Projektbeteiligten in wöchentlichen Telefonkonferenzen und monatlichen Projektgesprächen in Bonn und Göttingen.

Im Fokus des 8. Projekttreffens vom 15. und 16. Januar 2015 stand die detaillierte Diskussion des Metadatenschemas für nicht-textuelle Objekte sowie die Nutzung von XML/TEI und EpiDoc für die Auszeichnung der Textdaten. Das 9. Treffen fand am 9. und 10. Februar in Bonn und Düsseldorf statt und behandelte erneut Fragen zum Metadatenschema, den Stand der RDF-Eingabemaske sowie die Ausarbeitung eines Konferenzposters für den DH Summit vom 3. und 4. März in Berlin. Am 11. Februar nahmen die Projektmitarbeiter an einem von der NRW Akademie der Wissenschaften und der Künste organisierten Workshop zu Digital Humanities in Düsseldorf teil. Der Maya-Kalender und seine Funktionen und Repräsentationen in den Inschriften waren das Thema eines zweitägigen Workshops vom 27. bis 29. April 2015 in Göttingen. Die Bonner Wissenschaftler erklärten den Göttinger Kollegen die Funktionen des Maya-Kalenders um diesen informationstechnologisch in der Virtuellen Forschungsumgebung umzusetzen. Im Fokus standen die Elemente und Strukturen der Maya-Kalendersysteme, die Einzelelemente des Kalenders sowie die Darstellung von Mayadaten mit Konventionen anhand von Beispielen. Das Ziel ist es die Funktionen und Strukturen des Maya-Kalenders in TextGrid umzusetzen und auf dieser Basis ein Tool zur Berechnung von Mayadaten zu entwickeln und für die Textanalyse bereit zu stellen. Eine erste Version der Eingabemaske für nicht-textuelle RDF-Objekte präsentierte Maximilian Brodhun im Rahmen des 10. Projekttreffens vom 18. und 19. Mai 2015 in Bonn. Thema waren ebenfalls die Organisation der Objekte in TextGrid, die Einbettung der bibliographischen Daten aus der Zotero-Datenbank sowie das Design der Projektwebsite, die schließlich im Dezember 2015 online ging. Die Textanalyse mit Hilfe von XML/TEI und EpiDoc wurde im Rahmen des 11. Projekttreffens am 23. und 24. Juni 2015 in Göttingen besprochen. Eine neue Version der Eingabemaske und Hilfetexte für die Dateneingabe wurden vorgestellt und Planungen für den funktionellen Testlauf im Oktober und November 2015 wurden ebenfalls in der Runde besprochen. Ein Workshop zu Funktion und Nutzung der Eingabemaske für die Erfassung nicht-textueller Metadaten sowie die Nutzung des Vokabulartools durch die Bonner Fachwissenschaftler fand im Rahmen des 12. Projekttreffens am 17. und 18. August 2015 in Bonn statt. Im Anschluss an dieses Treffen wurde die Eingabemaske vom Bonner Team ausgiebig getestet und im November 2015 produktiv geschaltet. Nach Besprechungen mit Jan Kenter (ULB) Anfang 2015 über die weitere Zusammenarbeit mit der ULB, sowie nach einem Mapping der Daten für die Visual Library im Herbst 2015, wurden erste Testdaten im Dezember 2015 von Franziska Diehr und Maximilian Brodhun an Jan Kenter übermittelt, der sie an den Kooperationspartner der ULB, die Firma Semantics weiterleitete.

Neben der Projektarbeit bildete auch 2015 die berufliche Weiterbildung einen Bestandteil des Projekts. Mitglieder des Forschungsprojekts besuchten nationale und internationale Tagungen und Kursangebote mit dem Schwerpunkt Digital Humanities (Essen, Graz, London, Lyon). Die Mitarbeiter haben dabei Methoden der digitalen Geisteswissenschaften kennen gelernt und ihr Wissen über die Auszeichnungssprache XML vertiefen können. Außerdem organisierte das Forschungsprojekt am 5. und 6. Oktober einen Workshop zur Verwendung von XML/TEI für die Auszeichnung von Texten, die in komplexen Schriftsystemen, darunter Altägyptisch, Keilschrift und die Mayaschrift, verfasst wurden. Im Rahmen dieses Workshops konnten sich die Mitarbeiter, die in der Hauptsache für die informationstechnologische Umsetzung der Forschungsfragen zuständig sind, ein Bild über die Funktionen und Strukturen komplexer Schriftsysteme machen, zu denen das Klassische Maya ebenfalls zählt.

Projektpräsentation

Das Projekt wurde 2015 im Rahmen von Vorträgen bei Fachtagungen und Workshops sowie in gedruckten und online Publikationen vorgestellt.

Vorträge

Das Projekt hat sich 2015 an dreizehn nationalen und internationalen Tagungen mit Vorträgen präsentiert. Ziel unserer Aktivitäten war es nicht nur das Projekt vorzustellen, sondern sich mit anderen Digital Humanities Projekten zu vernetzen, die eine ähnliche Fragestellung aufweisen. Im Rahmen des SUB und DARIAH-DE Panels „Das Wissen der Bilder. Spielarten des digitalen Annotierens“ präsentierte das Projekt zusammen mit Frauke Sachse und Michael Dürr einen Werkstattbericht zum Thema: „Text – Bild – Inschrift: Hieroglyphenschrift und Sprachen der Maya annotieren“. Der Titel des Vortrags lautete „Digitale Epigraphik – Die Erforschung der Hieroglyphentexte und Bildbotschaften der Maya in der Virtuellen Forschungsumgebung TextGrid“.

Beim DH Summit in Berlin vom 3. bis 5. März stellte sich das Projekt mit einem Poster und einem Posterslam-Beitrag vor. Die Veranstaltung richtete sich besonders an die vom BMBF geförderten DH-Projektverbünde, zwei DH-Zentren und Nachwuchsgruppen sowie assoziierte Projektpartner von TextGrid und DARIAH-DE. Im Rahmen des vom „Digital Humanities Forschungsverbund (DHFV)“ organisierten Workshops „Semantic Web Applications in the Humanities“ präsentierte das Projekt am 10. März in Göttingen sein Metadatenkonzept sowie die technischen Grundlagen, auf deren Basis die Inschriften beschrieben und die Hieroglyphentexte analysiert werden. Die Auszeichnung der Hieroglyphentexte mit Hilfe von EpiDoc war das Thema eines Vortrags in London, den Katja Diederichs im Rahmen des jährlichen EpiDoc Workshops am 22. April gehalten hat. Die EpiDoc Guidelines beschreiben spezielle Richtlinien für strukturiertes Markup und Repräsentation von epigraphischen Texten in digitaler Form mittels auf XML/TEI. Zum Thema Urheberrecht und Open Access in den digitalen Geisteswissenschaften referierte Christian Prager mit dem Beitrag „Open Access vs. Copyright im Projekt ‚Textdatenbank und Wörterbuch des Klassischen Maya“ am 11. Mai in Göttingen. Bei dieser von DARIAH-DE, SUB und DAI (Deutsches Archäologisches Institut)9)https://www.dainst.org/ organisierten Tagung „Store it, Share it, Use it“ stand die Lizenzierung digitaler Forschungsdaten in den Sprach- und Literaturwissenschaften im Vordergrund.

Mit einem Beitrag und einem Projektstand präsentierten Nikolai Grube, Sven Gronemeyer und Elisabeth Wagner am 11. Mai das Projekt im Rahmen des Akademientags 2015 in Berlin. Im Zusammenhang mit dem Abschlussworkshop des Verbundprojekts MayaArch3D stellten Nikolai Grube, Katja Diederichs und Elisabeth Wagner das Projekt vor. Thematisiert wurden die kontrollierten Vokabulare, das Metadatenschema sowie die Open Science Strategie im Projekt. Katja Diederichs und Christian Prager präsentierten am 21. Juli in der ULB eine Projektvorstellung mit dem Titel „Textdatenbank und Wörterbuch des Klassischen Maya“. Der Vortrag lief im Rahmen einer Digital Humanities Informations- und Netzwerkveranstaltung, die von Jan Kenter in der ULB veranstaltet wurde. Ziel dieser regelmäßigen Veranstaltung ist es, Digital Humanities Projekte in Bonn miteinander zu vernetzen.

In Heidelberg stellte Christian Prager das Projekt bei der Veranstaltung „Historische Semantik und Semantic Web“ unter dem Titel „Dokumentation, Analyse und Edition der Hieroglyphentexte der Klassischen Maya in der Virtuellen Forschungsumgebung TextGrid“ vor. Dieser von der Akademienunion am 16. September organisierte Workshop fokussierte auf elektronisches und digitales Publizieren. Dieses Thema stand ebenfalls im Mittelpunkt einer Tagung am 29. September in Göttingen, die von DINI und DARIAH-DE gemeinsam veranstaltet wurde. Christian Prager und Katja Diederichs stellten das Projekt Vertretern aus Bibliotheken, Medien- und Rechenzentren vor. Ziel des Workshops war es Möglichkeiten aufzuzeigen, die Infrastrukturen und Services in DARIAH-DE für digitales Arbeiten bieten. Im Rahmen des von der Max Weber Stiftung veranstalteten Workshops „Digital Humanities Bilder“ präsentierte Christian Prager am 2. Oktober das Projekt mit dem Vortrag „Digitale Epigraphik am Beispiel des Wörterbuchs des Klassischen Maya“. Franziska Diehr vertrat das Projekt bei der Tagung „Digitale Metamorphose: Digital Humanities und Editionswissenschaft“ am 2. November in Wolfenbüttel, die von der Herzog August Bibliothek Wolfenbüttel organisiert wurde. Mit jeweils einem Vortrag war das Projekt bei einer eigenen Veranstaltung am 5. Oktober in Bonn („Mayaschrift“, siehe Workshops), am 13. Dezember im Rahmen der 20. Europäischen Mayakonferenz („Digital Epigraphy – The Text Database and Dictionary of Classic Mayan Project”) und am 14. Dezember bei dem jährlichen Projektworkshop in Bonn beteiligt.

2016 sind Vorträge in Berlin im Rahmen der 19. Mesoamerikanisten-Tagung sowie bei der EAGLE 2016 Konferenz zu digitaler und traditioneller Epigraphik eingereicht. Geplant sind außerdem Vorträge über das Projekt und den gegenwärtigen Stand der Arbeiten u.a. bei Tagungen in Basel (März), Mainz (April) sowie Cambridge (Juli).

Workshops

Am 5. und 6. Oktober sowie am 14. und 15. Dezember organisierte das Projekt zwei Workshops. Am 5. und 6. Oktober fand ein internationaler Workshop mit dem Titel „Digitale Epigraphik: XML/TEI und EpiDoc für die epigraphische Forschung zu nicht-alphabetischen Schriftsystemen“ statt.
Im Fokus des von über 30 Teilnehmern besuchten Workshops stand die Verwendung der Auszeichnungssprache XML (Extensible Markup Language), insbesondere XML/TEI und EpiDoc, für die epigraphische Forschung. Das Projekt lud dazu Schriftexperten und IT-Spezialisten aus dem In- und Ausland ein. In dem englischsprachigen Workshop diskutieren die Experten den Einsatz von XML-basiertem TEI und EpiDoc für die Dokumentation und Erforschung von komplexen Schriftsystemen. TEI ist ein Standard zur Kodierung von gedruckten Werken oder zur Auszeichnung von sprachlichen Informationen in Texten. Unter EpiDoc sind spezielle Richtlinien für strukturiertes Markup von epigraphischen Dokumenten in XML/TEI zusammengefasst und unser Forschungsprojekt wird die Maya-Inschriften damit digital erfassen und auf dieser Grundlage das Wörterbuch des Klassischen Maya aufbauen. EpiDoc wurde bislang nur für die digitale Kodierung und Annotation von Texten in alphabetischen Schriftsystemen verwendet.

Das Bonner Mayawörterbuch-Projekt diskutierte zusammen mit Schriftexperten den Einsatz der etablierten XML-basierten Auszeichnungsstandards von TEI und EpiDoc für die Erforschung syllabischer und logosyllabischer Schriftsysteme und befasste sich mit der Frage, ob die vorhandenen Standards für die linguistische Annotation von hieroglyphischen Schrift- und Keilschriftsystemen anwendbar sind, die teilweise nur partiell oder kaum entziffert sind. Um in der Diskussion auf eine große Bandbreite an Beispielen zurückgreifen zu können, wurden Schriftexperten zum Hieroglyphen-Luwischen (Annick Payne, Basel), den ägäischen Schriftsystemen (Miguel Valerio, Valencia), Altägyptisch (Daniel Werning, Berlin), zu den Keilschriftsystemen (Hubert Mara, Heidelberg) und zur aztekischen Hieroglyphenschrift (Gordon Whittaker, Göttingen) eingeladen. Auf der Seite der mit digitaler Auszeichnung von Inschriften Erfahrenen berichtete Thomas Kollatz (Essen) über seine Arbeit mit XML/TEI für seine epigraphischen Forschungen zu jüdischen Grabinschriften und deren Dokumentation und Edition. Als Entwickler von EpiDoc und Experte für griechische und lateinische Texte auf Stein und Papyrus erörterte Gabriel Bodard (London) die Richtlinien für die epigraphische digitale Annotation anhand von bisherigen Forschungsprojekten, in denen EpiDoc zum Einsatz kommt.

Am ersten Tag wurden in Vorträgen Graphemik und Graphetik der jeweiligen Schriftsysteme, Entzifferungsstand, Transliterations- und Transkriptionsnormen, der Stand der digitalen Erforschung, sowie weitere Eigenheiten und Besonderheiten der jeweiligen Schriftsysteme dargestellt. Folgende Themen und Fragestellungen wurden in den Vorträgen angesprochen: 1a) Graphemik und Graphotaktik des jeweiligen Schriftsystems: welche Zeichentypen existieren und welche Prinzipien existieren um komplexe Schrifteinheiten zu bilden (z.B. Affigierung, Infigierung, Ligatur, Überlagerung, Auslassung und Abkürzung, Diakritika, Phonetische Komplementierung und semantische Auszeichnung usw.). Gibt es schon Projekte, wo die Auszeichnung dieser Schreibpraktiken kodiert wurde? 1b) Grapheminventar: Zeichenklassifikationen und Zeichenkataloge: welche Bedeutung kommen den Zeichenklassifikationen in der epigraphischen Forschung zu? Wo kommen diese zum Einsatz und welche Rolle spielen sie bei der Transliteration und Transkription der Texte? 2) Graphetik (Schriftverwendung: formale Gestaltung sprachlicher Einheiten ohne Bedeutungsunterscheidung, Gestaltung der Texte). Allographie und Schreibvarianten: welche Bedeutung besitzt dieses Schriftprinzip für das jeweilige Schriftsystem – wird es bei der Annotation und Analyse von Texten berücksichtigt und falls ja, wie? Wie ist die Lesefolge der Zeichen im Text (lineare Schreibung, Kolumnenschreibung)? Existieren Worttrenner oder wie sind unabhängige Lemmata zu erkennen? Welche graphischen Hilfsmittel setzen die Schreiber dafür ein? Gibt es Abweichungen in der Lesefolge – gibt es sogar eine Systematik? Gibt es eine Verbindung von Bild und Text – wie werden Texte in Bilder integriert oder umgekehrt? Wie sind die Textfelder angeordnet und welchen Einfluss hat die Größe des Textfelds oder die Art des Schreibmaterials auf die Graphemik? 3) Stand der Entzifferung und Lesbarkeit der Texte: Wie ist der Stand der Entzifferung des jeweiligen Schriftsystems? Wie ist der Umgang mit einzelnen nicht entzifferten Zeichen, wird dies in der Transliteration und Transkription kenntlich gemacht und welche Regeln gelten hier? Wie geht man mit hypothetischen Entzifferungen einzelner Zeichen oder Passagen um? Werden (physische) Lücken im Text annotiert und kommentiert bzw. in der Edition markiert? Die an diesem Tag erörterten Probleme, Fragestellungen und Herausforderungen wurden am zweiten Tag im Rahmen eines runden Tisches diskutiert.

Ein zentrales Ziel beim strukturierten Markup syllabischer und logo-syllabischer Hieroglyphen- und Keilschriftsysteme ist, dass die Struktur der Originalschreibung und die Anordnung der Zeichen im Text möglichst genau mit Hilfe von XML/TEI für Abfragen abgebildet werden kann. Bei partiell entzifferten oder unentschlüsselten Schriftsystemen kommt hinzu, dass anstelle von Transliterationen und Transkriptionen unentzifferte Zeichen oder Textstellen mit Hilfe von Codes und Nomenklaturen wiedergegeben werden müssen um auf dieser Grundlage unklare und diskussionsbedürftige Zeichen in ihrem jeweiligen Verwendungskontext zu dokumentieren. Grundsätzlich sollte auf der Grundlage der mit XML/TEI ausgezeichneten Texte nicht nur die epigraphische, sondern auch die (korpus)linguistische Analyse möglich sein. Die Dokumentation der Originalschreibung ist jedoch grundlegend für die epigraphische Arbeit mit syllabischen und logo-syllabischen Hieroglyphen- und Keilschriftsystemen. Viele epigraphische Dokumentations- und Datenbankprojekte arbeiten mit Transliterationen und Transkriptionen der Texte aus denen die Originalschreibung nicht mehr hervorgeht und somit systematische graphemische und graphetische Untersuchungen nicht möglich sind. Zudem sollte auf dieser Basis die Analyse der Inschriften bis hin zur linguistischen Untersuchung möglich werden. Unser Projekt hat hier ein Desiderat erkannt und wollte in Zusammenarbeit mit den Schriftexperten Lösungen auf der Grundlage von XML/TEI und EpiDoc diskutieren. Ein wichtiges Resultat dieser Veranstaltung ist die Gründung der Forschergruppe EnCoWs „Encoding Complex Writing Systems“. Ziel dieses Verbundes von Schriftforschern, Sprachwissenschaftlern und Experten für Digital Humanities ist es in den kommenden Monaten gemeinsame Standards für die Auszeichnung von Texten zu entwickeln, die in einem komplexen Schriftsystem verfasst sind. Die Kommunikation innerhalb dieser Gruppe erfolgt über ein Google Group Konto mit gegenwärtig 41 Schriftexperten aus dem In- und Ausland. Über dieses Wiki werden Dokumente gemeinsam bearbeitet, Diskussionen geführt und Material ausgetauscht. Die Ergebnisse dieser Diskussionsgruppe fließen in die laufende und künftige Projektarbeit ein und Ziel ist es, dort erarbeitete Standards zu definieren und in einem gemeinsamen Working Paper festzuhalten und zu publizieren.

Die Jahrestagung des Projekts fand im Anschluss an die 20. Europäische Mayakonferenz am 14. und 15. Dezember in Bonn statt. Das Bonner Mayaprojekt beteiligte sich finanziell und mit seinen Mitarbeitern an der Organisation dieser größten Fachtagung zur Mayakultur in Europa und nutzte die Gelegenheit das Projekt nicht nur im Rahmen eines Vortrags an dieser Tagung selbst, sondern auch bei einem anschließenden Workshop den Teilnehmern der Mayakonferenz vorzustellen. Die Jahrestagung ist eine Folgekonferenz der Auftaktveranstaltung vom 14. Oktober 2014 in Düsseldorf, die über den Stand der laufenden und abgeschlossenen Projektaktivitäten Auskunft gibt. Bei dem anschließenden Workshop mit dem wissenschaftlichen Beirat wurden Standards und Konventionen bei der Transliteration, Transkription und Analyse der Mayatexte diskutiert und festgelegt. Diese werden in einem Arbeitspapier auf der Website des Projekts veröffentlicht.

Publikationen

  1. DIEDERICHS, K. 2015. Unsere „Open Science“-Strategie. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Working Paper 1. http://mayawoerterbuch.de/?p=4334. DE | EN
  2. DIEDERICHS, K., C.M. PRAGER., E. WAGNER., S. GRONEMEYER. & N. GRUBE. 2015. Textdatenbank und Wörterbuch des Klassischen Maya. Electronic Document Wikipedia. https://de.wikipedia.org/wiki/Textdatenbank_und_Wörterbuch_des_Klassischen_Maya.
  3. DIEDERICHS, K., C.M. PRAGER., E. WAGNER., S. GRONEMEYER. & N. GRUBE. 2015. Text Database and Dictionary of Classic Mayan. Electronic Document Wikipedia. https://en.wikipedia.org/wiki/Text_Database_and_Dictionary_of_Classic_Mayan.
  4. GRONEMEYER, S. Class Struggle: Towards a Better Understanding of Maya Writing Using Comparative Graphematics, in H. Kettunen & C. Helmke (ed.) On Methods: How We Know What We Think We Know about the Maya. Proceedings of the 17th European Maya Conference, 2012 (Acta Mesoamericana 28): 101–17. Markt Schwaben: Verlag Anton Saurwein.
  5. GRONEMEYER, S., C.M. PRAGER., E. WAGNER., K. DIEDERICHS., N. GRUBE., F. DIEHR. & M. BRODHUN. 2015. Website. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya. http://mayawoerterbuch.de/. DE | EN | ES
  6. GRONEMEYER, S., C.M. PRAGER. & E. WAGNER. 2015. Evaluating the Digital Documentation Process from 3D Scan to Drawing. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Working Paper 2. http://mayawoerterbuch.de/?p=3405.
  7. GRUBE, N. & C.M. PRAGER. 2015. Textdatenbank und Wörterbuch des Klassischen Maya, in N.-W. Akademie der Wissenschaften und der Künste (ed.) Jahrbuch 2015: 160–64. Düsseldorf: Nordrhein-Westfälische Akademie der Wissenschaften und der Künste.
  8. GRUBE, N., C.M. PRAGER., K. DIEDERICHS., S. GRONEMEYER., E. WAGNER., M. BRODHUN., F. DIEHR. & P. MAIER. 2015. Jahresabschlussbericht 2014. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Project Report 2. http://mayawoerterbuch.de/?p=4477. DE | EN | ES
  9. MAIER, P. 2015. Ein TEI-Metadatenschema für die Auszeichnung des Klassischen Maya. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Working Paper 3. http://mayawoerterbuch.de/?p=5067. DE | EN
  10. PRAGER, C.M. 2015. Das Textdatenbank- und Wörterbuchprojekt des Klassischen Maya: Möglichkeiten und Herausforderungen digitaler Epigraphik, in H. Neuroth, A. Rapp, & S. Söring (ed.) TextGrid: Von der Community – für die Community: Eine Virtuelle Forschungsumgebung für die Geisteswissenschaften: 105–24. Glückstadt: Werner Hülsbusch.
  11. PRAGER, C.M., S. GRONEMEYER. & E. WAGNER. 2015. A Ceramic Vessel of Unknown Provenance in Bonn. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Research Note 1. http://mayawoerterbuch.de/?p=2221.
  12. WAGNER, E., S. GRONEMEYER. & C.M. PRAGER. 2015. Tz’atz’ Nah, a “New“ Term in the Classic Mayan Lexicon. Electronic Document Textdatenbank und Wörterbuch des Klassischen Maya Research Note 2. http://mayawoerterbuch.de/?p=3827.

Wissenschaftlicher Beirat, Kooperationen und Vernetzung

Der wissenschaftliche Beirat setzt sich aus Prof. Dr. David Stuart (Austin), Prof. Dr. Marc Zender (New Orleans), Prof. em. Dr. Peter Mathews (Melbourne) und Prof. Dr. Gordon Whittaker (Göttingen) zusammen. Ein Treffen mit dem Beirat fand am 15. Dezember in Bonn statt. Es ist geplant, dass sich der Beirat erneut im November 2016 im Rahmen einer Tagung zur Lexikographie des Klassischen Maya in Bonn oder Düsseldorf trifft.

Das Projekt nahm am 28. und 29. Januar 2015 in Essen an einem von Thomas Kollatz organisierten Arbeitstreffen der beiden vom Bundesministerium für Bildung und Forschung (BMBF) geförderten e-Humanities-Projekte „Relationen im Raum“ und „Inschriften im Bezugssystem des Raumes“ teil. Der Workshop war ein Testfall für den Nachweis der Übertragbarkeit der entwickelten Softwarekomponenten in den beiden Projekten, die auch vom Bonner Projekt nachgenutzt werden sollen. In beiden Projekten geht es um die Identifikation der Zusammenhänge zwischen inhaltlichen und räumlichen Merkmalen kulturwissenschaftlich relevanter Objekte. Beide Projekte verbinden epigraphische Studien und Objekte im Raum um auf dieser Basis Aussagen über Bedeutung und Funktion der Schriftträger zu gewinnen. Dieser Ansatz wird auch vom Bonner Mayaprojekt verfolgt, weshalb ein fachlicher Austausch zwischen diesen Projekten angestrebt wird.

Im Rahmen der von der Max Weber Stiftung organisierten Tagung „Digital Humanities Bilder“ in Bad Godesberg ergab sich ein produktiver Kontakt mit dem von der Akademie der Wissenschaften und der Literatur Mainz geförderten Forschungsvorhaben „Altägyptische Kursivschriften: Digitale Paläographie und systematische Analyse des Hieratischen und der Kursivhieroglyphen“10)http://www.adwmainz.de/projekte/altaegyptische-kursivschriften/informationen.html. Dieses Digital Humanities Projekt erstellt eine digitale Paläographie der hieratischen Kursivschrift und nutzt digitale Präsentations- und Auswertungsverfahren, die auch vom Bonner Mayaprojekt eingesetzt werden. Da beide Projekte komplexe und hieroglyphische Schriftsysteme zum Gegenstand ihrer Forschung haben und vergleichbare Zielsetzungen verfolgen, wurde eine engere Zusammenarbeit in Betracht gezogen. Mitglieder des Mainzer Akademieprojekts haben den Workshop vom 14. Dezember in Bonn besucht, das Bonner Mayaprojekt wird im Rahmen der Tagung „Formen und Funktionen der Edition und Paläographie von altägyptischen Kursivschriften“ das Projekt präsentieren und seine Ansätze vorstellen, wie die variantenreichen Mayahieroglyphen informationstechnologisch repräsentiert werden können. Enge Zusammenarbeit besteht auch im Rahmen des vom Projekt initiierten Verbundes „Encoding Complex Writing Systems“ mit über 40 Forschern, die gemeinsam Richtlinien für die TEI Kodierung komplexer Schriftsysteme erarbeiten werden.

Aufgaben und laufende Arbeiten in Bonn

In dieser Sektion des Arbeitsberichts berichten die Mitglieder der Bonner Forschungsstelle über ihre Tätigkeiten und den Stand der Arbeit.

Textarchiv

Die im Jahr 2014 begonnen Arbeiten zum Textarchiv wurden 2015 fortgesetzt (siehe Arbeitsbericht 2014). Seit 2014 werden das Textarchiv und verschiedene Datensammlungen und Arbeitslisten erarbeitet bzw. zusammengestellt, die nicht nur zeitnah auf der Projektwebsite www.mayawoerterbuch.de veröffentlicht, sondern auch in die Virtuelle Forschungsumgebung in TextGrid eingepflegt werden. Es ist geplant Digitalisate der Photographien online über die genannte Website unter dem Label CC BY zu veröffentlichen. Dem Projekt stehen neben den Archiven des Projektleiters und der Mitarbeiter auch die Inschriftenarchive von Prof. Karl Herbert Mayer, Prof. Dr. Berthold Riese und Dr. Daniel Graña-Behrens zur Verfügung. Von den über 40.000 analogen Photographien aus dem Inschriftenarchiv von Prof. Karl Herbert Mayer, Graz, wurden bis Dezember über 21.000 Objekte von den studentischen Hilfskräften digitalisiert und indexiert. Sie werden im Laufe der nächsten Jahre in die Virtuelle Forschungsumgebung eingearbeitet und teilweise über die Website veröffentlicht. Von den 135 Aktenordnern mit Photographien, Zeichnungen und Notizen aus dem Archiv von Prof. Berthold Riese wurden bis Dezember 34 Ordner gescannt und rund 11.000 Digitalisate produziert und inventarisiert. Wir erwarten hier ein Gesamtvolumen von zirka 45.000 Objekten, die in die Virtuelle Forschungsumgebung eingearbeitet werden. Aufgrund der großen Datenmenge wird die Digitalisierung und Indexierung der Fotos aus den Archiven von Berthold Riese und Karl Herbert Mayer mindestens bis Mitte 2017 andauern und deren Implementierung läuft parallel zur Bearbeitung der Hieroglypheninschriften. 2015 konnte das Projekt auch das umfangreiche Fotoarchiv des Mayaforschers Daniel Graña-Behrens aufnehmen. In mehreren Feldforschungen dokumentierte Graña-Behrens die Inschriften aus Maya-Fundstätten im Norden der Halbinsel Yukatan. Seine Datensammlung umfasst nicht nur 5.000 Diapositive, sondern auch Zeichnungen, die 2016 digitalisiert und indexiert werden. Es ist geplant, diese Fotos in naher Zukunft über die Projektwebsite der Öffentlichkeit zugänglich zu machen.

Dokumentation von Mayainschriften

Im Frühjahr 2015 erwarb das Bonner Mayaprojekt für die Dokumentation von Mayainschriften einen 3D Streifenlichtscanner der Marke Breuckmann, Typ smartScan. Laut eigener Aussage11)Der Inhalt dieses Abschnitts ist ein Auszug von der Website des Herstellers: http://aicon3d.de/produkte/breuckmann-scanner/smartscan/auf-einen-blick/funktionsprinzip.html. beschreibt der Hersteller das System wie folgt:

„Das Streifenprojektionssystem arbeitet mit der sog. miniaturisierten Projektionstechnik (MPT). Dieses Verfahren ist als aktive Triangulation bekannt, im Angelsächsischen findet man dazu häufig den Begriff ‚White Light Scanner‘. Ein Weißlichtscanner besteht aus verschiedenen Hardware- und Softwarekomponenten, zu denen ein bis zwei Digitalkameras (Messfeld und Auflösung individuell der jeweiligen Anwendung angepasst), eine Projektionseinheit (ungefähr vergleichbar mit einem Diaprojektor) sowie ein Computer mit einer Aufnahme- und Auswertungssoftware gehören. Die Erfassung mit einem Weißlichtscanner / Streifenprojektionssystem erfolgt in folgenden Schritten: Nachdem der 3D Scanner, das Messobjekt und ggfs. ein Drehteller oder ein Roboter für eine automatisierte Erfassung eingerichtet sind, wird die Sensorik (Kameras, Projektor) kalibriert. Es folgt die digitale Vermessung des Objekts, indem der Projektor eine Sequenz von Streifenmustern (hier: Gray-Code-Verfahren kombiniert mit Phasen-Shift-Technik) auf das Messobjekt überträgt. Dabei stehen für jedes Objekt an die Aufgabenstellung angepasste Mustersequenzen zur Verfügung. Die Systemkameras nehmen das projizierte Streifenmuster unter einem vordefinierten Betrachtungswinkel auf, wobei diese Projektion für jedes Objekt, sogar für jede Ansicht des Objekts, individuell verschieden ist. […] Eine einzelne Messsequenz ist nach etwa einer Sekunde abgeschlossen; abhängig von der Komplexität des Messobjekts dauert der gesamte Messvorgang zwischen wenigen Sekunden und mehreren Minuten. Der Prozess ist beendet, wenn das Objekt vollständig digitalisiert wurde, d.h. einzelne Bilder aller Objektseiten aufgenommen und automatisch abgespeichert wurden. Innerhalb weniger Sekunden berechnet der Computer daraufhin die 3D Daten des Messobjekts, indem er die Einzelaufnahmen einfach anhand der Objektgeometrie oder mittels vor der Erfassung angebrachter Passmarken aufeinander ausrichtet und sie so zu einem vollständigen digitalen 3D Abbild des Messobjekts zusammensetzt. Das Ergebnis ist zunächst eine sog. Punktewolke, die dann durch spezialisierte Programme und abhängig von der Messaufgabe […] in ein ausgedünntes Dreiecksnetz, das ‚Mesh‘, überführt wird. In diesem Arbeitsschritt werden z.B. Oberflächen geglättet oder das Messrauschen sowie die Datenmenge verkleinert, ohne dass dadurch die Datenqualität reduziert wird. Das exakte dreidimensionale Abbild des Objekts steht als Datensatz in verschiedensten Formaten zur Verfügung und kann beliebig weiterverarbeitet werden […].“

Erste Tests mit dem Scanner erfolgten in der Altamerika-Sammlung in Bonn, wo ein Originalstück und drei Replika aus Gips und Fiberglas gescannt wurden: 1) das Original eines Tabakgefäßes mit Inschrift und figürlicher Darstellung, 2) Abguss eines großformatigen aztekischen Altars mit der Darstellung der Göttin Coyolxauhqui, der im Eingangsbereich der Abteilung für Altamerikanistik an der Wand hängt, 3) Gipsabguss von Hieroglyphenblock K1 von Stufe LXIII der Hieroglyphentreppe aus Copán und 4) die Fiberglasreplik der linken Tafel aus der Cella im Inneren des Tempels der Sonne in Palenque, wovon Sven Gronemeyer eine Umzeichnung auf einem digitalen Zeichentablett anfertigte. In der Publikation „Tz’atz’ Nah, a ‚New‘ Term in the Classic Mayan Lexicon“ (siehe Publikation 12) wurde auf der Grundlage des 3D Scans der Text neu interpretiert, da mit Hilfe des 3D-Modells eine wichtige Passage lesbar wurde. Eine weitere Publikation des Projekts (Publikation 6) befasst sich mit dem zuvor besprochenen Dokumentationsverfahren und dessen Vorteilen für die epigraphische Forschung, insbesondere im Fall erodierter Passagen. Die Bonner Objekte wurden auf dem projekteigenen Account der für 3D Objekte spezialisierten Internetplattform Sketchfab12)https://sketchfab.com/ veröffentlicht und sind mit der Projektwebsite verlinkt (dazu näheres im Abschnitt „Social Media“).

Das Projekt strebt zum Zweck der Dokumentation von Mayatexten die Zusammenarbeit mit Museen und Sammlungen an, in deren Bestände sich Objekte mit Inschriften befinden. Im Projektjahr 2015 kooperierten wir erfolgreich mit dem Knauf-Museum – Reliefsammlung der großen Epochen in Iphofen, mit dem Museum der Kulturen in Basel, Schweiz und mit dem Ethnologischen Museum, Berlin. Eine weitere Kooperation wurde im Rahmen einer Dienstreise von Christian Prager nach Cambridge, England, im März vereinbart. Das örtliche Museum of Archaeology and Anthropology beherbergt eine große Sammlung mit Gipsabgüssen von Mayamonumenten, die vor über einhundert Jahren hergestellt wurden und seither im Archiv des Museums lagern. Die Abgüsse zeigen den Zustand der Monumente bei ihrer Entdeckung; viele davon sind heute zerstört oder durch Verwitterung stark beschädigt. Das Projekt wird diese Abgüsse mit dem 3D Scanner dokumentieren, in das Inschriftenarchiv integrieren und über die Website der Forschung zur Verfügung stellen. Die Dokumentation dieser Objekte erfolgt im Rahmen einer Dienstreise im Sommer 2016.

Iphofen

Vom 29. Juli bis 4. August 2015 haben die Projektmitarbeiter Sven Gronemeyer, Antje Grothe, Christian Prager und Elisabeth Wagner Gipsrepliken von Maya-Monumenten in Originalgröße im Knauf-Museum in Iphofen mit dem im Jahr 2015 angeschafften 3D Streifenlichtscanner dokumentiert. Das 1983 unter der Schirmherrschaft der Firma Gebrüder Knauf Westdeutsche Gipswerke im ehemaligen fürstbischöflichen Rentamt aus dem 17. Jahrhundert eröffnete Museum besitzt 205 Originalabgüsse, die weltweit in den großen Museen und in archäologischen Stätten von Monumenten in situ angefertigt wurden. Die in 20 Räumen untergebrachte Sammlung umfasst aus Alabastergips hergestellte Repliken aus Mesopotamien, Ägypten, Rom, Griechenland, Altamerika, Indien, Kambodscha und der Osterinsel und umspannt damit die großen Kulturepochen seit 3500 v. Chr. Unter den bekannten Exponaten finden sich etwa Abformungen der Grenzstele Sesostris III, der Gesetzesstele des Hamurabi oder des Rosette-Steins aus dem Britischen Museum.

Iphofen: Palenque, Ovale Tafel

Aus dem vorspanischen Amerika sind neben den Steinmonumenten aus Cerro Sechin und Chavin de Huantar (Peru) auch eine Sammlung aztekischer, totonakischer und zapotekischer Artefakte ausgestellt. In einem eigenen Raum ist eine Sammlung von Maya-Monumenten untergebracht, die während des viertägigen Aufenthalts vom Bonner Team streifenlichttopometrisch dokumentiert wurden. Im Einzelnen dokumentierten wir die 1) ovale Steintafel aus Palenque, Palast, Haus E, an der Wand des westlichen Korridors, 2) den Mittelteil des Reliefs im Sonnentempel (Rückwand der Cella), 3) den rechten Teil der zentralen Tafel im Tempel des Blätterkreuzes (Rückwand der Cella), 4) die skulptierte Tafel im Kreuztempel von der Westseite des Cella-Eingangs, 5) Quirigua, Altar L, 6) Fragment der Hieroglyphentreppe in Seibal, sowie 7) Details von Türsturz 23 aus Yaxchilan. Die 3D Modelle werden derzeit analysiert und für die Publikation auf der Website 2016 vorbereitet.

Basel

Die Dokumentation der hölzernen Türsturze 2 aus Tempel IV sowie die beiden Türsturze 2 und 3 aus Tempel I aus der Mayastadt Tikal mittels Streifenlichtscanner stand im Fokus zweier Forschungsreisen nach Basel vom 9. bis 18. Juli und 26. August bis 4. September. Beteiligt waren Christian Prager, Elisabeth Wagner und Sven Gronemeyer. Die sogenannten Tikaltafeln gehören zu den wenigen historischen Holzartefakten der Mayakultur, welche das tropische Klima des Mayagebiets lange überlebt haben und 1878 nach Basel überführt wurden. Ihre Texte nennen Schlüsselereignisse in der späten Geschichte des Mayatieflandes und erwähnen unter anderem das Ende einer über hundertjährigen hegemonialen Vormacht Calakmuls über die Stadt Tikal. Die Tafeln werden wegen ihrer Einzigartigkeit als „Mona Lisa“ der Basler Sammlung bezeichnet und ihre Bedeutung wird in zahlreichen Publikationen unterstrichen.

Basel: Tikal, Tempel IV, Türsturz 3

In Zusammenarbeit mit dem Kurator für die Amerikaabteilung, Alexander Brust, wurden die einzelnen Planken im Museumsdepot vollständig gescannt. Von Türsturz 3 aus Tempel 4 konnte nur die Vorderseite mit Text und Bildwerk gescannt werden, da sich das Objekt derzeit in der Ausstellung im Museum befindet. Es ist geplant, die Rückseite zu scannen, sobald die Ausstellung im nächsten Jahr wieder umgebaut wird. Mit Hilfe der erstellten 3D Modelle sollen Reproduktionen der Türsturze angefertigt werden und außerdem ist eine gemeinsame Publikation geplant. Die 3D-Modelle werden dem Museum zur Verfügung gestellt und werden auf Anfrage interessierten Forschern zur Verfügung gestellt. Das Museum besitzt darüber hinaus Gipsabgüsse von Monumenten aus Yaxchilan, die teilweise gescannt wurden. Es ist geplant, weitere Objekte mit Mayaschriften im Museum zu scannen und über die Website der Öffentlichkeit zur Verfügung zu stellen.

Berlin

Vom 15. bis 21. März unternahm Elisabeth Wagner eine Dokumentationsreise in das Ethnologische Museum in Berlin. Dort wurden photographisch Maya-Objekte mit Inschriften und bildlichen Darstellungen im Depot des Museums dokumentiert, wobei auch in diesem Falle die Photographien dem Museum zur Verfügung gestellt werden. Die bisherige photographische Dokumentation erfasste die im Museumsdepot gelagerten Objekte mit Mayainschriften und umfasst vollständige Keramikgefäße, Gefäßscherben und Figurinen sowie ein Inschriftenfragment aus Stein. Es ist geplant diese Arbeit mit den übrigen Inschriftenträgern (Steinmonumente, Keramikgefäße, Kleinplastiken und Schmuckobjekte) in der öffentlichen Ausstellung des Museums fortzusetzen und in naher Zukunft auch mittels Streifenlichtscanner und Photogrammetrie zu dokumentieren.

Fundstättenliste

Die im Jahresbericht 2014 beschriebene Fundstättenliste ist mittlerweile online in Form einer Datenbank über die URL http://mayawoerterbuch.de/?cat=83 verfügbar. Derzeit sind von den 526 dokumentierten Fundstätten mit Mayainschriften 296 veröffentlicht und die restlichen 229 Fundorte werden in den kommenden Monaten bearbeitet und online gestellt. Die Arbeitsliste umfasst primär nach Appellativa sortiert die Ruinenorte in Mesoamerika, wo bislang Maya-Hieroglypheninschriften im Zuge archäologischer Erkundungen und Ausgrabungen entdeckt und nachweislich dokumentiert wurden. Sofern bekannt, sind die Fundorte anhand der recherchierten geographischen Koordinaten in Google Maps angezeigt. Die Arbeitsliste bildet die Grundlage des Inschrifteninventars, das derzeit in der Bonner Arbeitsstelle vorbereitet und auf der Projektwebsite ebenfalls als separate, dynamische Arbeitsliste veröffentlicht und gepflegt wird. Mit diesen Materialien bietet das Projekt einen Überblick über die bisher dokumentierten Fundorte mit Angabe der jeweils dort entdeckten Inschriftenträger. Diese datenbankbasierte Publikationsform ist dynamisch und hat gegenüber gedruckten Fundortlisten den Vorteil, dass neu entdeckte Ruinen mit Inschriften unmittelbar in die Fundortdatenbank eingetragen werden können, wodurch sich die Arbeitsliste stets auf dem neuesten Stand befindet. Für die nachhaltige Nutzung und Langzeitspeicherung werden Druckversionen dieses liquid documents mit seinem aktuellen Bearbeitungsstand in regelmäßigen Abständen im Jahresbericht des Projekts veröffentlicht. Für jeden Ruinenort werden nicht nur Quellenangaben (persönliche Mitteilungen, Literaturhinweise, Karten, Internetverweise etc.) dokumentiert, sondern auch wesentliche Metadaten wie zum Beispiel das bevorzugte Appellativ, alternative Bezeichnungen oder Schreibungen, Abkürzungen, geographische Koordinaten und weitere Referenzen. Die Forschungsdaten selbst sind gemeinfrei und werden unter der Lizenz CC BY zur Verfügung gestellt. Unser Metadatenkonzept wird weiter unten vorgestellt.

Die Fundortdatenbank ist auf zwei Ebenen angelegt. Der Einstieg findet über eine dreispaltige Tabelle statt, die alle Fundstätten enthält. Sie ist alphabetisch aufsteigend sortiert. Eine Neusortierung (alphabetisch absteigend) ist für alle Spalten der Tabelle möglich. In der ersten Spalte von links erscheint in blauer Schrift der präferierte Name der jeweiligen Fundstätte (gemäß der Konventionen des CMHI). Darunter erscheinen ggf. alternative Namen in schwarzer Schrift. Existieren mehrere Alternativnamen, dann werden sie durch ein Gleichheitszeichen „=“ getrennt.

In der mittleren Spalte „Akronym“ werden die Dreibuchstabencodes aufgeführt, die als Abkürzung für die Fundortnamen verwendet werden. Bislang erscheinen hier Akronyme, die nachweislich in publizierten Quellen erschienen sind (Riese 2004; Graham 1975, 1982; Graham & Mathews 1999; Fash & Corpus of Maya Hieroglyphic Inscriptions Program 2012; Mathews 2005). Mit Hilfe der Sortierungsfunktion lässt sich einen Überblick darüber verschaffen, welche Fundorte noch kein Akronym besitzen. In der dritten Spalte ist das Land und der Bundesstaat bzw. departamento/district angegeben, in denen sich der Fundort befindet. Die Sortierung ist hier ausschließlich nach Ländern möglich. Über das Auswahlfeld am Kopf der Fundstättenliste kann man sich standardmäßig Ruinenorte in Mexiko, Belize, Costa Rica, El Salvador, Guatemala und Honduras anzeigen lassen. Die Instant-Suchfunktion erlaubt auch eine Abfrage nach Namen oder Namensteilen von Fundstätten.

Der präferierte Name einer Fundstätte ist gleichzeitig ein Link, der zur zweiten Ebene der Fundortdatenbank führt. Diese bietet detaillierte Informationen zu jeder Fundstätte. Die Rahmeninformationen zu den einzelnen Fundorten umfassen:

  1. Bezeichnungen
  2. Identifikationsnummern
  3. geographische Position
  4. Anzahl an Inschriften aus früheren Inventaren
  5. Onlinepräsenzen
  6. weiterführende Bemerkungen und Referenzen

In der ersten Kategorie „Bezeichnungen“ erscheinen weitere alternative Abkürzungen und Namen, die in der Forschungsliteratur belegt sind. Die entsprechenden Quellen sind unter der Kategorie „Quellen“ im Feld „Bemerkungen“ zu finden. Die Angabe von Alternativnamen ist essentiell, denn in der Literatur kursieren öfters verschiedene Namen für ein und dieselbe Fundstätte. Identifikationsnummern aus Normdateien und Thesauri zu zitieren und die Einträge der Fundstättenliste mit diesen zu verknüpfen, stellt eine weitere Möglichkeit dar, um eine Fundstätte eindeutig zu identifizieren. Normdateien sind Verzeichnisse von vereinheitlichten Bezeichnungen, die in einer Dokumentation als Schlagwörter (Deskriptoren) verwendet werden. Sie ermöglichen eine eindeutige Zuordnung und Identifikation von Personen(namen), Geographika, Sachschlagwörtern, Körperschaften, Werktiteln etc.

Wir verknüpfen Fundstätten auch mit dem Getty Thesaurus of Geographic Names Online (TGN)13)http://www.getty.edu/research/tools/vocabularies/tgn/index.html. Es handelt sich dabei um eine Datenbank mit Normdaten, die für die Anwendung in der Museumsdokumentation entwickelt wurde. Der Thesaurus umfasst aktuelle und historische Ortsbezeichnungen in verschiedenen Sprachen, zudem Informationen wie Geokoordinaten und Ortstypen. Seine Normdaten werden unter einer freien Lizenz (Open Data Commons Attribution License (ODC-By) 1.0) veröffentlicht und werden durch ein spezielles Editing- und Reviewverfahren durch autorisierte Fachleute ergänzt und modifiziert. Fundorte unserer Datenbank werden daher nicht nur mit den Normdaten des Thesaurus of Geographic Names Online (TGN) verknüpft, sondern das Projekt wird umgekehrt auch Normdaten in TGN einpflegen, etwa wenn bestehende Daten nicht korrekt sind oder Einträge fehlen.

Sofern ein Eintrag in TGN vorhanden ist, erscheint dieser in der Kategorie „Identifikationsnummer“ im Feld „Getty ID“. Die Fundstätten sind – wenn möglich – auch mit den Identifikationsnummern im Vokabular von GeoNames verknüpft. Diese Datenbank enthält über 10 Millionen geographische Namen, die in jeweils eine von neun Klassen und einen von über 645 Codes kategorisiert sind. Neben Ortsnamen in verschiedenen Sprachen sind auch Längen- und Breitengrade, Meereshöhen, Einwohnerzahlen und administrative Unterteilungen in der Datenbank enthalten. Alle Koordinaten verwenden WGS84 (World Geodetic System 1984), wie es auch in GPS zur Anwendung kommt. Wenn verfügbar, dann erhalten die Fundstätten auch fachspezifische Identifikationsnummern im Feld „Atlas ID“. Bei mexikanischen Fundorten wird die offizielle ID des INAH (Instituto Nacional de Arqueología e Historia) angegeben, bei guatemaltekischen die Fundort-Codes des IDAEH (Instituto de Arqueología e Historia) und bei belizensischen die Registrierungsnummern des NICH (National Institute of Culture and History).

Für die meisten Fundorte ist die genaue geographische Lage gut dokumentiert. In der Kategorie „Position“ bieten wir Informationen zu: a) Land und politisch-territoriale Untereinheit, in der die Fundstätte liegt und b) geographische Koordinaten (WGS84). Nach Angabe des Landes und der politisch-territorialen Untereinheit folgt in Klammern ein ISO 3166-Code. Es handelt sich dabei um einen internationalen, standardisierten Ländercode, der aus drei Teilen besteht. Der erste Teil steht für den aktuellen Staat, der zweite Teil für die politisch-territoriale Untereinheit und der dritte Teil für ehemalige Staaten (seit 1977). Die geographischen Koordinaten werden im Dezimalformat angegeben und stammen aus unterschiedlichen Quellen, die wir unter „Quellen/Bemerkungen“ aufführen. Darüber hinaus stellen wir in dieser Kategorie einen Link zu einem Tool zur Verfügung, mit dessen Hilfe die von uns angegebenen Koordinaten umgerechnet werden können.

Jeder Eintrag wird mit Hilfe von Google Maps oder anderen Portalen auf seine Verlässlichkeit geprüft. Ist die angegebene, geographische Lage plausibel und wie exakt sind die Messungen? In vielen Fällen lassen sich die in der Literatur enthaltenen Angaben durch Google Maps verifizieren. Unsichere oder problematische Messungen werden unter „Quellen/Bemerkungen“ vermerkt. Jede Lage wird mit einer Quellenangabe belegt und kann durch den Nutzer anhand der eingebetteten Karte von GoogleMaps selbst überprüft werden.

Unter der Kategorie „Anzahl an Inschriften“ erscheint die Anzahl der Hieroglyphentexte, die in den beiden bislang publizierten Inschrifteninventaren dokumentiert sind. Das erste Inventar stammt von Sylvanus Morley aus dem Jahr 1948 (siehe oben). Bei dem zweiten Inventar handelt es sich um eine Übersicht von Berthold Riese (1980), die nicht nur alle bis dahin bekannten Fundorte mit Inschriften enthält, sondern auch für jeden Fundort die Anzahl der Inschriften angibt. Dieser Bereich wird zukünftig mit Angaben aus dem CMHI und eigenen Forschungsdaten ergänzt.

Darüber hinaus verknüpfen wir die Fundorte unter der Kategorie „Online“ mit der Internetpräsenz von Forschungsprojekten, verweisen auf etwaige Google Street View Ansichten und verlinken auf Facebook und Twitter, sofern diese Projekte über Social Media-Kanäle verfügen. Kommentare zum Fundort, der Verlässlichkeit von geographischen Koordinaten, zu Quellennachweisen usw. befinden sich unter „Bemerkungen“ und „Referenzen“. In den Referenzen finden sich nicht nur Quellenangaben zu den Einträgen selbst, sondern auch weiterführende Literatur, die in der Literaturdatenbank Zotero gepflegt wird und dadurch stets auf dem neuesten Stand gehalten werden kann. Die Literaturrecherche wird als Funktion in der Zukunft verfügbar sein.

Liste von Museen und Sammlungen

Außer der zuvor erwähnten Fundortdatenbank steht zudem die bereits 2014 beschriebene Museumsliste unter der URL http://mayawoerterbuch.de/?cat=80 als Datenbank aller öffentlichen und für die Forschung zugänglichen Sammlungen von Objekten der Mayakultur in Museen und archäologischen Stätten. Gegenwärtig enthält sie über 200 Einträge und wird laufend erweitert. Nach der Fundortliste bildet die Museumsliste eine weitere Grundlage des Inschrifteninventars. Neben zahlreichen Objekten der Mayakultur unbekannter Herkunft, die oftmals u.a. Schenkungen, Nachlässe oder Käufe in die Sammlungen der Museen gelangten, führten manche Museen und Institutionen auch eigene Forschungen im Mayagebiet durch und gelangten so in den Besitz von Mayaartefakten. Somit sind Informationen zu Museen und Sammlungen bei der Erstellung der Objektbiographien, welche auch Informationen zu Dokumentation, Erwerbshistorie und Standort einschließen, von wesentlicher Bedeutung. Um die Erwerbs- und Dokumentationshistorie eines gegebenen Objekts möglichst lückenlos zu dokumentieren, werden nicht nur noch bestehende Sammlungen dokumentiert und – im Falle einer Namensänderung – deren frühere Bezeichnungen, sondern auch bereits aufgelöste Museen und Sammlungen. In der online veröffentlichten Datenbank sind Letztere durch ein in Klammern gesetztes Kreuz hinter dem Namen als aufgelöst gekennzeichnet.

Wie auch die Fundortliste ist die Museumsdatenbank in zwei Ebenen angelegt. Auf der Einstiegsseite findet sich eine vierspaltige Tabelle, von der jede Spalte alphabetisch auf- und abwärts sortierbar ist. Die Spalten umfassen Name, Akronym, Stadt sowie das Land mit dem jeweiligen Bundesstaat. Die zweite Ebene bildet der Datensatz zu jeweils dem ausgewählten Museum oder der Sammlung. Ein solcher Datensatz enthält außer dem aktuellen Namen, ggf. dem Akronym, Standort und Kontaktdaten auch die Onlinepräsenz des jeweiligen Museums mit Links zu seiner Website sowie dessen Kanälen in sozialen Medien. Als Hilfsmittel zur weiteren Recherche erscheinen, soweit verfügbar, auch Direktlinks zu Katalogen und Datenbanken mit Beständen an Objekten der Mayakultur. Zur genauen Georeferenzierung werden wenn vorhanden die geographischen Koordinaten, IDs von Geonames, sowie TGN und ULAN (Union List of Artist Names)14)http://www.getty.edu/research/tools/vocabularies/ulan/index.html aufgeführt. Zu jedem Datensatz erscheint auch eine Karte von Google Maps, auf der die genaue Lage des jeweiligen Museums angezeigt wird. Durch die Registrierung des Projekts bei Geonames konnte bereits einer Reihe von vorher noch nicht georeferenzierten Museen eine Geonames ID vergeben oder bereits bestehende Referenzierungen korrigiert oder präzisiert werden. Wie der TGN steht ULAN ebenso als Normdatenbank zur Verfügung und kann daher ebenso ergänzt und modifiziert werden.

Mittels Auswahlfeldern oberhalb des Tabellenkopfes lassen sich Museen und Sammlungen in ausgewählten Ländern anzeigen. Zudem werden rechts oben auf der Einstiegsseite in einem separaten Menü der jeweils neueste Eintrag sowie die drei zuletzt bearbeiteten Einträge angezeigt. Des Weiteren lädt eine Kommentarfunktion die Besucher der Website ein, neue Museen oder Sammlungen als auch Korrekturen, Änderungen oder Aktualisierungen zu bereits aufgeführten Museen zu melden, damit diese dann in die Liste aufgenommen bzw. bestehende Einträge aktualisiert werden können.

Literatur

Ein weiteres Ziel des Projekt ist es eine vollständige Bibliographie über die Mayakultur zu erstellen (siehe Arbeitsbericht 2014). Für jeden Textträger wird eine Objektbeschreibung und -biographie erstellt. Nutzer der Textdatenbank können dadurch Informationen zum jeweiligen Kontext einer Inschrift abrufen. Die virtuelle Arbeitsumgebung enthält daher nicht nur Beschreibungen über die Textträger oder Informationen über den Inhalt der Texte, sondern Datenbanknutzende bekommen mit Hilfe der Literaturdatenbank auch einen Überblick darüber, welche Autoren sich mit einem Monument befasst oder es publiziert haben, eine Textpassage diskutiert oder erstmals eine bis heute gültige sprachliche Lesung einer Hieroglyphe bzw. eines Zeichens der Öffentlichkeit präsentiert haben. Für die Erfassung der Literatur wird die freie und quelloffene Anwendung Zotero verwendet um unterschiedliche Online- und Offlinequellen zu sammeln, zu verwalten und zu zitieren. Die Anwendung unterstützt die Bearbeitung und Edition von Literaturangaben und Literaturlisten und erlaubt kollaboratives Arbeiten an unterschiedlichen Standorten. Im Dezember 2014 wurden 4.836 Datensätze erfasst, Ende 2015 umfasst die Literaturdatenbank 11.441 Einträge. Jeder Eintrag wurde mit Hilfe von Datenbanken und der Originalliteratur auf Vollständigkeit und Richtigkeit überprüft und – wenn vorhanden – mit einer URL verknüpft, wodurch auf eine Onlineversion der entsprechenden Monographie oder Artikels zugegriffen werden kann. Für das Projekt wurde in Kooperation mit der Universitäts- und Landesbibliothek für 2015 und 2016 auch eine Lizenz für die Nutzung der bibliographische Datenbank „Anthropology Plus“ erworben, mit deren Hilfe die Datensätze überprüft und weitere Literatur erfasst und eingepflegt werden kann. Die Kosten hierfür teilen sich die das Projekt und die ULB. Die Literatur kann über verschiedene Formate exportiert werden und wurde auch erfolgreich in IDIOM implementiert, so dass die Einträge dort auch referenziert werden können. Die Literaturdatenbank wird im Laufe des Jahres 2016 zur freien Recherche und mit einer Exportfunktion über die Projektwebsite verfügbar sein.

Virtuelles Inschriftenarchiv in der Digitalen Bibliothek

Die ULB bietet einen freien Webzugang zu ihrem Bestand elektronisch verfügbarer Medien auf ihrer Web-Präsenz, in den sogenannten Digitalen Sammlungen15)http://digitale-sammlungen.ulb.uni-bonn.de/ an. Diese umfassen neben digitalisierten Drucken aus dem historischen Altbestand der ULB auch elektronische Publikationen. Um die Digitalisate und Medien zu managen und im Web zu präsentieren bzw. verfügbar zu machen, wird seitens der ULB die Software Visual Library (VL), sowie der VL-Manager der kooperierenden Software-Firma Semantics Kommunikationsmanagement GmbH16)http://www.semantics.de/ eingesetzt.

Das TWKM-Projekt hat durch die Zusammenarbeit mit der ULB in seiner Projektplanung den Aufbau eines Virtuellen Inschriftenarchivs in deren Digitalen Sammlungen vorgesehen. In diesem Inschriftenarchiv sollen die Digitalisate und einige objektbeschreibende Metadaten sowie Textanalysen und Übersetzungen von ausgewählten Maya-Inschriften abgebildet werden, deren Quelle die Projektdatenbank sein wird. Die Projektdatenbank wiederum soll innerhalb der Virtuellen Forschungsumgebung in TextGrid erstellt und gespeichert werden. Die projekteigenen, in der TextGrid-Umgebung gespeicherten Digitalisate samt ihrer Metadaten sind somit keine Bibliotheksbestände der ULB im üblichen Sinne, die im gewohnten Prozedere auf dem hbz-Server (hbz: Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen)17)https://www.hbz-nrw.de/ gehostet und mittels Visual Library Manager bearbeitet werden können. Um die Projektinhalte wie geplant in den Digitalen Sammlungen der ULB zu präsentieren und sie dort öffentlich zugänglich zu machen, mussten seit Projektbeginn in Bonn und Göttingen in Kooperation mit der ULB und der Firma Semantics neue Lösungen erarbeitet werden.

Die Zusammenarbeit mit Semantics und der ULB fuhr diesbezüglich 2015 fort. Die Arbeit konzentrierte sich auf das Ziel, erste Testdaten aus im Projekt erstellten Metadaten an Semantics zu übermitteln, so dass beide Parteien konkretere Maßnahmen treffen können für die technische Planung und Umsetzung der nötigen Schritte zur Übermittlung und Darstellung der Daten im Virtuellen Inschriftenarchiv.

Zunächst wurden hierzu Anfang 2015 in einem Treffen zwischen Jan Kenter (ULB), Christian Pager und Katja Diederichs in Bonn anknüpfend an die Besprechung mit Semantics im Dezember 2014 die durch die Projektarbeit notwendigen Änderungen im Vorgehen aktualisiert und weitere Arbeitsschritte in Bezug auf einen Datenaustausch mit der Visual Library-Software festgelegt und angegangen. Gewählt wurde zunächst aus allen vorhandenen Optionen, die einer möglichen Datenübertragung per OAI-PMH18)https://www.openarchives.org/-Schnittstelle. OAI-PMH (Open Archives Initiative Protocol for Metadata Harvesting) ist ein barrierearmer Weg, um Interoperabilität für Web-Repositorien zu ermöglichen. Darauffolgend wurde von Max Brodhun (SUB) in Göttingen evaluiert, ob eine Lieferung von auf ein anderes Format gemappten Daten über OAI-PMH seitens TextGrid möglich sei. Nachdem die Prüfung zur technischen Gestaltung der Schnittstelle positiv ausfiel, wurde sich darauf geeinigt, diese Option zu realisieren und andere vorgeschlagenen Alternativen zugunsten einer Datenlieferung über das OAI-PMH-Interface fallen zu lassen. Diese technische Entscheidung führte zu dem Entschluss, im Weiteren eine Aktualisierung des ursprünglichen Angebotes mit Semantics zu kommunizieren, in der auf eine geplante Schulung zur Semantics-Software Visual Library Manager, mithilfe derer die Inhalte für die Darstellung im Visual Library gestaltet werden, verzichtet werden könne. Ebenso würden eine Lizenzvergabe zu dessen Nutzung und Softwarepflege sowie eine Vergabe von URNs hinfällig, da die per Schnittstelle gelieferten Daten bereits von TextGrid erstellte persistente Indentifier besitzen werden.

Nach Fertigstellung des Metadatenschemas für die Eingabemaske des Projekts, konnte im Herbst 2015 das Mapping ausgewählter Inhalte umgesetzt werden. Hierzu wurden Elemente des Metadatenschemas identifiziert, die für die Präsentation in der Visual Library relevant sein würden. Diese nun auf ein anderes Metadatenformat zu mappen ist eine notwendige technische Maßnahme, um die Inhalte des größtenteils auf CIDOC-CRM bestehenden, nicht-textuelle Inhalte beschreibenden Metadatenformats in ihrer Semantik konsistent einem in einer anderen Syntax bestehenden Format zuzuordnen. Das in den Digitalen Sammlungen entsprechend zur Abbildung der Inhalte genutzte Format besteht aus den für Digitale Bibliotheken bewährten, offenen XML-basierten Standards METS (Metadata Encoding & Transmission Standard)19)http://www.loc.gov/standards/mets/ und MODS (Metadata Object Description Schema)20)http://www.loc.gov/standards/mods/ deren Schemadefinitionen darüber hinaus die Inhalte zum DFG-Viewer kompatibel machen.

Im September 2015 wurde ein erstes Mapping dann in einem weiteren Treffen in Göttingen zwischen Katja Diederichs und Franziska Diehr auf Durchführbarkeit geprüft, diskutiert und im Anschluss konkretisiert. Hierbei wurden sowohl Metadaten Elemente für das Mapping definiert, die zur visuellen Präsentation in der Visual Library dienen, als auch Elemente, die lediglich für die Recherche in der Digitalen Sammlung benötigt werden. Metadatenelemente etwa, welche die wichtigsten Grundinformationen zu einer Inschrift beschreiben, und hierzu präsentiert werden sollen wie z.B. der Artefakttitel, Ort oder die Abmessungen wurden dementsprechend passenden MODS-Elementen zugewiesen. Zum Beispiel würde bei einem Mapping der Inhalt des Metadatenschemas für den bevorzugten Titel folgendermaßen abgebildet werden: Über das Metadaten-Element idiom:Artefact besteht eine Verbindung mit dem Element idiom:preferredTitle, welches ein Literal enthält mit dem Wert „Yaxchilan Lintel 8“. Dieser Inhalt würde bei einem Mapping abgebildet werden auf das MODS-Element <mods:titleInfo> (mit dem auszufüllenden Attribut xml:lang) und dem darin verschachtelten Unterelement <title>.

So würde schließlich die Beschreibung des mit der Artefaktklasse verbundenen Titelelements im Metadatenschema folgendermaßen aussehen:

<idiom:preferredTitle>Yaxchilan Lintel 8</idiom:preferredTitle>

Dieser würde folgende Abbildung in MODS entsprechen:

<mods:titleInfo xml:lang="en">
<mods:title>Yaxchilan Lintel8</mods:title>
</mods:titleInfo>

Ende 2015 wurde aus Göttingen die erste Testdatenlieferung an fertig gemappten Objektdaten an Semantics geliefert, um auf Nutzbarkeit geprüft zu werden. Hierbei handelt es sich einerseits um die objektbeschreibenden METS/MODS-basierte Daten und andererseits um ein Mockup, das graphisch darstellt, wie die Abbildung der Daten schließlich im Visual Library-Portal aussehen könnte.

Die im Weiteren für 2016 geplante Erstellung eines XML/TEI-basierten Metadatenschemas für die textuellen Analysedaten wird im nächsten Schritt erfordern, einen Weg zu finden, die noch fehlen Transkriptionen, Transliterationen und Übersetzungen in die Visual Library zu übermitteln. Dort werden dann schließlich die Abbildungen der Inschriften neben den objektbeschreibenden Daten mit den textuellen Metadaten (Transliteration, Transkription und Übersetzung) für das Virtuelle Inschriftenarchiv umgesetzt werden. Im Laufe des Jahres 2016 wird der Austausch zwischen Semantics, dem Projekt in Bonn und der SUB in Göttingen über das weitere Vorgehen hinsichtlich der textuellen Metadaten fortgeführt.

Onlinepräsentation und Social Media

Onlinepräsentation

Die Fortentwicklung der im Oktober 2014 aufgesetzten Instanz von WordPress für die Projektwebsite21)http://mayawoerterbuch.de als Phase II der Onlinepräsentation wurde 2015 fortgeführt. Der von Beuse Projektmanagement als ausführende Agentur projektierte Go-Live Ende 2014 konnte aufgrund mehrerer Umstände nicht eingehalten werden. Basierend auf der initialen Umsetzung der Website im CMS (Content Management System) bedurfte es eines weiteren, iterativen Prozesses, um Design, Konzeption, Usability und Technologie im Sinne aller Projektbeteiligter abzustimmen.

Eine erste Korrekturschleife mit einem dreispaltigen Seitenlayout, angelehnt an das Corporate Design der NRW-AWK, wurde im März 2015 beendet. Im April erhielt Sven Gronemeyer mehrere grundlegende Schulungen durch Beuse Projektmanagement, welche verschiedene Module beinhaltete: WordPress als Redaktionsoberfläche, Nutzung des Backends, grundlegende objektorientierte PHP-Kenntnisse zur Verwaltung von Templates und Änderungen im Core, sowie die Nutzung von git zur Versionskontrolle zwischen lokaler Entwicklungsumgebung und entferntem Bare Repository zur gemeinsamen Entwicklung. Eine zweite Korrekturschleife mit einer Feinabstimmung von Funktionalitäten, Designs und einem weitgehenden Bugfixing konnte im Juni 2015 abgeschlossen werden. Weitere kleinere Anpassungen wurden im laufenden Redaktionsbetrieb bis Ende 2015 durchgeführt.

Nachdem hiermit ein stabiles System geschaffen werden konnte, wurde aus dem Bare Repository und der MySQL-Datenbank mit den Inhalten der Seite ein Klon auf der Virtual Machine der (Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen) GWDG22)https://www.gwdg.de/de in Göttingen erstellt, welche der Internet Service Provider der Website ist. Weiterhin wurde ein Backup-Tool implementiert, das über einen Cronjob (zeitbasierter Prozess) täglich Sicherungen des Contents vornimmt. Laufende Redaktionsarbeiten wurden von diesem Zeitpunkt an auf dem Klon durchgeführt, um seine Systemstabilität zu testen.

Neben dem Verfassen diverser Projektpublikationen bestand die inhaltliche Arbeit vor allem in der Qualitätssicherung der Arbeitslisten. Vorrangig wurden hierfür die Fundstättenliste und die Museumsliste einer Revision unterzogen, um einen einheitlichen Informationsstand für den Go-Live zu gewährleisten. Von den 526 Fundstätten der Arbeitsliste konnten bis Go-Live 296 Einträge redigiert werden, von den 365 Museen und Sammlungen 127. Zum Oktober 2015 konnte mit Catherine Letcher Lazo eine wissenschaftliche Hilfskraft zur Koordinierung der redaktionellen Arbeiten angestellt werden. Diese beinhalten eine Redaktion der deutschen Texte, eine Koordination für die Übersetzung für die englische Sprachinstanz (durch Mallory Matsumoto) und die Übersetzungen für die spanische Sprachinstanz.

Nach Abschluss der Testphase und einer als ausreichend erachteten Contentpflege wurde die Website am 14. Dezember 2015 im Rahmen der zweiten Jahrestagung des Projekts der Öffentlichkeit vorgestellt, nachdem der eigentliche Go-Live eine Woche zuvor stattfand. Einige unwesentliche Bugs bedürfen eines weiteren Fixing in 2016, ebenso steht der Ausbau der Arbeitslisten und der spanischen Fassung an. Für die Zeichenkonkordanz und die Morphemliste wird ebenfalls der Plugin „Magic Fields“23)https://de.wordpress.org/plugins/magic-fields/ benutzt werden, hierfür sind weitere angepasste Templates erforderlich, deren Konzeption in 2016 weitergeführt wird.

Das Zotero-Plugin zur Verwaltung der Literaturangaben ist weiterhin in der Entwicklung, die in einen Funktions-Branch (Kommunikation mit der Zotero-API) und einen Backend-Branch (Einbettung des Plugin in WordPress) aufgespalten wurde. Die Entwicklung wird 2016 abgeschlossen sein. Phase III der Website (Integration von SADE (Skalierbare Architektur für Digitale Editionen) zur Publikation von TextGrid-Objekten) ist derzeit nicht skalierbar und wird ausgesetzt. Stattdessen wird die Website ab 2016 um weitere Funktionen erweitert: die Bereitstellung von nicht-epigraphischen Fotos aus den digitalisierten Archiven in einer durchsuchbaren Galerie (nach Beschreibung/Tags), eine vergleichbare Galerie für 3D-Daten, sowie eine weitere Kategorie für außerhalb der Website veröffentlichte Publikationen. Diese Initiativen finden im Rahmen des „Green Open Access“, der Selbstarchivierung von Materialien, statt.

Social Media

Ein Aspekt der Website ist die schnelle und breite Bekanntmachung von Forschungsdaten und -fragen, nach Möglichkeit in Interaktion mit dem Nutzer, d.h. der Fachwelt. So kann etwa bei allen Arbeitslisten Feedback gegeben werden, um Diskussionen anzustoßen, die allerdings abseits sichtbarer Kanäle ablaufen würden. Um ein weniger formelles und schnelles Format von großer Reichweite zu schaffen, wird das Projekt auf der Website auch eine Kommentarfunktion bei den Projektpublikationen anbieten, die nativ in WordPress verfügbar ist. Diese Kommentare zielen vor allem auf einen wissenschaftlichen Diskurs ab, der sich inhaltlich mit den Publikationen auseinandersetzt.

Neben der eigentlichen Website spielen Kanäle in sozialen Netzwerken eine große Rolle. Zeitgleich mit dem Go-Live der Website gingen Kanäle auf Facebook24)https://www.facebook.com/idiom.project/ und Twitter25)https://twitter.com/idiom_project/ online. Beide Kanäle erlauben es, das Projekt vertieft in der Forschergemeinschaft und einer breiteren Community einzubetten. Dies beinhaltet die Ankündigung von Veranstaltung, neuer Publikationen, neuer Einträge in den Arbeitslisten, etc. Gleichzeitig können Blicke hinter die Kulissen und damit quasi Einblicke in die Arbeit des Projekts in Echtzeit gegeben werden. Kommentare sind hier eher auf einer kolloquialen Ebene zu erwarten und sogar erwünscht.

Ein weiterer Kanal bei einem webbasierten Dienst ist bei Sketchfab26)https://sketchfab.com/idiom-project/ eingerichtet. Diese Plattform bietet einen Online-Viewer für 3D-Modelle und hat eine soziale Komponente, bei der Modelle geteilt, bewertet und kommentiert werden können. Da serverseitig die WebGL JavaScript API zur Darstellung von 3D-Daten und browserseitig die gemeinfreie OSG.JS JavaScript-Bibliothek eingesetzt werden, können die frei beweglichen 3D-Modelle des Projekts plattformunabhängig betrachtet werden (inkl. interaktiver Parameter wie bewegliche Lichtquellen oder Renderingoptionen). Als Bildungseinrichtung hat das Projekt kostenfrei einen Pro-Account erhalten, der den Upload komplexerer Modelle (bis 10 Mio. Faces) erlaubt. Andere kulturelle Institutionen (z.B. das British Museum oder das Peabody Museum) haben bereits eigene Kanäle eingerichtet, so dass ein interaktives Repository von Maya-Objekten zur Verfügung gestellt werden kann. Die 3D-Modelle von Sketchfab können ebenso einfach über andere soziale Medien geteilt oder auf anderen Websites (inklusive der des Projekts) eingebettet werden.

Aufgaben und laufende Arbeiten in Göttingen

Die Konzeption und Entwicklung der informationstechnologischen Komponenten des Projekts gehört zum Aufgabenbereich der SUB Göttingen. Im Vordergrund stehen dabei die Entwicklung des Metadatenschemas und die darauf aufbauende Programmierung und Anpassung der Virtuellen Forschungsumgebung TextGrid an die Aufgaben, Bedürfnisse und Zielsetzungen des Projekts. Im Folgenden fassen wir die im Jahre 2015 geleisteten Arbeiten zusammen.

Metadatenerfassung für nicht-textuelle Objekte

Die Erfassung der Daten für nicht-textuelle Objekte zu ermöglichen, bildete die Kernkomponente des Jahres 2015. Die Umsetzung umfasst im Wesentlichen vier große Bereiche, die eng miteinander verbunden sind und sich in ihrer Entwicklung gegenseitig stark beeinflussten: Die Formulierung fachwissenschaftlicher Anforderungen an die Metadatenerfassung, die Konzeption des Metadatenschemas, die Entwicklung von Vokabularen und die Implementierung der Eingabemaske in die virtuelle Forschungsumgebung.

Zum Ende des Jahres 2014 befanden sich die Bereiche auf einem konzeptionellen Stand, welcher im Laufe 2015 auf einen produktiven und damit einsatzfähigen Status gebracht wurde.

Die Entwicklung der Eingabemaske kann als iterativer Prozess verstanden werden, bei dem alle Bereiche voneinander abhängig sind. Durch die gegenseitige Beeinflussung waren folgende Arbeitsschritte nicht voneinander zu trennen und bedurften einer engen Zusammenarbeit und stetigen Austausch:

  1. Formulierung fachwissenschaftlicher Anforderungen an Metadatenerfassung
  2. Entwicklung und Anpassung des Metadatenschemas
  3. Entwicklung von Vokabularen
  4. Technische Umsetzung
  5. Testen des Prototyps

Die fachwissenschaftlichen Anforderungen an die Metadatenerfassung wurden größtenteils bereits 2014 formuliert und bereits zum Teil im Metadatenschema umgesetzt. Im ersten Jahresdrittel 2015 konnte eine erste Version des Metadatenschemas fertiggestellt werden. Dieses gibt die Struktur für die Datenorganisation für die technische Umsetzung vor. Im nächsten Schritt fand die Entwicklung eines ersten Prototyps der Eingabemaske statt, der dann in einer ausgiebigen Testphase von allen Mitgliedern des Teams begutachtet und verbessert wurde. Während der Testphase konkretisierten sich auch die fachwissenschaftlichen Anforderungen an die Metadatenerfassung. Dies machte Anpassungen am Schema und an der technischen Umsetzung notwendig. Die Möglichkeit mit der Eingabemaske direkt zu interagieren zeigte auf welche Komponenten nicht vorhanden bzw. fehlerhaft waren.

Die neu umgesetzten Anforderungen müssen wiederum getestet werden, was den Prozess zu einem Kreislauf macht, der erst dann seinen Abschluss findet, wenn alle gewünschten Anforderungen im Metadatenschema und in der Eingabemaske umgesetzt sind. Dieses Ziel war Ende 2015 erreicht und die Eingabemaske konnte in die Produktivversion übergehen. Im Folgenden werden die einzelnen Phasen und die jeweils ausgeführten Arbeitspakete im Detail erläutert.

Formulierung fachwissenschaftlicher Anforderungen sowie Entwicklung und Anpassung des Metadatenschemas

Für die Formulierung der fachwissenschaftlichen Anforderungen diente ein Anforderungskatalog als Hilfsmittel. Seine Ausarbeitung begann bereits im Jahre 2014 und konnte zu Beginn 2015 fertiggesellt werden. Auf dieser Grundlage konnte die im Vorjahr begonnene Modellierung des Schemas fortgesetzt werden.

Als Basis für die Modellierung des IDIOM-Metadatenschemas diente das CIDOC CRM (CIDOC Conceptual Reference Model), ein ISO-Standard, der im Museumsbereich entwickelt wurde, um museale Objekte und Prozesse formal beschreibbar zu machen. Das Referenzmodell eignet sich daher auch für die Beschreibung epigraphischer Prozesse und Objekte sowie der Dokumentation von Forschungsgeschichte. Neben dem CIDOC CRM fanden weitere Standards und Schemata bei der Modellierung Anwendung. Viele der Standard-Terme wurden jedoch nicht direkt in das IDIOM-Schema integriert, sondern dienten als Super-Class bzw. Super-Property für einen spezifizierten IDIOM-Term.

Die fachwissenschaftlichen Anforderungen an die Metadatenerfassung gestalten sich umfangreich und komplex. Das Projekt möchte zur Geschichte eines Inschriftenträgers alle bekannten Informationen sammeln. Dies beinhaltet auch die Dokumentation sich widersprechender Fakten, die unterschiedlichen Ursprungs sein können. Ein Beispiel dafür sind die Maße eines Schriftenträgers. Ein Artefakt ist häufig von mehreren Forschern vermessen worden. Demzufolge kursieren unterschiedliche Maßangaben zu einem Artefakt in der Forschungswelt und -literatur. Die verschiedenen Maße müssen dabei nicht zwangsläufig fehlerhaftem Messverfahren oder verschieden angewandter Messmethoden geschuldet sein, sondern können auch durch die Verwitterung des Monuments begründet sein. Daher kann nicht zwangsläufig eine Aussage über die Korrektheit der Angaben getroffen werden. Das Projekt entschied alle Messungen eines Artefakts unter Angabe der Quelle zu dokumentieren.

Das IDIOM-Schema

Im Folgenden wird das Metadatenschema in seinen Grundzügen vorgestellt (Abbildung 1).

Abbildung 1: Vereinfachte Darstellung des IDIOM-Schemas

Unter der Klasse Artefakt (idiom:Artefact) werden von Menschenhand erschaffene bzw. bearbeitete physische Objekte zusammengefasst. Dies schließt nicht nur Schrift- und Bildträger ein, sondern auch weitere Objekte, die nicht zwangsläufig eine Inschrift bzw. eine bildliche Darstellung tragen. Dies ermöglicht auch die Dokumentation von Objekten, die im Zusammenhang mit einem Informationsträger stehen, selbst aber keine Schrift bzw. Bild enthalten wie Gebäude, Artefaktfragmente, Gräber usw.

Durch die Schema-Klasse Artefakt kann das Objekt mit seinen Eigenschaften wie u.a. Form, Maße, Zustand beschrieben werden. Um in einem weiteren Schritt auch die Biographie des Artefakts zu erfassen, wird es mit Ereignissen verknüpft. Diese Ereignisse werden ihrerseits wiederum detailliert beschrieben. Im Folgenden werden die zentralen Ereignisse zur Dokumentation der Objektbiographie kurz erläutert.

Mit dem Ereignis Produktion (crm:E12_Production) wird die Herstellung eines Artefakts mit Informationen zu verwendetem Material und angewandter Technik (kontrollierte Vokabulare), Herstellungsort und -datum, Erschaffer und Auftraggeber dokumentiert.

Die erste wissenschaftlich dokumentierte Entdeckung eines Artefakts wird mit dem Ereignis Entdeckung (idiom:Discovery) beschrieben. Hier können detaillierte Angaben zum Fundkontext, Entdecker, Fundort und -datum gemacht werden.

Wenn sich ein Artefakt in der Obhut einer Person (z.B. Privatsammler) oder Institution (z.B. Museum) befindet, kann das mit dem Ereignis Aufbewahrung (idiom:Custody) erfasst werden. Der Eigentumswechsel von Artefakten kann mittels des Ereignisses Erwerbung (crm:E8_Acquisition) beschrieben werden.

Es besteht die Möglichkeit weitere Ereignisse anzulegen, die mit dem Artefakt verbunden sind oder historische Relevanz für die Mayakultur haben. Dazu ist im Schema ein nicht weiter spezialisiertes Ereignis Aktivität (crm:E7_Activity) definiert. Mit Hilfe des kontrollierten Vokabulars Aktivitätstypen (idiom:ActivityType) kann das Ereignis kategorisiert werden und eine Suche nach bspw. Expeditionen, Kriegen oder Thronbesteigungen ist möglich. Weiterhin können Personen und Gruppen, die an Ereignissen teilgenommen haben, mit Hilfe des kontrollierten Vokabulars Rolle (idiom:ActorRole) konkrete Rollen zugewiesen werden, die sie in dem beschriebenen Ereignis ausgeführt haben. Ereignisse können mit Orten (crm:E53_Place), Daten (idiom:Date) und Akteuren (crm:E39_Actor) verknüpft werden, zu denen wiederum weitere Informationen erfasst werden.

Als Orte werden u.a. archäologische Fundstätten und Artefaktfundstellen erfasst. Durch verschiedene Relationen können hier Ortshierarchien angelegt werden, um z.B. den Aufbau einer Fundstätte abzubilden. Des Weiteren werden Orte mit Geokoordinaten versehen und erhalten IDs aus den Normdatensätzen Getty TGN und GeoNames. Auch Grabungsquadranten und andere Referenzkoordinaten, die bei archäologischen Grabungen verwendet werden, können mit dem IDIOM-Schema erfasst werden.

Ein Datum kann sowohl in Form des Gregorianischen Kalenders als auch in Long Count angegeben werden. Zusätzlich bietet die Eingabemaske eine automatische Umrechnungsfunktion.

Das Projekt erfasst Akteure, die mit Ereignissen aus der Artefaktbiographie in Verbindung gebracht werden wie Forscher, Sammler, Händler, Museen, Archive und andere Institutionen.

Weiterhin werden Personen und Gruppen der Klassischen Mayakultur (dazu zählen auch die mythologischen Ursprungs) erfasst. Diese stehen entweder im Zusammenhang mit der Geschichte des Artefakts, spielen eine inhaltliche Rolle in den Texten oder sind anderweitig bedeutend für die Zivilisation der Klassischen Maya. Für Personen können Verwandtschaftsverhältnisse dokumentiert werden.

Die Forschungspraxis zeigt, dass für Orte, Akteure und Artefakte oft mehr als nur eine Bezeichnung verwendet wird. Das Schema ermöglicht diese mit mehreren Namen (crm:E82_Actor_Appellation, crm:E48_Place_Name), Titeln (crm:E35_Title) und Identifikatoren (crm:E42:Identifer) zu verbinden.

Eine weitere aus fachwissenschaftlicher Sicht unverzichtbare Anforderung bestand darin, Literaturquellen zu den erfassten Informationen anzugeben. Quellen (idiom:Source) können zu allen bisher genannten Informationen (Artefakte, Ereignisse, Orte, Daten, Akteure, Bezeichnungen u.v.m.) hinzugefügt werden.

Durch seine Struktur ermöglicht das IDIOM-Schema einzelne Beschreibungssätze miteinander in Beziehung zu setzen. Dies hat den Vorteil, dass jede Entität nur einmal angelegt und dann mit andern verknüpft wird, z.B. muss eine Fundstätte nicht bei jeder Entdeckung neu verzeichnet werden, sondern es findet eine Verknüpfung von dem vollständigen Beschreibungssatz der Fundstätte (mit Koordinaten, verschiedenen Ortsnamen usw.) zu dem vollständigen Beschreibungssatz der Entdeckung (mit Akteuren, Datum usw.) statt. Dies erlaubt es, komplexe Zusammenhänge herzustellen.

Anpassungen des Schemas während der Testphase

Wie bereits erwähnt, ergaben sich durch die Testphase Änderungen am Metadatenschema. Anhand des folgenden Beispiels wird eine solche Anpassung beschrieben.

Das Projekt dokumentiert Personen der Klassischen Mayakultur. Im IDIOM-Schema sind diese unter der Klasse idiom:EpigraphicActor zusammengefasst. Eine Person, bspw. ein Herrscher, hat im Klassischen Maya jedoch nicht nur einen Namen sondern kann z.B. einen Geburts- und einen Herrschernamen haben. Hinzu kommt, dass in der Forschung häufig mehrere Namen für ein und dieselbe Person kursieren. Das Projekt hat es sich zum Ziel gesetzt sowohl den aktuellen Forschungsstand als auch die Forschungsgeschichte abzubilden. Daher ist es notwendig alle bekannten Namen und Namensvarianten eines Maya zu erfassen. Im IDIOM-Schema wurde dies im Prototyp folgendermaßen umgesetzt:

Die Klasse crm:E82_Actor_Appellation beschreibt den Namen eines Akteurs. Die Klasse ist mit idiom:EpigraphicActor durch die Relation crm:P131_is_idenitified_by verknüpft. Da eine Person mindestens einen Namen hat (1 – n), ist es mittels Eingabemaske möglich unendlich viele Namen hinzuzufügen.

Abbildung 2: Erste Version der Modellierung

Während des Testlaufs stellte das Team jedoch fest, dass es notwendig ist einen bevorzugten Namen für eine Person zu definieren. Ein Bestreben des Projekts ist die Entwicklung und Etablierung von Standards. Durch die Festlegung auf bestimmte Bezeichnungen für Personen, soll ein Beitrag zur Entwicklung von Namenskonventionen geleistet werden.

Die Anforderungen haben sich während der Testphase also dahingehend geändert, dass jeder „Epigraphic Actor“ eine Vorzugsbezeichnung haben soll sowie weitere Namensformen angeben werden können. Dies erforderte folgende Änderung des Metadatenschemas:

Abbildung 3: An geänderte Anforderungen angepasste Modellierung

Die Klasse idiom:EpigraphicActor ist nun durch zwei Relationen mit der Klasse crm:E82_Actor_Appellation verbunden. Die Relation idiom:prefActorAppellation ermöglicht es, genau eine präferierte Bezeichnung einer Person zu zuordnen. Die Angabe eines bevorzugeten Namens ist somit Pflicht. Durch die Relation idiom:altActorAppellation können noch weitere Bezeichnungen angegeben werden. Dieses Beispiel soll stellvertretend für weitere durchgeführte Anpassungen stehen, die sich während der Testphase ergaben.

Änderungen am Metadatenschema ziehen nicht nur modellierungstechnischen Aufwand mit sich, wie Suche in Standards nach passenden Termen, Einordnung dieser in das eigene Schema, Hinzufügen neuer Klassen und damit verbundene Subklassierung oder Definition von Subproperties; sondern auch Änderungen an der Eingabemaske, was wiederum programmiertechnischen Aufwand nach sich zieht.

Mit dem Umstieg des Prototypen auf die Produktivversion der Eingabemaske Ende 2015 kann auch das IDIOM-Schema für nicht-textuelle Objekte als abgeschlossen betrachtet werden. Zu Beginn 2016 wird die Dokumentation des Schemas in maschinen- und menschenlesbarer Form veröffentlicht.

Entwicklung von Vokabularen

Zur Unterstützung der Erfassung nicht-textueller Objekte entwickelt das Projekt kontrollierte Vokabulare. Obwohl die Verwendung, Entwicklung und das Management von Vokabularen ein wichtiger Teil vieler Erschließungsprojekte ist, so mangelt es leider an praktikablen Softwarelösungen aus dem nicht-kommerziellen Bereich. Das Rechercheergebnis nach Open-Source-Tools stellte sich als wenig ertragreich heraus: Die meisten Programme waren nicht auf dem neuesten Stand, schlecht bis gar nicht dokumentiert und ließen sich meist nicht in die informationstechnologische Arbeitsumgebung des Projekts integrieren. Auch das Open-Source-Tool SKOS Vocabulary Editor27)https://trac.nbic.nl/skosvocabularyeditor/ (SKOtch) wird nicht mehr regelmäßigen Updates unterzogen. Dennoch entschied sich das Projekt für die Verwendung dieses Programms, da es leicht zu bedienen ist und den von Projekt geforderten Funktionsumfang bietet. SKOtch unterstützt die Vokabularmodellierung in RDF unter Nutzung des SKOS-Standards und speichert die Daten in einem Triplestore.

Während der Formulierung der fachwissenschaftlichen Anforderungen sowie der Entwicklung des Metadatenschemas stellte sich heraus, dass 10 kontrollierte Vokabulare für die Indexierung benötigt werden. Die Entwicklung der Vokabulare konnte zum Ende 2015 begonnen werden und wird im Folgejahr fortgesetzt. Bei 7 der 10 Vokabulare sind die Begriffe inkl. Vorzugsbezeichung und alternativen Bezeichnungen in englischer Sprache erarbeitet worden, so dass sie in der Eingabemaske verfügbar sind und für die Objekterfassung genutzt werden können. Es stehen noch die Begriffsdefinition, das Matching zu Normvokabularen (vor allem Getty Art and Architecture Thesaurus) und die Dokumentation der Vokabulare aus. Nach Fertigstellung werden sie in maschinen- und menschenlesbarer Form veröffentlicht.

Technische Umsetzung des Metadatenschemas

Die technische Umsetzung unterteilte sich in folgende Arbeitsschritte:

  1. Umsetzung des Metadatenschemas in ein maschinenlesbares Format
  2. Umsetzung des epigraphischen Workflows in der Eingabemaske
  3. Testphase der Eingabemaske
  4. Bearbeitung
    1. Usability
    2. Technische Fehler
  5. Eventuelle Überarbeitung im Metadatenschema
  6. Wieder bei 1. Beginnen
Erstellung des Turtles

Damit die Eingabemaske die zu einer Klasse zugeordneten Metadaten prozessieren kann, muss das Schema in einem maschinenlesbaren Format vorhanden sein. Dazu wurde eine Datei in der RDF-Syntax Turtle28)https://www.w3.org/TR/turtle/ erstellt.

Abbildung 4: Beispiel einer Klasse des IDIOM-Schemas umgesetzt in Turtle/RDF

Abbildung 5: Beispiel einer Feldeigenschaft zugehörig zu der Klasse idiom:Artefact in Turtle/RDF

Dies ist für jede Klasse und jede Eigenschaft einer Klasse notwendig. Somit zogen Änderungen am Schema auch Änderungen an der Turtle-Datei nach sich.

Das Turtle-Format trägt alle Informationen darüber, wie ein Formular zur Beschreibung eines Objekts erstellt werden muss. Neben den eigentlichen Metadaten werden an dieser Stelle auch Informationen zur technischen Umsetzung angegeben:

  • Wiederholbarkeit
  • Pflichtfeld
  • Art der Eingabe
    • Button
    • Textfeld
    • Textarea
    • Checkbox
    • Dropdown
  • Prioritätsnummer (an welcher Stelle wird das Feld im Formular dargestellt)
  • Hilfetext für die Eingabe
Visuelle Umsetzung des Schemas in der Eingabemaske

Einige Aspekte bei der visuellen Umsetzung des Metadatenschemas bedurften Änderungen an der Kernkomponente TG-forms29)TextGrid-Anwendung zur Generierung von Formularen für die Metadatenerfassung. Dies betrifft 1) die Unterobjekte einer Klasse im Schema und 2) die Kennzeichnung spezieller Feldeigenschaften. Zu Beginn konnten zwar mehrere Schema-Objekte in einem Formular geladen werden, jedoch war keine visuelle Abgrenzung und Zugehörigkeit vorhanden, da tiefergehende Ebenen zunächst nicht berücksichtigt wurden. Als Beispiel sei an dieser Stelle Epigraphic Actor (Abbildung 6) genannt.

Abbildung 6: Schematische Darstellung des Schemas visualisiert in der Eingabemaske. Die Quelle ist klar einer Actor Appellation zugeordnet.

Nicht jedes konzeptionelle Objekt des Metadatenschema ist auch als eigenständiges Objekt für die Datenbank zu verstehen. Als Beispiel sei hier die Beziehung zwischen den Schema-Klassen idiom:EpigraphicActor und crm:E82_Actor_Appellation genommen. Für das Metadatenschema sind diese beiden Objekte eigene Klassen, für die Speicherung und die Darstellung dieser Beziehung, wird die Klasse crm:E82_Actor_Appellation jedoch direkt an das Objekt gebunden. Daher waren in solchen Fällen zum einen verschiedene Arten der Speicherung notwendig und zum anderen musste die Visualisierung geklärt werden. Für die Visualisierung musste ein direkt sichtbarer Zusammenhang zwischen diesen Objekten bestehen. Eine mögliche Lösung wäre, die crm:E82_Actor_Appellation unter das bestehende Formular zu setzen. Die Actor Appellation hat jedoch weitere Unterobjekte, zum Beispiel eine Quellen-Angabe, für die ein weiteres Unterformular notwendig ist. Bei wiederholten Quellenangaben wäre also nicht mehr klar, auf welchen Eintrag sich die Quelle bezieht. Somit wurde sich für eine geschachtelte Darstellung entschieden und die Speicherung durch referenzierte IDs implementiert. Dabei wird durch Betätigung des Buttons für jedes Unterformular eine ID generiert (z.B. crm:P102_hasTitle15259507240GP). Diese ID wird zur Speicherung des Objektes im Triplestore genutzt und beim Öffnen des Oberobjektes für die Referenzierung auf dieses Unterobjekt verwendet. Durch dieses Verfahren ist stets erkennbar, worauf sich eine Relation bezieht und die Nutzung von RDF-Reifications30)RDF-Reifications sind Aussagen über Aussagen. Also eine zusätzliche Information über ein erstelltes Triple. Dies geht über die eigentlichen Eigeschaften von RDF hinaus. Der Umgang mit diesen ist umständlich und häufig unübersichtlich. Aus diesem Grund wurde im Projekt versucht, diese zu umgehen, falls es möglich ist. wurde an dieser Stelle verhindert.

Abbildung 7: Schematische Darstellung des Schemas visualisiert in der Eingabemaske. Es ist nicht klar, welche Quelle zu welcher Actor Appellation gehört.

Technische Umsetzung

Die Eingabemaske dient dazu die Metadaten der nicht-textuellen Objekte in RDF zu erfassen. Um die Eingabe so intuitiv wie möglich und fachwissenschaftlich korrekt zu gestalten, kamen im Vergleich zum Vorjahr weitere Anforderungen hinzu. Diese unterstützenden Funktionen werden im Folgenden beschrieben. Die IDIOM-Eingabemaske baut auf einer bereits in TextGrid vorhandenen RDF-Eingabemaske auf, wurde aber an die projektspezifischen Bedürfnisse angepasst. So mussten auch in der Kernanwendung TG-forms einige Anpassungen getätigt werden. Diese Änderungen wurden in die Gesamtanwendung von TG-forms integriert und können somit auch von anderen Projekten genutzt werden.

Unterstützende Funktionen innerhalb der Eingabemaske
Datumsumrechnung

Auf den Textträgern ist das Datum häufig im Long Count Format angegeben. Die Verwendung dieses Datumsformats wird gewöhnlich auch in der Forschung benutzt.

Für die programmatische Auswertung der Daten müssen diese jedoch im gregorianischen Format vorliegen. Aus diesem Grund wurde eine automatische Umrechnung eingefügt, die ausgeführt wird, sobald die Eingabe in das Feld Long Count getätigt und dieses anschließend verlassen wird.
Um ebenfalls automatisch das Long Count-Datum inklusive Kalenderrunde zu berechnen, werden zusätzlich noch die Werte für Tzolk’in und Haab berechnet. Diese werden ebenfalls nach Verlassen des Long Count Feldes ausgeführt und in die entsprechenden Felder eingefügt.

Abbildung 8: Beispiel für die Berechnung der zu Tzolk’in und Haab zugehörigen Koeffizienten und des gregorianischen Datums nach Eingabe des Long Count Datums.

Ausgrauen nicht notwendiger Buttons

Es existieren drei verschiedene Arten von Buttons innerhalb der Eingabemaske.

  1. Öffnen eines Kontextmenüs, um nach bestimmten Objekten zu suchen und diese als verlinktes Objekt einzutragen
  2. Erzeugen eines Unterformulares und damit das Hinzufügen weiterer Metadaten
  3. Löschen dieser beiden Eintragungen

Die Funktionen zum Hinzufügen der Daten sollen nur dann möglich sein, wenn noch keine Verlinkung eingetragen wurde bzw. kein Unterformular geladen wurde. In diesem Fall soll die Lösch-Funktion nicht auswählbar sein (siehe Abbildung 6). Ist im anderen Fall bereits eine Verlinkung bzw. ein Unterformular erzeugt worden, so soll es dem Nutzer nicht möglich sein, ein weiteres Mal den Hinzufüge-Button zu nutzen (siehe Abbildung 8 und 9). Sollen Daten korrigiert werden, so muss der Inhalt zunächst gelöscht werden. Nach Betätigen dieses Buttons wird die Nutzung des Hinzufüge-Buttons wieder möglich. Durch diese Vorgehensweise werden Fehler vermieden.

Abbildung 9: Verknüpfungsfeld vor Auswahl eines anderen Objekts. „Choose“ ist aktiviert und „Remove“ ist deaktiviert

Abbildung 10: Verknüpfungsfeld nach Auswahl eines anderen Objekts. „Choose“ ist deaktiviert und „Remove“ ist aktiviert

Abbildung 11: Ein Unterformular wurde erstellt. „Choose“ ist deaktiviert, „Remove“ ist aktiviert. Zusätzlich ist ein Unterformular immer auf- und zuklappbar

Such-Funktionen

Um Objekte mit anderen Objekten durch einen URI zu verlinken, sind hinter den jeweiligen Kontextmenüs bestimmte Queries fest hinterlegt. So wurden beispielsweise Abfragen für die Suche nach Literaturquellen, Orten, Artefakten, Akteuren und Aktivitäten hinterlegt. Dabei handelt es sich um SPARQL-Queries, die zum Triplestore geschickt werden. Alle Suchfunktionen erlauben, dass nur Teile des Suchwortes genommen werden, dass Groß- und Kleinschreibung ignoriert wird und auch Sonderzeichen müssen nicht als solche eingegeben werden (bspw. wird bei Eingabe eines ‘a’ auch nach ‘ă’ gesucht).

Öffnen der Unterformulare

Jedes Objekt kann aus mehreren Unterobjekten bestehen, die durch eine Relation im Schema miteinander verbunden sind. Zu einem Unterobjekt wird jedoch nicht direkt von einem anderen Objekt verlinkt. Die Verknüpfung geht immer von einem Oberobjekt zu einem anderen Oberobjekt. Daher werden diese Unterobjekte nicht als eigenständiges Datenbank-Objekt gespeichert und bekommen keinen eigenen TextGrid-URI. Diese Unterobjekte werden im Triplestore gespeichert und bekommen durch Betätigung des Buttons einen Identifier, damit eine Zugehörigkeit auf Datenbankebene garantiert werden kann. Um ein Unterformular besser von dem darüber liegenden Objekt differenzieren zu können, wird jedes Unterobjekt der nächsten Tiefe, um einen Grauton dunkler (siehe Abbildung 9).

Abbildung 12: Title ist ein Unterformular eines Artefakts, daher ist dieses etwas dunkler als das weiße Grundgerüst. Source ist ein Unterformular der zweiten Ebene und ist aus diesem Grund noch etwas dunkler.

Speichern und Laden der Unterformulare

Das Speichern der Daten innerhalb der erzeugten Unterformulare erwies sich zunächst als schwieriger, als die Daten der ersten Ebene. Hierfür musste der Algorithmus zu einem rekursiven Vorgehen umprogrammiert werden. Die nächste Herausforderung trat beim Laden der Daten eines Unterformulars auf. Die Daten der ersten Ebene (auch die der ersten Unterformulare) haben den TextGrid URI als ersten Zuweisungspunkt. In der zweiten Ebene ist dieser Zuweisungpunkt jedoch nicht der TextGrid URI, da diese Daten unter der ID abgerufen werden müssen, die durch die Eingabemaske generiert wird. Dadurch musste neben dem Algorithmus zum Speichern, auch der Algorithmus zum Öffnen rekursiv angepasst werden.

Anbindung der Literaturdatenbank

Ein wichtiger Bestandteil der Metadatenerfassung ist die Angabe von Literaturquellen. Diese werden nach einem Daten-Dump aus der Literaturdatenbank Zotero mittels RDF-Export in den Triplestore eingespeist. Danach können sie mittels Eingabemaske durchsucht und mit den entsprechenden Daten verlinkt werden. Die Suche reagiert auf Autor, Titel, Erscheinungsjahr und Organisation. Bei der Suche ist die Berücksichtigung von Sonderzeichen wichtig. Enthält das Suchwort bspw. ein a, soll ebenfalls das Vorkommnis eines ă in das Resultat mit einbezogen werden.

Anbindung der Vokabulare

Die Verwendung von Vokabularen ist unverzichtbar. Diese werden von mittels des Tools SKOtch in RDF/SKOS gespeichert. Die Daten werden in einem Triplestore gespeichert. Da das Tool SKOtch nicht mit Fuseki kompatibel ist, musste zusätzlich der Triplestore Sesame installiert und konfiguriert werden. Um die Daten jedoch insgesamt in einer Datenbank vorrätig zu haben, werden diese Daten per Skript von Sesame nach Fuseki transferiert.

Beispiel Forschungsfrage

Ab November 2015 wurde mit der Eingabe einer größeren Datenmenge (751 Objekte mit 16857 Tripeln) begonnen. Inhaltlich wurden Metadaten über die Fundstätte Tikal erfasst. Diese Daten wurden als Grundlage für eine ausführliche Projektpräsentation im Rahmen der European Maya Conference im Dezember 2015 in Bonn genutzt. Um den Fachkollegen ein anschauliches Beispiel für die Nutzung der erfassten Daten zu geben, wurden Abfragen anhand einer Forschungsfrage visualisiert. Im Zentrum dabei standen die Fundorte und Weihedaten der Artefakte in Tikal: Welche Schriftträger befinden sich auf der Hauptplaza? Wann wurden sie eingeweiht und welcher Herrscher hat dies in Auftrag gegeben?

Zur Visualisierung der Artefakte auf einer Karte wurde der Geo-Browser des Projektes DARIAH-DE genutzt. Dafür mussten die Geokoordinaten der Artefaktfundorte vorhanden sein. Aus den Daten wird eine CSV-Datei generiert und an den Geo-Browser geschickt. Dieser stellt die Daten auf einer Karte dar und ermöglicht es, die Weihechronologie der Artefakte entlang einer Zeitlinie zu animieren.

Für diese Forschungsfrage mussten Artefakte, Orte (hierarchisch, entlang einer archäologischen Ordnung), Produktions- und Entdeckungsereignisse und die epigraphischen Akteure abgefragt werden und als Ergebnis sortiert ausgegeben werden. Durch die Verbindung innerhalb des Schemas konnten diese mittels einer SPARQL-Abfrage abgefragt werden. Abbildung 10 zeigt eine schematische Darstellung dieser Abfrage und der zugehörigen Objekte.

Abbildung 13: Schematische Darstellung der SPARQL-Abfrage und die Verknüpfung der Objekte in RDF

Abbildung 14: Ergebnisdarstellung einer SPARQL-Abfrage für die Forschungsfrage der Stadt Tikal. Das Ergebnis zeigt die Artefakte der nördlichen Terrasse.

Triplestore

Die Tests des Triplestores Blazegraph, für dessen Verwendung sich letztes Jahr entschieden wurde, zeigten Inkompatibilität mit der zugrundeliegenden Anwendung TG-forms, welche den generischen Ausgangspunkt bildet, um die Formulare und Felder für die Metadatenerfassung zu generieren. Dies beinhaltet auch die Kommunikation mit einem Triplestore. TG-forms muss an die spezifischen Bedürfnisse jedes Projekts angepasst werden. Um die Integration von Blazegraph zu ermöglichen, wären jedoch tiefgreifende Änderungen nötig gewesen, welche ohne eine weitere Zusammenarbeit mit anderen Projekten, die TG-forms nutzen, nicht umgesetzt werden konnten. Der Vorteil von Blazegraph ist die Parallelisierbarkeit mehrerer Instanzen. Da dieses Projekt jedoch über ein servergesteuertes Backup verfügt und die Anforderung an eine so hohe Performanz nicht hat, wurde der größere Nutzen in der Austauschbarkeit von Quellcode und damit Funktionalitäten gesehen. Aufgrund dessen wurde sich für die Verwendung des Triplestores Fuseki31)https://jena.apache.org/documentation/serving_data/ entschieden.

____________________________________
Bonn und Göttingen, 1. März 2016
i.A. Dr. Christian Prager

Footnotes   [ + ]

1. http://www.sub.uni-goettingen.de/
2. https://textgrid.de/
3. http://www.cidoc-crm.org/
4. https://www.w3.org/standards/semanticweb/data
5. https://www.w3.org/RDF/
6. https://www.w3.org/TR/rdf-sparql-query/
7. https://www.w3.org/2004/02/skos/
8. https://de.dariah.eu/
9. https://www.dainst.org/
10. http://www.adwmainz.de/projekte/altaegyptische-kursivschriften/informationen.html
11. Der Inhalt dieses Abschnitts ist ein Auszug von der Website des Herstellers: http://aicon3d.de/produkte/breuckmann-scanner/smartscan/auf-einen-blick/funktionsprinzip.html.
12. https://sketchfab.com/
13. http://www.getty.edu/research/tools/vocabularies/tgn/index.html
14. http://www.getty.edu/research/tools/vocabularies/ulan/index.html
15. http://digitale-sammlungen.ulb.uni-bonn.de/
16. http://www.semantics.de/
17. https://www.hbz-nrw.de/
18. https://www.openarchives.org/
19. http://www.loc.gov/standards/mets/
20. http://www.loc.gov/standards/mods/
21. http://mayawoerterbuch.de
22. https://www.gwdg.de/de
23. https://de.wordpress.org/plugins/magic-fields/
24. https://www.facebook.com/idiom.project/
25. https://twitter.com/idiom_project/
26. https://sketchfab.com/idiom-project/
27. https://trac.nbic.nl/skosvocabularyeditor/
28. https://www.w3.org/TR/turtle/
29. TextGrid-Anwendung zur Generierung von Formularen für die Metadatenerfassung
30. RDF-Reifications sind Aussagen über Aussagen. Also eine zusätzliche Information über ein erstelltes Triple. Dies geht über die eigentlichen Eigeschaften von RDF hinaus. Der Umgang mit diesen ist umständlich und häufig unübersichtlich. Aus diesem Grund wurde im Projekt versucht, diese zu umgehen, falls es möglich ist.
31. https://jena.apache.org/documentation/serving_data/

The Logogram JALAM

Research Note 3

DOI: http://dx.doi.org/10.20376/IDIOM-23665556.16.rn003.en

Nikolai Grube1

1 Rheinische Friedrich-Wilhelms-Universität, Bonn

Several logographic signs in Maya hieroglyphic writing resist decipherment because they occur only in a few contexts that are semantically very limited. One of these idiosyncratic logograms is the sign which is listed as T284 in the Thompson catalogue (1962) and as 2M2 in the sign catalogue of Macri and Looper (2003). The sign consists of two circular elements (Figure 1). The left circular element has an indented shaded area, and the other is the main sign of the day sign Ben “Reed” (T584).

Figure 1. T284 in the Thompson Catalogue (Drawing by Eric Thompson)

The distribution of the logogram is extremely limited. It appears only as part of the common female name “Lady Six Sky”. Under normal circumstances, a sign with such a limited appearance in the corpus of Maya texts could not be “cracked”. However, in the case of this sign, a series of syllabic spellings provides the key to its unequivocal decipherment.

The name “Lady Six Sky” is used by various important Maya women from the Late Classic period. Certainly the most important female to bear this name was “Lady Six Sky” of Naranjo, who took over the throne of Naranjo during a period of dynastic crisis (Figure 2). She was the daughter of King Balaj Chan K’awiil of Dos Pilas and gave birth to K’ahk’ Tiliw Chan Chahk, who became one of the greatest kings of Naranjo (Martin & Grube 2008: 74).

b
a c

Figure 2. Various examples of the name of “Lady Six Sky” from Naranjo. a) Stela 24, front; b) Stela 24, right side; c) Stela 29, back (Drawings by Nikolai Grube)

Another lady with the same name was “Lady Six Sky” of La Corona (Figure 3). Her personal name was Lady Chak Tok Chahk, and she was the wife of Chakaw Nahb Chan and mother of two sons, K’inich ? Yook and Chak Ak’ach Yuk (Stuart et al. 2014: 439).

a b
c d

Figure 3. Lady Six Sky of La Corona. a) Element 53 (Drawing by David Stuart); b) Panel 3 (Drawing by William Ringle); c) Panel 2 (Drawing by David Stuart); d) Hieroglyphic Stairway 3, Block 2 (Drawing by David Stuart)

At Yaxchilan, one of the wives of Bird Jaguar IV was “Lady Six Sky” from Motul de San José (Mathews 1997) (Figure 4). Finally, a lady from the site of La Florida, the ancient place of Namaan, also bore the name “Lady Six Sky”.

a b

Figure 4. Two names of Lady Six Sky from Motul de San José at Yaxchilan. a) Lintel 5, b) Lintel 41 (Drawings by Nikolai Grube)

The nominal phrases of each of these women consist of several glyph blocks, which seem to refer to their personal name, and the hieroglyph “Lady Six Sky”. A close inspection of this latter name shows that it always includes the female prefix IX(IK), the number coefficient WAK “six”, the glyph CHAN-na “sky”, on top of which appears the small T284 sign discussed here. The key to the reading of this rare sign is a full phonetic substitution in the nominal phrase of “Lady Six Sky” from Motul de San José on Yaxchilan Lintel 41 (Figure 4b). Here, the T284 sign is replaced by the syllables ja-la-ma. Given that this is a direct substitution, the logogram represented by T284 must read JALAM.

Further confirmation that jalam is indeed the intended spelling is found in two other female names (Figure 5). On Oxpemul Stela 5, there is another Lady Wak Chan (Figure 6). Her name appears in a parentage statement introduced by the phrase u-B’AAH-hi u-JUN-TAHN-na, “he is the beloved one of”, followed by the still undeciphered “vase title” that introduces female names. The main part of the female name is written IXIK-WAK ja-la-mi CHAN-na. In this example, the syllabic spelling appears in exactly the same position as the sign T284 in other instances of the name, providing independent confirmation for the JALAM reading. Finally, the title ja-la-ma also appears without the wak chan elements on a ceramic from Río Azul (Kerr 1383, Figure 7).

Figure 5. A Lady Six Sky on a Plate in Brussels (Drawing by Sebastien Matteo)

Figure 6. IXIK WAK ja-la-mi CHAN-na on Oxpemul Stela 5 (Drawing by Nikolai Grube)

Figure 7. Lady ja-la-ma on Kerr 1383 (Photo by Justin Kerr)

Although we can be very confident about the linguistic decipherment of the logogram, its semantic interpretation is problematic. The position of the sign between a number and a noun could be that of a numeral classifier. However, I have not been able to find any classifier which could be related to the jalam reading in the relevant dictionaries. At the moment, the most plausible interpretation of the word jalam is that it consists of the root jal “weave” and a suffix –am.

The transitive verb root jal for “to weave sth.” is found in all Mayan languages except in those belonging to the Yukatekan and K’ichean branches (Table 1).

pCh jäl weave (Kaufman & Norman 1984)
CHL jal tejer (red, hamaca, moral, costal) (Aulie & de Aulie 1978)
CHN jäle’ tejer (hamaca, red) (Keller & Luciano 1997)
CHT hal tejer (Moran 1695)
CHR har weaving, braiding, netting, weaving technic (Wisdom 1950)
TZE ghalauon tejer (de Ara 1986)
TZE ghalom tejedor (de Ara 1986)
TZE jalab tejer (Slocum & Gerdel 1971)
TZO jal interweave, weave (Laughlin 1988)

Table 1. Linguistic evidence for jal.

The suffix –am, on the other hand, is not easy to explain. In lowland Mayan languages, words ending with –am include chilam “translator”, k’inam “strength, pain”, atz’am “salt”, chikam “jicama”, lakam, “banner”; and several animal names, such as bahlam “jaguar”, kitam “peccary”, and kusam “golondrina/swallow”. At Chichen Itza, we find the word k’ayam as part of a female name. A spelling cha-la-ma is also known from a panel from the Palenque region (Mayer 1980: pl. 65). It is possible that –am functions as a suffix for a certain class of (derived) nouns. Another possibility is to interpret –am as a realization of the -Vm suffix that derives agentive nouns from verbs. The most common shape is –oom, such as in kayoom “fisherman” (lit. ‘person who will fish’), k’ayoom “singer”, yuhknoom “shaker”, kohknoom “guardian”, and perhaps also ch’ahoom (of unknown translation).

If this identification is correct, jalam would translate as “weaver”, a title which would be very appropriate for royal women. Weaving was a gendered activity and one of the principal tasks of elite women. At many Maya sites, the distribution of spindle whorls can be used as evidence to detect female space and labor in elite households. Several sets of looted weaving bones from sites such as Naranjo and Dzibilchaltun that are inscribed with a queen’s name suggest that even royal women of the highest status claimed to be weavers (Houston & Stuart 2001).
Weaving was also an activity closely associated with the moon goddess. In the Mopan myth of the Sun, Moon and Venus recorded by Thompson in San Antonio, Toledo, the Moon Goddess lived with her grandfather and spent much time weaving before she became the wife of the Sun (Thompson 1930: 119-140). In the Postclassic Codices, Goddess I, who is the young Moon Goddess, bears a name that includes a female head and a prefix SAK. Thompson (1972: 47) already noted that this colour prefix may refer not only to the paleness of the moon, but also to the root sakal, which means “to weave” in Yukatekan languages.

The jalam title is always used in connection with the “six sky” expression. The examples from Oxpemul and Yaxchilan show that JALAM should be read between the number six (WAK) and the sky sign (CHAN). Assuming that the “weaver” translation is correct, this order results in the sequence wak jalam chan “six weaver sky”. The names from La Corona and Yaxchilan have AJAW attached as the last element, so that the full name must have been ixik wak jalam chan ajaw, “Queen Six Sky Weaver”, or “Lady Six Weaver Sky Queen”.

The “six sky” expression without the JALAM sign is a common epithet for the Maize God, as well as for a particular celestial location. A wak chan ajaw Maize God is credited on Quirigua Stela C with the completion of the thirteenth Bak’tun at 4 Ajaw 8 Kumk’u. On the offering vessel MT 140 from Tikal’s Central Acropolis, a wak chan winik glyph labels the image of the tonsured Maize God. Wak chan also seems to refer to a specific celestial places. The Temple of the Cross at Palenque may be a particular manifestation of this location, modified by the sign T170.

Places with the number six are associated with the dancing Maize God, in particular in “Holmul dancer” scenes (Tokovinine 2013: 115-123). In many of these scenes, the maize god is dressed in an outfit very similar to that of the Moon Goddess (Figure 8). Both display a wide belt adorned with the head of a shark with scroll pupils eyes, triangular teeth, and cheek barbels, and their lower jaw is replaced by a Spondylus shell. Another common feature is the beaded skirt, which tends to be longer when worn by women. These details of dress and accoutrements, as well as the association with wak chan or other “six places”, clearly establish the Moon Goddess and the Maize God as parallel beings. A possible explanation for this association could be that moon is regarded as having a very strong impact on vegetation periods and plant growth. As Karl Taube has noted, the moon and maize are also linked in contemporary Maya ethnography, where it is often reported that the moon is used to time the planting of crops (1992: 68).

a b

Figure 8. The Moon Goddess and the Maize God in similar dress a) The Maize God on the Buena Vista Vase (Drawing by Oswaldo Chinchilla) b) Lady Ook Ahiin on the “Yomop Stela” (Drawing by Nikolai Grube)

The JALAM sign, however, is a specific attribute of the Moon Goddess as the weaver, distinguishing her from the male Maize God by referencing this archetypical female activity. Historical women in Maya inscriptions apparently use this title to identify themselves with the Moon Goddess in the same way as Maya kings take the role and embody as the Maize God. The jalam title may even survive in a similar function in Bachajon Tzeltal, where jalame’tic is glossed in Spanish as “Virgen María” (Slocum and Gerdel 1971: 145).

Acknowledgements

I wish to thank Guido Krempel and Christian Prager for the comments and helpful insights.

References

Ara, Domingo de
1986 Vocabulario de lengua tzeldal según el orden de Copanabastla. Ed. Mario H. Ruz. Fuentes para el estudio de la cultura maya 4. Universidad Nacinal Autónoma de México, México, D.F.
Aulie, H. Wilbur, and Evelyn W. de Aulie
1978 Diccionario ch’ol-español, español-ch’ol. Serie de vocabularios y diccionarios indígenas Mariano Silva y Aceves 21. Instituto Linguistico de Verano, México, D.F.
Houston, Stephen D., and David Stuart
2001 Peopling the Classic Maya Court. In Royal Courts of the Ancient Maya, edited by T. Inomata and Stephen D. Houston, pp. 54-83. Westview Press, Boulder, CO.
Kaufman, Terence, and William Norman
1984 An Outline of Proto-Cholan Phonology, Morphology and Vocabulary. In Phoneticism in Mayan Hieroglyphic Writing, edited by John S. Justeson and Lyle Campbell, pp. 77–166. Institute for Mesoamerican Studies, State University of New York Publication 9. Institute for Mesoamerican Studies, Albany, NY.
Keller, Kathryn, and Plácido Luciano
1997 Diccionario chontal de Tabasco (mayense). Serie de vocabularios y diccionarios indígenas Mariano Silva y Aceves 36. Summer Institute of Linguistics, Tucson, AZ.
Laughlin, Robert M.
1975 The Great Tzotzil Dictionary of Santo Domingo Zinacantán. Smithsonian Contributions to Anthropology 31. Smithsonian Institution Press, Washington, D.C.
Macri, Martha J., and Matthew G. Looper
2003 The New Catalog of Maya Hieroglyphs: The Classic Period Inscriptions. Civilization of the American Indian Series 247. University of Oklahoma Press, Norman, OK.
Martin, Simon, and Nikolai Grube
2008 Chronicle of the Maya Kings and Queens: Deciphering the Dynasties of the Ancient Maya. Thames & Hudson, London.
Mathews, Peter
1997 La escultura de Yaxchilan. Instituto Naciona de Antropología e Historia, México, D.F.
Mayer, Karl Herbert
1980 Maya Monuments: Sculptures of Unknown Provenance in the United States. Acoma Books, Ramona, CA.
Morán, Francisco
1695 Arte en lengua Choltí, que quiere decir lengua de milperos. Photographic copy, Latin American Library, Tulane University, New Orleans. Facsimile edition by William Gates (1935).
Slocum, Marianna C. and Florencia L. Gerdel
1971 Vocabulario Tzeltal de Bachajon. Serie de vocabularies y diccionarios indígenas “Mariano Silva y Aceves” Número 13. Instituto Lingüístico de Verano, México, D.F.
Stuart, David, Peter Mathews, Marcello A. Canuto, Tomás Barrientos Q., Stanley P. Guenter, and Joanne Baron
2014 Un Esquema de la Historia y Epigrafía de La Corona. In XXVII Simposio de Investigaciones Arqueológiacas en Guatemala, edited by Bárbara Arroyo, Luis Méndez Salinas, and Andrea Rojas. Ministerio de Cultura y Deportes, Instituto de Antropología e Historia, Asociación Tikal, Guatemala.
Taube, Karl A.
1992 The Major Gods of Ancient Yucatan. Studies in Pre-Columbian Art and Archaeology 32. Dumbarton Oaks Research Library and Collection, Washington, D.C.
Thompson, J. Eric S.
1930 Ethnology of the Mayas of Southern and Central British Honduras. Ed. Berthold Laufer. Anthropological Series 17(2): 25–213. Field Museum of Natural History, Publication 274.
1962 A Catalog of Maya Hieroglyphs. The Civilization of the American Indian Series 62. University of Oklahoma Press, Norman, OK.
1972 A Commentary on the Dresden Codex: A Maya Hieroglyphic Book. Memoirs of The American Philosophical Society 93. American Philosophical Society, Philadelphia, PA.
Tokovinine, Alexandre
2013 Place and Identity in Classic Maya Narratives. Studies in Pre-Columbian Art and Archaeology 37. Dumbarton Oaks Research Library and Collection, Washington, D.C.
Wisdom, Charles
1950 Materials on the Chorti Language. Microfilm Collection of Manuscripts on Middle American Cultural Anthropology 28. University of Chicago, Chicago, IL.

Jahresabschlussbericht 2014

Project Report 2

DOI: http://dx.doi.org/10.20376/IDIOM-23665556.14.pr002.de

Nikolai Grube1, Christian Prager1, Katja Diederichs1, Sven Gronemeyer1,2, Elisabeth Wagner1, Maximilian Brodhun3, Franziska Diehr3 & Petra Maier4

1 Rheinische Friedrich-Wilhelms-Universität, Bonn
2 La Trobe University, Melbourne
3 Niedersächsische Staats- und Universitätsbibliothek, Göttingen
4 ULB Heinrich-Heine-Universität, Düsseldorf

Projektbeschreibung, Zielsetzung und Methoden

Die nur teilweise entzifferte Hieroglyphenschrift und Sprache der Mayakultur steht im Mittelpunkt des hier zur Diskussion stehenden Forschungsprojekts, das in Kooperation zwischen den Universitäten Bonn und Göttingen durchgeführt wird. Ziel ist die Erstellung einer Textdatenbank und ein darauf basierendes Wörterbuch des Klassischen Maya (Blütezeit von 250 bis 950 n. Chr.). Aus dieser Zeit sind rund zehntausend Text- und Bildträger überliefert, die mit ihren schriftlichen und bildlichen Informationen einzigartige Perspektiven auf Sprache, Kultur und Geschichte dieser vorspanischen Gesellschaft aufzeigen. Bis heute fehlen allerdings eine systematische Dokumentation und eine umfassende Analyse der Bild- und Textträger, die eine eingehende und präzise Untersuchung der Klassischen Schriftsprache erlauben, indem etwa Textpassagen mit Hilfe einer Kotext- und Kookkurrenzanalyse verglichen werden, Bildinhalte mit Textpassagen korreliert oder die Beschaffenheit oder Funktion eines Textträger in der Inschrift erfasst und damit unklare Textpassagen möglicherweise verständlich werden. Bislang war ein derartig systematisches und vernetztes Arbeiten mit Text, Bild und Informationsträgern nicht möglich, da die dafür notwendige Technologie in diesem Fach noch nicht existierte. Im Rahmen des Projekts werden die Text- und Bildträger systematisch und nach einheitlichen Standards beschrieben, das Ausgangsmaterial auf der Basis von XML maschinenlesbar gemacht und auf diese Weise die Grundlagen für die Kompilation des Wörterbuchs geschaffen. Dieses Unterfangen kann nur mit Methoden und Technologien aus den digitalen Geisteswissenschaften in Angriff genommen werden, wobei das Projekt auf Tools und Technologien zurückgreift, die in der Virtuellen Forschungsumgebung (Virtual Research Environment, VRE) TextGrid bereits vorhanden sind bzw. im Rahmen des Projektes entwickelt und implementiert werden. Wesentliche Voraussetzung ist dabei, dass nicht nur der sprachliche Inhalt der Inschriften und die ikonischen Informationen der Bilddarstellungen, sondern auch Daten über den Inschriften- und Bildträger (Beschreibungs- oder Metadaten) berücksichtigt und in einer Datenbank angelegt werden. Zu diesem Zweck werden in TextGrid Tools und Workflows entwickelt, welche I. die Dokumentation der Schrift- und Bildträger mit Aufarbeitung des Forschungsstandes, II. die epigraphisch-linguistische Auswertung der Hieroglyphentexte sowie III. die Edition der Texte mit Transliteration, Transkription und Übersetzung in einem einzigen System ermöglichen. Die VRE enthält nicht nur Beschreibungen der Textträger oder Informationen über die Texte, sondern der Datenbanknutzer bekommt mit Hilfe der Literaturdatenbank auch einen Überblick darüber, welche Autoren sich mit einem Monument befasst oder es publiziert haben, eine Textpassage diskutiert oder erstmals eine bis heute gültige sprachliche Lesung einer Hieroglyphe präsentiert haben. Der Textträger erhält dadurch eine ‚Biographie‘, die eng mit den Textinhalten verwoben ist und bei der Bedeutungsanalyse von Wörtern berücksichtigt wird. Die derzeit im Aufbau befindliche virtuelle Arbeitsumgebung orientiert sich stark am epigraphischen Workflow, der mit der Dokumentation der Textträger und der Erfassung von Beschreibungsdaten beginnt, sich in der epigraphischen Analyse mit der Zeichenklassifikation, Transliteration und Transkription der Texte fortsetzt, mit der morphologischen Segmentierung und linguistischen Interpretation weitergeht und optimaler Weise mit der Übersetzung und Publikation einer Inschrift endet.

Projektbeginn und Aufnahme der Tätigkeit

Projektbeginn war der 1. Januar 2014. Im Zeitraum bis zur Einstellung der beiden Fachwissenschaftler Dr. Christian Prager und Elisabeth Wagner, M.A. am 01.03.2014 bzw. 03.03.2014 sowie zwei Hilfskräften wurde das Projekt an der Universität Bonn vertraglich und administrativ etabliert (Universität Bonn Projektnummer: 98050020) und die Kooperation zwischen Universität Bonn und der Staats- und Universitätsbibliothek Göttingen (SUB) in die Wege geleitet. Hierzu wurde ein Weiterleitungsvertrag zwischen der Universität Bonn und der SUB abgeschlossen, der bis in das erste Quartal 2017 den Mittelabfluss von Bonn nach Göttingen für die Finanzierung der zwei Mitarbeiterstellen (150%) an der Niedersächsischen Staats- und Universitätsbibliothek Göttingen reguliert. Die Bonner Informatikerstelle und die Metadaten- sowie Entwicklerstellen in Göttingen wurden im ersten Quartal 2014 ausgeschrieben und Anfang Mai und Juni 2014 mit Katja Diederichs in Bonn, Franziska Diehr und Maximilian Brodhun (beide Göttingen) besetzt. Als weiterer Fachwissenschaftler wurde am 01.05.2014 Sven Gronemeyer, M.A. eingestellt. Die im 1. Arbeitspaket (siehe Antrag) festgelegte Konzeption des Metadatenschemas sowie die Entwicklung und Programmierung der virtuellen epigraphischen Forschungsumgebung in TextGrid wurden somit ab dem zweiten Halbjahr in Angriff genommen. Die Fortschritte im Projekt und der vorliegende Arbeitsbericht sind vor diesem Hintergrund zu evaluieren.

Mitglieder der Arbeitsstelle, Aufgaben und Kommunikation im Projekt

Per dato sind 14 Personen im Projekt unter Vertrag. Die drei Fachwissenschaftler Dr. Christian Prager (Projektkoordination), Elisabeth Wagner, M.A. und Sven Gronemeyer, M.A. sind als Experten für Mayaschrift, -sprache und -ikonologie und Katja Diederichs ist für den informationswissenschaftlichen Bereich an der Bonner Arbeitsstelle tätig. Letztere koordiniert die Zusammenarbeit zwischen dem Projekt und der ULB bezüglich der Präsentationsplattform Visual Library, wo ab 2016 ein virtuelles Inschriftenarchiv online gestellt wird. Bei der SUB kümmert sich Franziska Diehr um die Konzeption des Metadatenschemas auf der Basis der fachwissenschaftlichen Vorgaben aus Bonn; Maximilian Brodhun entwickelt, programmiert und implementiert auf Grundlage von Franziska Diehrs Metadatenschema den epigraphischen Workflow mit dem Arbeitstitel “Text-Dokumentation · Text-Analyse · Text-Edition” in der virtuellen Forschungsumgebung TextGrid. Unterstützt werden die Fachwissenschaftler in Bonn durch die Hilfskräfte Christiane Bahr (Digitalisierung), Laura Burzywoda (Digitalisierung), Antje Grothe (Bibliographie), Lena Heise (Digitalisierung), Leonie Heine (Digitalisierung), Jana Karsch (Epigraphik, Digitalisierung) Nikolai Kiel (Epigraphik, Digitalisierung), Mallory Matsumoto (Linguistik, Digitalisierung).

Mit dem Projekt assoziiert sind der eHumanities Mitarbeiter der ULB, Jan Kenter, der zusammen mit Katja Diederichs die Kooperation zwischen der ULB und dem Projekt organisiert, die Bibliothekarin Petra Maier von der Universitäts- und Landesbibliothek Düsseldorf, die als freie Mitarbeiterin im Projekt unter der Vermittlung von Dr. Heike Neuroth (SUB) eine Studie über die Anwendung von XML zur Auszeichnung von Maya-Texten angefertigt hat und in diesem Bericht einen Gastbeitrag eingebracht hat. Seit November 2014 steht auch Dr. Thomas Kollatz vom Salomon Ludwig Steinheim-Institut in Essen als Experte für die XML-basierten Auszeichnungsstandards TEI und Epidoc dem Projekt als Ansprechpartner zur Seite.

Die schriftliche Kommunikation zwischen Bonn und Göttingen erfolgt über ein nicht-öffentliches Wiki der Kollaborationssoftware Confluence, welches in die Forschungsinfrastruktur DARIAH-DE eingebunden ist, worüber alle beteiligten Wissenschaftler über das Metadatenschema, die kontrollierten Vokabulare, Normdaten, epigraphische Normen und Standards u.v.m. diskutieren und Daten austauschen. Das Wiki enthält die vollständige Projektdokumentation mit den bisher aggregierten technischen und fachwissenschaftlichen Inhalten, die als Referenzmaterial langfristig verfügbar sein müssen. Es handelt sich um Dokumente zur Projektorganisation, zu den verschiedenen Arbeitsbereichen sowie Materialien, die dort abgelegt und von den Mitarbeitern abgerufen und gemeinsam bearbeitet werden. Dokumente wie etwa Vorträge, Präsentationen oder Arbeitslisten werden in einem Cloudspeicher abgelegt und können auf diese Weise kollaborativ bearbeitet werden.

Mündliche Kommunikation ist zentral für die Projektarbeit: In wöchentlichen Telefonkonferenzen erörtern die Projektbeteiligten dringende und kurzfristige Aufgaben und Arbeiten, die dann dort besprochen werden. Bei den monatlichen Projekttreffen in Bonn und Göttingen werden mittelfristige Meilensteine und Zielsetzungen festgelegt und die Arbeiten für den kommenden Monat geplant. Das 1. Projekttreffen mit allen beteiligten Akteuren fand am 14.1.2014 in Bonn statt und diente als Abstimmung zwischen den Projektpartnern. Am 19. und 20.5.2014 leiteten die Bonner Fachwissenschaftler einen Workshop zu Mayaschrift und -kalender in Göttingen. Auf diese Weise konnten sich die Mitarbeiter an der SUB mit der Materie vertraut machen. Am 19.6.2014 fand das erste Treffen zum Thema Metadaten und Vokabulare in Bonn statt. Die Entwicklung der virtuellen Forschungsumgebung war im Fokus des Meetings am 28.8.2014 und bei zwei weiteren Projekttreffen am 15.10.2014 sowie am 27.11.2014 wurde das Metadatenschema behandelt. Das für den 10.12.2014 angesetzte Treffen zwischen ULB, SUB und der Bonner Arbeitsstelle thematisiert den Import und die Präsentation der epigraphischen Forschungdaten auf der Präsentationsplattform Visual Library bei der ULB.

Neben der Projektarbeit hat die berufliche Qualifikation der Mitarbeiter einen hohen Stellenwert. Um sich in den Bereich Digital Humanities einzuarbeiten, bildeten sich die Mitglieder der Bonner Arbeitsstelle im Jahr 2014 bei verschiedenen nationalen und internationalen Tagungen und Kursen weiter (Passau, Lausanne, London). Hier lag der Fokus besonders im Bereich Digital Humanities, wo Methoden der digitalen Geisteswissenschaften kennengelernt und angewendet wurden, insbesondere das Erlernen der Auszeichnungssprache XML stand im Vordergrund. Darüber hinaus informierten sich die Mitarbeiter bei den regelmäßigen TextGrid- Nutzertreffen über die Anwendung von TextGrid in den Geisteswissenschaften.

Workshops, Tagungen und Auftaktveranstaltung

2014 wurde das Projekt an fünf nationalen und internationalen Tagungen und Veranstaltungen dem Fachpublikum und der Öffentlichkeit vorgestellt. Vom 31.1. – 2.2.2014 stellten Nikolai Grube, Christian Prager und Elisabeth Wagner das Projekt im Rahmen der 17. Mesoamerikanistentagung in Basel einem Fachpublikum vor. Vorgestellt wurden dabei die Ziele und Aufgaben des Wörterbuchprojekts, und dessen technische Umsetzung. Am 4. und 5.6.2014 stellten die Mitglieder der Forschungsstelle das Projekt im Rahmen einer öffentlichen Ausstellung der Akademie der Wissenschaften im Düsseldorfer Landtag vor. Hierzu wurde im Vorfeld eine Ausstellungssäule mit Bild- und Textmaterial entworfen. Beim Tag des offenen Denkmals am 14. September konnten die Mitarbeiter erneut das Projekt einer breiten Öffentlichkeit vorstellen. Kollegen und Fachleute konnten sich am 14. Oktober bei der Auftaktveranstaltung in Düsseldorf über das Projekt informieren. Im Rahmen des internationalen Workshops “Words in Context: Perspectives and Strategies for the Lexicography of Classic Mayan” im Karl-Arnold-Haus der Wissenschaften, Düsseldorf, stellten alle Mitarbeiter der Forschungsstelle in Bonn und aus Göttingen ihren jeweiligen Arbeitsschwerpunkt einem internationalen Fachpublikum vor. Kollegen aus den USA (David Stuart und Marc Zender), Australien (Peter Mathews) und Deutschland (Gordon Whittaker) wurden eingeladen, an diesem Workshop teilzunehmen und aktuelle Forschungsergebnisse vorzutragen. Bei einem anschließenden Workshop zu Standards und Konventionen bei der Transliteration, Transkription und Analyse der Mayatexte einigten sich die Forscher auf gemeinsame Normen und Standards, die im Projekt zur Anwendung kommen werden. Es ist geplant 2015 den Workshop zu wiederholen um über Fortschritte und Ergebnisse zu diskutieren. Zuletzt wurde das Projekt Fachleuten aus dem Bereich der Digital Humanities in Essen vorgestellt. Im Rahmen des 5. TextGrid-Nutzertreffens am 25. und 26.11.2014 stellten die Mitglieder der Forschungsstelle das Projekt Kollegen und Fachleuten aus den eHumanities vor. Für Februar 2015 ist geplant, dass Projekt international bei einer Digital Humanities Tagung in Graz vorzustellen, so dass hier weitere Kontakte zu anderen DH Projekten geknüpft werden können. Im Dezember 2015 tritt das das Akademieprojekt im Rahmen der 20. Europäischen Mayakonferenz als Mitorganisator einer Tagung zu digitalen Methoden in der Mayaforschung auf.

Wissenschaftlicher Beirat und Kooperationen

Im Rahmen unseres Workshop zu Mayaschrift am 14. Oktober konnten wir renommierte internationale Forscher als wissenschaftliche Beiräte unseres Projektes gewinnen: Prof. Dr. David Stuart (Austin), Dr. Marc Zender (New Orleans), Prof. Dr. Peter Mathews (Melbourne) und Prof. Dr. Gordon Whittaker (Göttingen). Es ist geplant, dass sich der Beirat im kommenden Jahr im Rahmen der 20. Europäischen Mayakonferenz in Bonn trifft, wo die Arbeitsstelle ein eigenes Panel zum Wörterbuchprojekt organisieren wird.

Aufgaben und laufende Arbeiten in Bonn

In dieser Sektion des Arbeitsberichts berichten die Mitglieder der Bonner Forschungsstelle über ihre Tätigkeiten und den Stand der Arbeit.

Textarchiv

In der Bonner Arbeitsstelle werden derzeit das Textarchiv und verschiedene Datensammlungen und Arbeitslisten erarbeitet bzw. zusammengestellt, die nicht nur zeitnah auf der Projektwebsite www.mayawoerterbuch.de veröffentlicht, sondern auch in die virtuelle Forschungsumgebung in TextGrid eingepflegt werden. Das in Aktenschränken und digital anzulegende Inschriftenarchiv befindet sich im Aufbau und wird Anfang 2015 eingerichtet. Sobald die notwendigen Räumlichkeiten im Frühjahr 2015 von der Universität Bonn zur Verfügung gestellt werden, wird das analoge Archiv in Aktenform angelegt. Eingegliedert in das Bonner Maya-Inschriftenarchiv wird Berthold Rieses Maya-Inschriftendokumentation, die 135 Aktenorder mit Fotografien, Zeichungen und Notizen umfasst und im Sommer 2014 der Arbeitsstelle übergeben wurden. Dessen Indexierung und Digitalisierung ist im Gang und wird Ende 2015 abgeschlossen sein. Das 40.000 Bilder umfassende Fotoarchiv von Karl Herbert Mayer (Graz) wird ebenfalls in den kommenden Jahren in das Inschriftenarchiv der Forschungsstelle eingearbeitet. Zu diesem Zweck wurde das Archiv vor Ort inspiziert und eine Bestandsaufnahme durchgeführt, die in einem Projektbericht zusammengefasst ist und auf der Projektwebsite als Arbeitspapier (Working Note) veröffentlicht wird. Das Archiv von Karl Herbert Mayer setzt sich aus Diapositiven, Filmnegativen sowie Abzügen zusammen und wird sukzessive nach Bonn überführt, wo es von Hilfskräften indexiert, digitalisiert und archiviert wird. Sobald die Räumlichkeiten einzugsbereit sind, soll gleichzeitig mit der Anlage des analogen Inschriftenarchivs begonnen werden. Aufgrund der großen Datenmenge wird die Digitalisierung und Indexierung der Fotos mindestens bis Ende 2016 andauern. Das analoge und digitale Inschriftenarchiv der Arbeitsstelle wird nicht nur durch die eigenen Bestände des Projektleiters und der Mitarbeiter angereichert, sondern auch durch Schenkungen von Kollegen im In- und Ausland, die ihre Bildbestände für die Digitalisierung und open access Veröffentlichung zur Verfügung stellen werden. Als Präsentationsplattform dieser Daten dient die Digitale Sammlung der ULB, mit der diesbezüglich eine Kooperation vereinbart ist. Vorbereitungen zur Nutzung der Visual Library Software wurden in diesem Jahr mit allen Beteiligten erörtert und die detaillierte Auseinandersetzung beginnt im Laufe des Jahres 2015.

Fundstättenliste

Im direkten Zusammenhang mit der Anlage des Inschriftenarchivs begannen Christian Prager und eine Hilfskraft ein Inventar sämtlicher Inschriften- und Bildträger zusammenzustellen. Grundlage hierzu ist eine Fundstättenliste, die derzeit 515 Einträge mit Angaben zum Fundort (Koordinaten, Bibliographie, usw.) umfasst. Hierzu wurden und werden alle einschlägigen Publikationen, Datenbanken und Webseiten von Sammlungen, Museen und anderen Forschungseinrichtungen systematisch bearbeitet und nach Inschriftenträgern der Mayakultur durchsucht um auf dieser Grundlage eine Übersicht über sämtliche publizierten oder dokumentierten Inschriften mit entsprechenden Metadaten (wie etwa Fundort, Abmessungen oder Literaturangaben) zu erhalten. Die Arbeit ist noch im Gange und wird Mitte 2015 soweit abgeschlossen sein, dass sie sämtliche publizierten und dokumentierten Inschriftenträger enthalten wird. Fundort- und Inschriftenliste bilden die Grundlage einer Datensammlung, die nicht nur in die virtuelle Forschungsumgebung eingepflegt, sondern auch über die Webpräsenz mit Hilfe einer SQL-Datenbank veröffentlicht wird. Beide Listen werden ständig gepflegt und sollen über die Onlinepräsenz Fachkollegen und Interessierten zur Verfügung stehen. Die datenbanktechnischen Grundlagen dazu wurden von Sven Gronemeyer vorbereitet und mit Hilfe eines externen Programmierers umgesetzt (siehe unten). Die Arbeiten zum Inventar und zur Datenbank sind noch nicht abgeschlossen. Grundlegend für diese dokumentatorische Arbeit war die Entwicklung eines detaillierten Metadaten- oder Beschreibungsschemas der Inschriftenträger auf der Basis bisheriger Dokumentationen in unserem Fachbereich, das bereits in Grundzügen im Forschungsantrag festgelegt wurde und die Basis für die Arbeit der Metadatenspezialistin Franziska Diehr (SUB) bildet. Details dazu und Stand der Bearbeitung finden sich im Abschnitt über das Metadatenschema.

Literatur

Bisherige Forschungsergebnisse müssen in der virtuellen Forschungsumgebung abgebildet werden und sollen mit Hilfe einer Literaturdatenbank eingebunden werden. Ziel ist es, für jeden Textträger eine Objektbeschreibung und -biographie zu erstellen. Nutzer der Textdatenbank können dadurch Informationen zum jeweiligen Kontext einer Inschrift abrufen. Die virtuelle Arbeitsumgebung enthält daher nicht nur Beschreibungen über die Textträger oder Informationen über den Inhalt der Texte, sondern der Datenbanknutzer bekommt mit Hilfe der Literaturdatenbank auch einen Überblick darüber, welche Autoren sich mit einem Monument befasst oder es publiziert haben, eine Textpassage diskutiert oder erstmals eine bis heute gültige sprachliche Lesung einer Hieroglyphe bzw. eines Zeichens der Öffentlichkeit präsentiert haben. Der Textträger erhält dadurch eine Biographie, die eng mit dem Textinhalten verwoben ist und bei der Bedeutungsanalyse von Wörtern berücksichtigt werden muss. Die Bearbeitung der relevanten Fachliteratur ist daher ein zentraler Punkt, der mit Beginn des Projektes in Angriff genommen wurde. Ziel ist es, grundsätzlich den gesamten Literaturbestand vor Ort für die Anlage des Inschriftenarchivs und die Auszeichnung der Metadaten zu durchsuchen und darauf in der virtuellen Forschungsumgebung sowie auf der Internetpräsenz des Projektes zu verweisen. Für die Erfassung der Literatur wird die freie und quelloffene Anwendung Zotero verwendet um unterschiedliche Online- und Offlinequellen zu sammeln, zu verwalten und zu zitieren. Die Anwendung unterstützt die Bearbeitung und Edition von Literaturangaben und Literaturlisten und erlaubt kollaboratives Arbeiten an unterschiedlichen Standorten. Über eine API können Literaturdaten direkt auf die Website eingespielt werden, so dass über die Onlinepräsenz Literatur gesucht, dargestellt und heruntergeladen werden kann. Ziel ist es, eine vollständige Literaturdatenbank zu Mayakultur aufzubauen, die in die virtuelle Forschungsumgebung bei TextGrid eingespielt und dann mit den Datensätzen verknüpft werden kann. Derzeit wird die Literatur bis 1960 eingearbeitet; Grundlage ist die Bibliographie zur Archäologie, Linguistik und Anthropologie Mesoamerikas von Ignacio Bernal mit über 10.000 Literaturstellen. Jeder Eintrag wird mit Hilfe von Datenbanken und der Originalliteratur auf Vollständigkeit und Richtigkeit überprüft und – wenn vorhanden – mit einer URL verknüpft, wodurch auf eine Onlineversion der entsprechenden Monographie oder Artikels zugegriffen werden kann. Bis dato sind 4.836 Datensätze erfasst und sobald die Einarbeitung von Bernals Bibliographie beendet ist, folgt die Bearbeitung weiterer Fachbibliographien, von Websites u.v.m. Für das Projekt wurde in Kooperation mit der Universitäts- und Landesbibliothek für zwei Jahre die bibliographische Datenbank “Anthropology Plus” erworben, mit deren Hilfe die Datensätze überprüft und weitere Literatur erfasst und eingepflegt werden kann. Die Kosten hierfür teilen sich die Arbeitsstelle und die ULB. Wir rechnen mit einem Bestand von insgesamt 30.000 – 40.000 thematisch markierten Datensätzen (tags), auf die später verwiesen werden kann. Der Datenbestand kann über die Projektwebsite www.mayawoerterbuch.de nach bibliothekarischen Standards recherchiert und open access heruntergeladen werden. Zu diesem Zweck entwickeln derzeit zwei externe Programmierer eine Zotero API, die bis Jahresende fertig gestellt wird, so dass die Literaturdatenbank im Laufe des kommenden Jahres online gestellt und recherchierbar sein wird (siehe Abschnitt über Onlinepräsenz).

Grapheminventar und -konkordanz

Für die epigraphische Arbeit im Projekt werden derzeit verschiedene Arbeitslisten, Diskussionspapiere und Daten zusammengetragen, die im Laufe des Projekts in die virtuelle Forschungsumgebung eingepflegt und über die Projektwebsite direkt abrufbar sein werden. Ein Projekt ist die Erstellung einer Konkordanz sämtlicher Zeichenklassifikationen, die seit 1931 publiziert wurden. Ziel ist es, auf dieser Grundlage einen vollständigen Zeichenkatalog der Mayaschrift zu entwickeln, der die bisherigen Kataloge integriert und als Onlineversion jederzeit revidiert und modifiziert werden kann. Zu diesem Zweck wurden in den vergangenen Monaten sämtliche Einzelzeichen aus den bisher bekannten Katalogen als Einzeldateien extrahiert und in einer tabellarischen Übersicht mit ihrer jeweiligen Katalognummer zusammengestellt. Mit Hilfe dieser Übersicht lassen sich die Kataloge besser vergleichen und darauf aufbauend ein aktualisierter Zeichenkatalog entwickeln, der die Unzulänglichkeiten der bisher bekannten Klassifikationen korrigiert. Neben der Zeichenklassifikation dient die Tabelle auch als Hauptreferenz für die sprachliche Lesung. In der Tabelle wird festgehalten, wie die phonetische bzw. logographische Lesung des Zeichens lautet, der Grad der jeweiligen Lesungssicherheit angegeben, die Herleitung sowie eine Quellenangabe. Die Liste wird in Teamsitzungen besprochen und kritisch diskutiert. Die Inhalte der Tabelle sind Normdaten und werden in einem Gazetteer gespeichert. Auf diese Weise wird sichergestellt, dass alle Projektmitarbeiter bei der Bearbeitung der Texte dieselbe Lesung eines Zeichens verwenden. Die fast zweihundertseitige Tabelle mit über 10.000 Einträgen wird derzeit bearbeitet und online gestellt, sobald die dafür notwendige Datenbankstruktur für WordPress programmiert und eingerichtet ist. Dies soll im ersten Quartal 2015 erfolgen.

Linguistik

Standardisierungen und Normierungen sind auch im Bereich der Maya-Linguistik dringend notwendig um auf gemeinsame Forschung zu betreiben. Derzeit wird ein Inventar gebundener, grammatikalischer Morpheme mit deren Funktion und Bedeutung erstellt. Es fasst den aktuellen Forschungsstand aller bisher bekannten grammatischen Elemente des Klassischen Maya mit Quellenangabe zusammen und bildet die Grundlage für die weitere Forschung in diesem Bereich. Die Liste wird ebenfalls im ersten Quartal 2015 online verfügbar sein, so dass eine öffentliche Diskussion über Morpheme stattfinden kann. Die Auszeichnung und Benennung von gebundenen ebenso wie lexikalischen Morphemen erfolgt bei der Glossierung, wobei in der Mayalinguistik bisher noch keine einheitlichen Standards gelten (wie dies bereits im Forschungsantrag angesprochen wurde). Aus diesem Grund fand vom 4. bis 6.9.2014 an der Abteilung für Altamerikanistik der Universität Bonn der erste Workshop zu Glossierungsregeln und -standards in Mayasprachen statt. Der jährlich stattfindende Workshop ist eine gemeinsame Initiative der Forschungsprojekte „Textdatenbank und Wörterbuch des Klassischen Maya“ und „XML-basierte Erfassungsstandards für koloniale Lexikographien amerindischer Sprachen am Beispiel des K’iche'“ (jun. Prof. Frauke Sachse und PD Dr. Michael Dürr). Die Resultate dieses Workshops werden derzeit intern diskutiert und sollen als Working Paper “The Bonn Glossing Rules” auf der Webpräsenz des Forschungsprojektes veröffentlicht werden. Ebenfalls in Arbeit ist eine Konkordanz sämtlicher Wortlisten, die bisher zum Klassischen Maya zusammengestellt wurden (z.B. Boot, Mathews). Ziel ist, nicht nur den Forschungsstand in einer Übersicht zusammenzustellen, sondern auch die unterschiedlichen Transkriptionen des Klassischen Maya zu vergleichen und in die virtuelle Forschungsumgebung einzubinden.

Präsentation der Forschungsdaten in der Digitalen Bibliothek

Die von der Software-Firma Semantics erstellte Software Visual Library der ULB Bonn erhält üblicherweise Metadaten aus dem hbz-Verbundkatalog mittels einer OAI-Schnittstelle. Diese werden innerhalb des Visual Library Managers mit dem Digitalisat verbunden und in den Digitalen Sammlungen der ULB im WWW öffentlich zugänglich präsentiert. Für das Digitale Inschriftenarchiv stammen sowohl Metadaten als auch Digitalisate aus der TextGrid-Datenbank. Daher wurden vorbereitend mehrere mögliche Wege technisch konzipiert, auf denen die Daten abgebildet und in das Visual Library fließen sollen, wie zum Beispiel die Nutzung einer OAI-PMH-Schnittstelle zur Übermittlung öffentlicher Daten des Repositoriums. Auch die Nutzung der Publikationsarchitektur SADE, welche gefilterte Daten übertragen kann, die sowohl zur VL als auch zur projekteigenen Website fließen, wurden in Betracht gezogen. Ebenfalls wurde die Anwendung des SPARQL-Endpoints in TextGrid erwogen. In diesem Fall würden lediglich Daten übermittelt werden, zu denen im TextGrid-CRUD-Service die Zugänglichkeit als öffentlich definiert wird. Die Konzeption der dargestellten Lösungswege wurde insbesondere in verschiedenen Treffen mit den zuständigen Kollegen zwischen Katja Diederichs, Jan Kenter (ULB Bonn), Max Brodhun (SUB) und Vertretern von Semantics erarbeitet. In Zusammenarbeit mit der ULB und der Firma Semantics wird die Präsentation der Inschriften aufgrund gegebener Daten von TextGrid in den Digitalen Sammlungen der ULB umgesetzt werden. Die Umsetzung betrifft sowohl die technische Einrichtung der Inhaltspräsentation als auch die thematische Gliederung und Browsingstruktur. Ende 2015 werden die ersten Daten in den Digitalen Sammlungen der ULB abgebildet werden.

Onlinepräsentation und Social Media

Onlinepräsentation

Zur Präsentation des Projektes, seiner Fragestellungen, seiner Zielsetzungen und zur Verbreitung seiner Forschungsergebnisse wird eine Webpräsenz (www.mayawoerterbuch.de) eingerichtet. Während die Website primär an ein akademisches Publikum gerichtet ist, hat das Projekt auch eine Mission an die allgemeine Öffentlichkeit, so dass auch grundlegende Informationen zur Mayaschrift und zur Entzifferungsgeschichte gegeben werden, ebenso wie spezielle Forschungsfragen, die eng mit der Zielsetzung des Projektes verknüpft sind.

Der Auf- und Ausbau der Website findet in drei Phasen statt. Phase I ist der konzeptionelle, designerische und funktionale Entwurf auf Basis direkt gecodeter PHP-Seiten mit SQL-Abfragen. Letztere interagieren mit einem MySQL-Datenbankdesign, welches bereits vorhandene Forschungsdaten und Arbeitslisten vorhalten. Phase I dient also vor allem als Machbarkeitsstudie. Die Arbeiten hieran begannen Ende Mai 2014 durch Sven Gronemeyer und wurden größtenteils im Oktober 2014 abgeschlossen. Eine Basisversion dieses statischen Konzeptes wurde im September 2014 live gestellt. Hierauf wurde Phase II eingeleitet, die Portierung des Konzeptes in CMS (Content Management System), welche als mittelfristiger Meilenstein angesetzt war, aber aus mehreren Gründen vorgezogen wurde. Da das Websitekonzept bislang noch recht rudimentär war, gestaltet sich eine Portierung der Styles in CMS-Templates und die Contentmigration einfacher. Aufgrund seines einfachen Frontends, der PHP-nahen Templateerstellung und der Einrichtung multipler Sprachinstanzen fiel die Wahl auf WordPress als CMS, ebenso in Hinblick auf eine moderne, Interaktivität fördernde Seitenstruktur. Ebenso wichtig ist eine zweite Komponente, die Einbindung einer API zur Literaturdatenbank des Projektes auf Zotero, die ca. 30.000-40.000 Einträge umfassen wird. Da für WordPress bereits ein Zotero-Plugin besteht, ist es für Entwickler einfacher, auf diesem Core eine den Projektbedürfnissen angepasste Lösung zu entwickeln. Die Aufsetzung und Anpassung des CMS sowie die Programmierung der Zotero-API wird von der Firma Beuse Projektmanagement in Köln vorgenommen. Ein Go-Live der Website aus Phase II ist für Ende 2014 vorgesehen. Phase III der Website stellt eine zukünftige Entwicklung dar, die erst relevant wird, sobald eine ausreichende Anzahl von fertigen Objekten im TextGrid-Lab vorhanden ist. Über das TextGrid-eigene Modul SADE (Scalable Architecture for Digital Editions) ist eine Publikation von RDF/XML-Daten aus dem TextGrid-Rep auf beliebige Webinstanzen möglich. Neben Anpassungen in SADE muss vor allem im WordPress-CMS eine Schnittstelle geschaffen werden, um das RDF/XML auf der Website publizieren zu können. Voraussichtlich kann die Konzeptionierung von Phase III gegen Ende 2015 eingeleitet werden.

Für die Phasen I und II sind die bereits vom Projekt erarbeiteten (und fortgeführten) Arbeitslisten als zu publizierende Forschungsdaten von Belang. Es handelt sich dabei um eine Fundstättenliste und Museumsliste mit Maya-Artefakten (die beide in Phase II mit einem Maps-Plugin erweitert werden), eine Konkordanzliste aller zehn Zeichenkataloge für die Mayaschrift sowie eine Morphemliste des Klassischen Maya. Alle Arbeitslisten sind nach verschiedenen Kriterien sortierbar, filterbar und durchsuchbar. Weiterhin wird das Projekt laufend technische Berichte (etwa zur Digitalisierung von Archiven) und Arbeitspapiere (etwa zu Glossierungsregeln) veröffentlichen.

Social Media

Ein Aspekt der Website ist die schnelle und breite Bekanntmachung von Forschungsdaten und -fragen, nach Möglichkeit in Interaktion mit dem Nutzer, d.h. der Fachwelt. So kann etwa bei allen Arbeitslisten Feedback gegeben werden, um Diskussionen anzustoßen, die allerdings abseits sichtbarer Kanäle ablaufen würden. Um ein weniger formelles und schnelles Format von großer Reichweite zu schaffen, wird das Projekt neben der eigentlichen Website Kanäle in sozialen Netzwerken nutzen, insbesondere Facebook und Twitter. Es ist geplant diese im kommenden Jahr einzurichten. Hier können etwa Neuigkeiten gepostet, Entzifferungen diskutiert und Veranstaltungen angekündigt werden – neben vielen anderen Möglichkeiten, Fachkollegen und das allgemeine Publikum an der Arbeit des Projektes quasi in Echtzeit teilhaben zu lassen.

Aufgaben und laufende Arbeiten in Göttingen

Die Konzeption und Entwicklung der komputationellen Infrastruktur des Projekts gehört zum Aufgabenbereich unseres Projektpartners SUB in Göttingen. Im Vordergrund steht die Entwicklung des Metadatenschemas sowie die darauf aufbauende Programmierung und Anpassung der virtuellen Forschungsumgebung TextGrid an die Aufgaben, Bedürfnisse und Zielsetzungen des Projekts. Im Folgenden fassen wir die bisherigen Arbeiten zusammen und geben einen Ausblick auf die Arbeiten im Jahr 2015.

Metadaten: Anforderungen und Konzipierung

Die umfangreichen Anforderungen des Projekts an die virtuelle Forschungsumgebung stellen sich dementsprechend auch an das Metadatenschema. Es gilt eine Domäne mit einer äußerst heterogenen Datenmenge zu beschreiben: Die Inschriften, Text- und Bildträger, Akteure, Ereignisse, Orte, Quellen u.v.m. müssen in einer formal logisch strukturierten Form in einem Metadatenschema repräsentiert werden, damit die Daten maschinell les- und verarbeitbar werden. Für die Konzeption des Metadatenschemas können zwei große Ebenen unterschieden werden: I. textuelle Informationen, dazu gehören Transliteration, Transkription, Übersetzung, Textauszeichnung sowie die Komponenten zur Erstellung des Wörterbuchs; II. die nicht-textuellen Objekte, die den Kontext der Inschriften bilden: Text-, bzw. Bildträger, Akteure (sowohl in den Texten erwähnte, als auch für die Forschungsgeschichte relevante Personen), Ereignisse, Orte sowie forschungsrelevante Quellen. Das Metadatenschema wird auf Basis von international anerkannten Standards aufgebaut. Die Nachnutzung von Standards ist immer anzustreben, um eine hohe Interoperabilität mit anderen Systemen zu ermöglichen und gleichzeitig die Qualität des eigenen Schemas durch die Nachnutzung bestehender Konzepte zu verbessern.

Als Basis für das Metadatenschema dienen im Wesentlichen zwei Standards: Das CIDOC CRM zur Repräsentation der nicht-textuellen Objekte und XML-TEI / EpiDoc zur Auszeichnung der Texte. Das CIDOC CRM (CIDOC Conceptual Reference Model) ist ein ISO-Standard, der im Museumsbereich entwickelt wurde, um museale Objekte und Prozesse formal beschreibbar zu machen. Dieses Referenzmodell eignet sich daher optimal zur Beschreibung epigraphischer Prozesse und Objekte sowie der Dokumentation von Forschungsgeschichte. Der umfangreiche Standard der TEI (Text Encoding Initiative) wird seit Jahren erfolgreich zur Auszeichnung von Texten insbesondere im geisteswissenschaftlichen Bereich eingesetzt. Eine Spezialisierung von TEI zur Beschreibung von Inschriften ist EpiDoc. Dieses stellt, im Gegensatz zu TEI, Elemente bereit, die insbesondere zu der Auszeichnung von Inschriften benötigt werden, wie z.B. das Fehlen von Text aufgrund von Verwitterungen.

Jede der beiden Ebenen sind für sich genommen bereits sehr komplex, daher wird die Entwicklung des Schemas in zwei Schritten erfolgen: Im ersten Jahr (2014) wurde und wird der Teil des Schemas für die nicht-textuellen Objekte und 2015 der für die Textauszeichnung und -analyse sowie die Wörterbuchkomponenten entwickelt. Bevor ein Schema konzeptualisiert und erstellt werden kann, müssen die Anforderungen daran erhoben und erläutert werden. Dazu ist sowohl das Wissen über die Schemamodellierung sowie domänenbezogene Expertise notwendig. Für den Modellierungsprozess ist es wichtig, die zu repräsentierende Domäne zu verstehen. Der Wissenaustausch zwischen der Bonner und der Göttinger Arbeitsstelle ist unumgänglich. Dafür wurden unter anderem das Wiki sowie auch Telefonkonferenzen und vor allem persönliche Treffen genutzt (siehe oben). Die Arbeitsgrundlage bildet ein Anforderungskatalog, der alle Elemente, die zu der Repräsentation der Domäne benötigt werden, auflistet und deren Verwendung erklärt. Die Elemente werden Schritt für Schritt begutachtet und revidiert. Dieser Prozess ist zum Teil sehr zeit- und arbeitsintensiv, doch für die spätere Anwendung in der virtuellen Forschungsumgebung unumgänglich: Nur wenn alle Fragen bezüglich der Anforderungen an das Metadatenschema abschließend geklärt sind, lassen sich Probleme bei der technischen Umsetzung umgehen, die zu diesem Zeitpunkt nur noch schwer oder gar nicht mehr zu beheben wären.

Der Anforderungskatalog ist momentan zu zwei Dritteln begutachtet und die dementsprechenden Teile im Metadatenschema umgesetzt. Nach erfolgreicher Klärung der Anforderungen schließt sich eine Phase der intensiven Recherche nach weiteren Standards (z.B. für die Beschreibung von bildlichen Darstellungen) an. Darauffolgend wird eine maschinenlesbare Variante des Schemas und eine ausführliche Dokumentation erstellt.

TEI Metadatenschema für die Erfassung von Textdaten

(von Petra Maier, freie Mitarbeiterin im Projekt) Zielsetzung des Projektes, welches im Rahmen des Weiterbildungsstudienganges Master in Library and Information Science (MALIS) durchgeführt wurde, war die Erstellung eines Metadatenschemas mittels des Datenformates TEI zur Erfassung der Maya-Texte. Das erstellte TEI-Metadatenschema bildet eine Grundlage, welche im weiteren Verlauf den noch offenen Anforderungen angepasst und erweitert werden kann. Zunächst wurden die Anforderungen an das Metadatenschema bezüglich der Inschriftentexte formuliert, wie bspw. die genaue Anordnung der Textfelder (Einzel-/Doppelkolumne etc.) oder auch farbige Bereiche. In einem zweiten Schritt wurden aus den sehr umfangreichen TEI-Metadatensets relevante Module ausgewählt, die für die Erschließung der Inschriftentexte infrage kommen. Zudem wurden die EpiDoc-Empfehlungen, welche eine Eingrenzung der TEI-Guidelines zur Beschreibung von Inschriftentexten darstellen, herangezogen. Für die adäquate Umsetzung der Anforderungen wurde das Metadatenschema in aufeinander aufbauende Abschnitte gegliedert: ‚Inscription‘ sowie der drei Unterabschnitte ‚TextDivision‘, ‚Block‘ und ‚Sign‘. Mit dieser Gliederung des TEI-Metadatenschemas lässt sich die genaue Anordnung der Hieroglyphenblöcke wiedergeben. Farbige Textbereiche und Lücken im Text lassen sich durch die Metadaten beschreiben. Insgesamt ist somit die (grobe) Wiedergabe der Textstruktur mittels der Metadaten möglich. Nicht gelöst ist die Problematik, die Zeichen als Einzelbestandteile der Blöcke eindeutig zu identifizieren. Nach der aktuellen Auszeichnung werden die Zeichen hintereinander vergleichbar einem Fließtext geschrieben. Für die Lösung gibt es derzeit unterschiedliche Vorschläge und Ansätze, die im weiteren Projektverlauf zu prüfen sind. Ebenso bietet das derzeitige TEI-Schema noch keine Möglichkeit für die Auszeichnung von zum Text gehörenden Abbildungen, deren Größenverhältnis sowie die Angabe deren genauen Position auf dem Schriftträger.

Vokabulare und Normdaten

Zur Unterstützung der Auszeichnung nicht-textueller sowie textueller Objekte werden kontrollierte Vokabulare verwendet. Kontrollierte Vokabulare sind für eine ordentliche Dokumentation essentiell: sie ermöglichen begriffliche Kontrolle und Kontinuität, verhindern Ambiguität und Fehler. Wenn möglich, werden Standardvokabulare genutzt. Dafür gibt es zwei Szenarien: I. Ein vorhandenes Vokabular kann umfänglich genutzt werden oder II. es können Konzepte in das eigenentwickelte Vokabular via Matching integriert werden. Ein Beispiel: Für die Entwicklung eines Thesaurus für Objekttypen und -formen werden teilweise Konzepte aus dem Art and Architecture Thesaurus von Getty angewendet.

Wieviele Vokabulare letztendlich benötigt werden zeigt sich erst nach Abschluss der Entwicklung beider Teile des Metadatenschemas. Die Entwicklung der Vokabulare erfolgt parallel zur Konzeption des Metadatenschemas. Für die maschinenlesbare Repräsentation der Vokabulare wird SKOS (Simple Knowledge Organisation System) verwendet. Für die Entwicklung der Vokabulare und um das Matching auf Standardvokabulare zu vereinfachen, wird ein Tool verwendet. Eine Evaluation nach dem am besten geeigneten Instrument steht noch aus; dies wird zu Beginn des kommenden Jahres erfolgen. Im Projekt werden Normdaten im Bereich der Georeferenzierung eingebunden. Um in standardisierter Weise auf Orte verweisen und diese auch in der Anwendung auf einer Karte visualisieren zu können, verwenden wir die Normdaten von Getty TGN (Thesaurus of Geographic Names) und Geonames.

Informationstechnologie

TextGrid-Lab

Das TextGrid-Lab1)https://dev2.dariah.eu/wiki/display/TextGrid/Main+Page#MainPage-Frontend:TextGridLaboratory bildet das Front-End der technischen Infrastruktur. Von dieser Anwendung heraus werden alle Objekte erstellt, um später mit diesen arbeiten zu können. In diesem Zusammenhang sind verschiedene Aspekte relevant, die im folgenden beschrieben werden.

Benutzer- und Zugriffsverwaltung

Um das kollaborative Arbeiten aller Projektmitglieder zu ermöglichen bietet TextGrid einen Autorisierungs- und Authentifizierungsdienst (TG-auth2)https://dev2.dariah.eu/wiki/pages/viewpage.action?pageId=8131296) an. Mittels dieses Services ist es möglich, jedem Mitglied des Projektes mögliche spezifische Rollen zu zusprechen. Dabei wird zwischen Projekt-Manager, Editor und Observer unterschieden. Zusätzlich ist es möglich, jedem Nutzer die Möglichkeit des Löschens von Objekten zu geben.

Objektverwaltung

Um die Objekte allen Nutzern des Projektes zur gleichen Zeit zur Verfügung stellen zu können wird eine serverseitige Bereitstellung und Speicherung des Datenbestandes notwendig. Dabei sind die Bereiche Erstellen, Lesen, Updaten und Löschen notwendige Mechanismen. Um dies zu ermöglichen bietet TextGrid den Services TG-crud3)https://dev2.dariah.eu/wiki/display/TextGrid/TG-crud an. Im Projekt „Textdatenbank und Wörterbuch des klassischen Maya“ sind dabei folgende Objekte relevant:

  • deskriptive Metadaten-Objekte
  • Text-Analysedateien
  • Bild-Objekte, um auf diesen Markierungen und Referenzierungen vorzunehmen

Für diese Objekte werden die im Folgenden erklärten Anwendungen eingesetzt.

Metadaten-Eingabemaske

Die Metadatenobjekte haben einen heterogenen Charakter und die Gesamtheit der Metadatenobjekte gestaltet sich komplex. Die Beziehungen zwischen den einzelnen Metadaten-Objekten sind dabei von zentralem Interesse. Damit diese Beziehungen effektiv gespeichert werden können und damit ebenfalls die Möglichkeit besteht diese Beziehungen effizient abfragen zu können, werden die Daten im Dateityp des Resource-Description-Framework4)http://www.w3.org/RDF/ (RDF) in XML5)http://www.w3.org/XML/ Repräsentation angelegt. Bei diesem Datenttyp werden logische Aussagen über Ressourcen in der sprachlich bekannten Form Subjekt-Prädikat-Objekt gespeichert (Beispiel: Konrad Zuse – entwickelte – den Z3). Um die Eingabe der Metadaten für den Anwender möglichst komfortabel und unkompliziert zu gestalten, wurde eine spezielle Eingabemaske erstellt, die ein HTML Formular zur Verfügung stellt. Aus diesem Formular werden die jeweiligen Daten im Folgenden in RDF/XML umgewandelt und in TextGrid gespeichert. Durch die Speicherung in RDF Format wird die Möglichkeit gegeben die Daten in einem Datennetz zu verbinden (Linked Data6)http://www.w3.org/wiki/LinkedData). Durch diesen Aspekt können Zusammenhänge erkannt werden, die im Vorhinein noch nicht ersichtlich waren. Des Weiteren besteht ein hoher Grad der Austauschbarkeit mit Daten aus anderen Projekten. Durch eine offene Gestaltung der Daten und die Verbindung in einem offenen Datennetz (Linked Open Data) wird dieser Punkt weiter verstärkt.

Die Eingabemaske soll dem epigraphischen Workflow “Dokumentation – Analyse – Edition” möglichst nah nachempfunden werden. Für diesen Zweck wurden weitere Anpassungen, wie das Erstellen eines spezifischen Objekts zu einem bestimmten Zeitpunkt ermöglicht. Die korrekte Eingabe der Metadaten ist von zentraler Bedeutung. Zur Unterstützung dieses Prozesses werden der eingebenden Person Hilfsmittel zur Verfügung gestellt. Die Auswahl von bestimmten Begriffen aus einem Menü, welche aus einem kontrollierten Vokabular generiert werden, verhindert beispielsweise Rechtschreibfehler. Bei einer Referenzierung zu einem anderen Objekt wird die Datenbank abgefragt, um den entsprechenden eindeutigen Identifier aus der Datenbank zu übernehmen, um auch an dieser Stelle Rechtschreibfehler zu vermeiden. Des Weiteren werden Funktionen zur Validierung bestimmter Inhalte verwendet. So wird zum Beispiel das Speichern einer unvollständigen URL verhindert.

Datenbank und Speicher

Alle Objekte werden in erster Linie auf dem TextGrid Server gespeichert. Für die effiziente Speicherung der Objekte mit ihren Beziehungen und die Abfrage der Daten werden die Daten redundant in einer speziellen Datenbank für RDF-Daten abgelegt. Diese Datenbanken werden als Graphdatenbanken bezeichnet. Für die RDF-Tripels im speziellen spricht man von Tripelstores7)http://www.w3.org/wiki/LargeTripleStores. Im Projekt wurde dabei für den Tripelstore BigData8)http://bigdata.com/ entschieden, da dieser eine hohe Anzahl von Tripeln speichern kann und Möglichkeiten der Parallelisierbarkeit bietet, um vor eventuellen Ausfällen der Datenbank geschützt zu sein. Bei der Abfrage der Daten wird auf den Standard SPARQL Protocol and RDF Query Language9)http://www.w3.org/TR/rdf-sparql-query/ (SPARQL) gesetzt. Die Kombination aus RDF – Tripelstore und SPARQL hat sich in der gängigen Praxis bei komplexen und heterogenen Datenlandschaften als effizient und effektiv herausgestellt.

Speicher

Für die erste Phase des Projektes wurden 3 TB Speicher des Projektes DARIAH-DE10)https://de.dariah.eu/ beantragt. Dieser Speicher liegt beim Göttinger Rechenzentrum GWDG11)http://http://www.gwdg.de/ und bietet eine kostenneutrale Lösung.

Publikation der Objekte

Sowohl die erstellen RDF-Metadatenobjekte, als auch die analysierten und in TEI ausgezeichneten Volltexte sollen nach der Fertigstellung auf verschiedene Plattformen publiziert werden. Für die Veröffentlichung im TextGrid Repository sind Mechanismen in das TextGrid Lab eingebaut und für den gesamten Workflow optimiert. Weitergehend werden weitere Mechnismen für die Veröffentlichung bereitgestellt. Die Anwendung Scalable Architecture for Digital Editions12)http://www.bbaw.de/telota/software/sade/sade-1 (SADE) bietet eine Möglichkeit alle Objekte auch an externen Stellen zu veröffentlichen. Mit dieser Möglichkeit kann auf die Veröffentlichung im TextGrid Rep verzichtet werden. Allerdings wird parallel auch auf die Mechanismen der Langzeitarchivierung verzichtet. Um die Daten bereits in einer aufbereiteten und an das Design (mittels eines bei Bedarf angepasstem CSS13)http://www.w3.org/Style/CSS/) der Projekt-Website angepassten Form präsentieren zu können, werden die Objekte an dieser Stelle mittels SADE veröffentlicht. Diese Publikation erfolgt parallel zum TextGrid Repository.

Als dritte Möglichkeit wird das extrahieren der Metadaten-Objekte mittels einer OAI-PMH14)http://www.openarchives.org/pmh/ Schnittstelle angeboten.

Volltextindizierung

Die ausgezeichneten Volltexte sollen im Nachhinein mittels einer Volltextsuche durchsucht werden können. Für diese Funktion wird das bereits in der TextGrid-Infrastruktur eingebaute TG-search15)http://www.openarchives.org/pmh/ verwendet. Diese nutzt für die Suchanfragen ElasticSearch. Für diesen Zweck werden die Daten bei der Indizierung vorher in das Format JavaScript Object Notation Format16)http://www.w3schools.com/json/ (JSON) umgewandelt.

____________________________________
Bonn und Göttingen, 1. Dezember 2014
i.A. Dr. Christian Prager

Footnotes   [ + ]

1. https://dev2.dariah.eu/wiki/display/TextGrid/Main+Page#MainPage-Frontend:TextGridLaboratory
2. https://dev2.dariah.eu/wiki/pages/viewpage.action?pageId=8131296
3. https://dev2.dariah.eu/wiki/display/TextGrid/TG-crud
4. http://www.w3.org/RDF/
5. http://www.w3.org/XML/
6. http://www.w3.org/wiki/LinkedData
7. http://www.w3.org/wiki/LargeTripleStores
8. http://bigdata.com/
9. http://www.w3.org/TR/rdf-sparql-query/
10. https://de.dariah.eu/
11. http://http://www.gwdg.de/
12. http://www.bbaw.de/telota/software/sade/sade-1
13. http://www.w3.org/Style/CSS/
14. http://www.openarchives.org/pmh/
15. http://www.openarchives.org/pmh/
16. http://www.w3schools.com/json/

Nikolai Grube

personal_grube

Lebenslauf

Studium der Altamerikanistik, Ethnologie, Altorientalistik und Indologie in Hamburg. Stipendiat der Studienstiftung des Deutschen Volkes. 1989 Promotion in Hamburg mit einer Arbeit über die Entwicklung der Mayaschrift. Nach der Promotion Wechsel an die Rheinische Friedrich-Wilhelms-Universität Bonn und Organisation der Ausstellung „Die Welt der Maya“ (Hildesheim, Wien, Mannheim, Köln) in Zusammenarbeit mit dem Roemer-und-Pelizaeus-Museum Hildesheim. 1992 bis 1995 Habilitationsstipendium der DFG für das Projekt „Orale Traditionen der Cruzoob-Maya in Mexiko“ und verschiedene Forschungsprojekte in Guatemala, Mexiko, Belize und Honduras. Lehrstuhlvertretungen in Freiburg und Leiden. 1999 Habilitation in Ethnologie in Bonn und im gleichen Jahr Heisenberg-Stipendiat der DFG. 2000 bis 2004 Inhaber des Linda Schele Chair an der University of Texas in Austin.

Interessengebiete

Die Erforschung von Schriftsystemen, insbesondere die Hieroglyphenschrift der Maya und mesoamerikanische Schriftsysteme. Ikonographie und die Entstehung früher Staaten mit Schwerpunkt auf der Gesellschaft der klassischen Maya. Im Rahmen der politischen Anthropologie interessiert die politische Organisation von Agrargesellschaften. Weitere Schwerpunkte sind die Ethnographie des Sprechens, Aufzeichnung oraler Traditionen und politische Rhetorik sowie die Erforschung der Kontinuität von Geschichte und Kultur in Mesoamerika. In diesem Zusammenhang bilden die Ethnohistorie indigener Aufstandsbewegungen, Milleniarismus, Revitalisierungsbewegungen und die Frage nach Erhalt und Vermittlung indigener Kultur in Zusammenarbeit mit deren Trägern weitere Forschungsschwerpunkte.

Publikationen (Auswahl)

Grube, Nikolai

  • 2012 Der Dresdner Maya-Codex. Freiburg: Herder Verlag.
  • 2000 (ed.) Die Maya: Gottkönige im Regenwald. Köln: Könemann.
  • 1995 (ed.) The Emergence of Lowland Maya Civilization: The Transition from the Preclassic to the Early Classic (Acta Mesoamericana, 8). Möckmühl: Verlag Anton Saurwein.
  • 1992 Classic Maya Dance: Evidence from Hieroglyphs and Iconography. Ancient Mesoamerica 3(2): 201-218.
  • 1991 An Investigation of the Primary Standard Sequence on Classic Maya Ceramics. In: Sixth Palenque Round Table, 1986 [Palenque Round Table Series, VIII], herausgegeben von Merle Greene Robertson und Virginia Fields: 223-232. Norman: University of Oklahoma Press.
  • 1990 The Primary Standard Sequence on Chocholá Style Ceramics. In: The Maya Vase Book II, herausgegeben von Justin Kerr: 320-330. New York: Kerr Associates.
  • 1990 Die Entwicklung der Mayaschrift: Grundlagen zur Erforschung des Wandels der Mayaschrift von der Protoklassik bis zur spanischen Eroberung (Acta Mesoamericana, 3). Berlin: Verlag von Flemming.
  • 1987 Observations on T110 as the Syllable ko. Research Reports on Ancient Maya Writing 8.
  • 1987 Notes on the Reading of Affix T142. Research Reports on Ancient Maya Writing 4.
  • 1986 Untersuchungen zur dynastischen Geschichte von Naranjo, El Petén, Guatemala. Zeitschrift für Ethnologie 111(1): 47-118.
  • 1981 Die Mayahieroglyphen für „Vollendung“ und „Halbe Periode“. Mexicon 2(6): 93-95.

Grube, Nikolai und Maria Gaida

  • 2006 Die Maya: Schrift und Kunst. Berlin und Köln: SMB DuMont.

Chase, Arlen, Nikolai Grube und Diane Chase

  • 1991 Three Terminal Classic Monuments from Caracol, Belize. Research Reports on Ancient Maya Writing 36.

Martin, Simon und Nikolai Grube

  • 2000 Chronicle of The Maya Kings and Queens. London: Thames & Hudson.

Links

s