Digital-Humanities-Kolloquium an der Berlin-Brandenburgischen Akademie der Wissenschaften
Refine
Document Type
- Lecture (15)
Language
- German (12)
- English (2)
- Multiple languages (1)
Keywords
- Digital Humanities (10)
- Edition (3)
- API (1)
- Antikes Christentum (1)
- Brief (1)
- CMIF (1)
- Datenmanagement (1)
- Geisteswissenschaften (1)
- Graphdatenbank (1)
- Graphentechnologien (1)
- Markup-Theorie (1)
- Metadaten (1)
- Netzwerkforschung (1)
- Patristik (1)
- Regesta Imperii (1)
- Regesten (1)
- TEI (1)
- Text Encoding Initiative (1)
- Textmodellierung (1)
- XML (1)
- correspSearch (1)
- dh-kolloquium (1)
- digital scholarly edition (1)
Has Fulltext
- yes (15)
Institute
(Open-Source-)OCR-Workflows
(2017)
Slides for the OCR-D talk at the Digital Humanities Kolloquium at the Berlin-Brandenburg Academy of Sciences and Humanities (4th August 2017).
The computer has come to play a transformative role in the ways we model, store, process and study text. Nevertheless, we cannot yet claim to have realised the promises of the digital medium: the organisation and dissemination of scholarly knowledge through the exchange, reuse and enrichment of data sets. Despite the acclaimed interdisciplinary nature of digital humanities, current digital research takes place in a closed environment and rarely surpasses the traditional boundaries of a field. Furthermore, it is worthwhile to continue questioning the models we use and whether they are actually suitable for our scholarly needs. There’s a risk that the affordances and limitations of a prevailing model may blind us to aspects it doesn’t support.
In her talk, Elli Bleeker discusses different technologies to model data with respect to their expressive power and their potential to address the needs of the scholarly community. Within this framework, she introduces a new data model for text, Text-As-Graph (TAG), and it’s reference implementation Alexandria, a text repository system. The TAG model allows researchers to store, query, and analyse text that is encoded from different perspectives. Alexandria thus stimulates new ways of looking at textual objects, facilitates the exchange of information across disciplines, and secures textual knowledge for future endeavours. From a philosophical perspective, the TAG model and the workflow of Alexandria raise compelling questions about our notions of textuality, and prompt us to reconsider how we can best model the variety of textual dimensions.
Im Vortrag wurde ausführlich der Grundgedanke hinter dem DTA-Basisformat, d. h. die Etablierung eines reduzierten, zugleich vollständig TEI-konformen XML-Markups für historische Textressourcen, erläutert. ‚Reduziert‛ bedeutet in diesem Zusammenhang, dass immer dort, wo die P5-Richtlinien der TEI mehrere Möglichkeiten zur Annotation gleichartiger Phänomene bieten, innerhalb des DTABf nur genau eine dieser Varianten gewählt werden kann. Ziele dieser Restriktion sind zum einen die Gewährleistung gleichartiger Annotationsweisen innerhalb des DTA-Korpus sowie zum anderen die Erhöhung der Interoperabilität verschiedener TEI-XML-kodierter Textkorpora.
Neben dem DTABf für historische Drucke erwähnte Susanne Haaf in ihrem Vortrag auch die verschiedenen Spezialtagsets innerhalb des DTABf, die beispielsweise für die Annotation von (historischen) Zeitungen, Funeralschriften und seit einiger Zeit auch für die Auszeichnung (neuzeitlicher) Manuskripte entwickelt wurden. Dabei wurde das immer noch sehr breite Spektrum der Phänomene erkennbar, die sich mit dem DTABf standardkonform auszeichnen lassen, wobei die ausführliche und reich illustrierte Dokumentation des DTABf eine zuverlässige Orientierungshilfe bietet. In technischer Hinsicht wurde die Erstellung der umfangreichen DTABf-Dokumentation mit dem Dokumentenformat DITA (Darwin Information Typing Architecture) erläutert, das deren Handhabung und Modularisierung (auch durch Nachnutzende) enorm vereinfacht. Als weitere technische Komponenten stellte Haaf das mit dem Chaining-ODDs-Mechanismus modularisierte ODD, auf dem das DTABf beruht, das RNG-Schema sowie die weitere Spezifikation der Annotationspraxis durch einen Schematron-Regelsatz vor. [2]
Alle Komponenten des DTABf werden mittlerweile über die DTA-Präsenz auf der Entwicklungsplattform GitHub verwaltet und versioniert. Sie können dadurch auch von externen Nutzerinnen und Nutzern kommentiert, heruntergeladen und ggf. auf deren eigene Bedürfnisse hin modifiziert werden. Als weiterer Schritt zur stärkeren Einbindung der wachsenden Nutzer-Community des DTABf ist die Einrichtung einer Steuerungsgruppe mit externen Beteiligten geplant, die über zukünftige Modifikationen und Erweiterungen des Formats entscheiden wird. Darüber hinaus wurde in diesem Zusammenhang die geplante Übersetzung der DTABf-Dokumentation ins Englische, die im Rahmen des EU-Projekts PARTHENOS vorgesehen ist, erwähnt. [3]
Die anschließende Diskussion widmete sich u.a. den Implikationen der zunehmenden Verbreitung des DTABf, das mittlerweile von mehr als 25 externen Projekten genutzt und sowohl vom EU-weiten Infrastrukturprojekt CLARIN als auch von der Deutschen Forschungsgemeinschaft (DFG) empfohlen wird, was einen wichtigen Schritt in Richtung Standardisierung bzw. Etablierung von Best Practices innerhalb der Historischen Linguistik sowie allgemein der textbasiert arbeitenden Philologien, Geschichts- und Kulturwissenschaften darstellt. Das DTABf wurde zwar ursprünglich für die Auszeichnung des primär deutschsprachigen Korpus des Deutschen Textarchivs entwickelt, eignet sich aber ebenso zur Annotation von Textressourcen, die in anderen Sprachen (oder anderen Sprachstufen des Deutschen) verfasst wurden.
Digitale Technologien und Formate eröffnen Museen neue Formate der Interaktion, Interpretation und Kommunikation. Im Vergleich zu objektbezogener Forschung im Museum, die durch den Einsatz digitaler Erschließungssysteme, der Nutzung und Publikation von digitalen Reproduktionen und der Integration von digital gestützten Untersuchungsmethoden eine methodische Erweiterung erfährt, wird die Entwicklung digitaler Kommunikations- und Vermittlungsformate bisher eher selten als transdisziplinärer Forschungsauftrag im Museum verstanden. Mit museum4punkt0 wurde 2017 erstmals in Deutschland ein museales Forschungsprojekt initiiert, welches Kulturinstitutionen verschiedener Sparten, Größen und institutionellen Strukturen mit dem Ziel der Entwicklung und Beforschung digitaler Anwendungen in einem Verbund vereint. Zentrales Merkmal des Verbundes ist die Vernetzung und gegenseitige Unterstützung der beteiligten Institutionen bei der Entwicklung und Evaluation von digitalen Vermittlungs- und Kommunikationsangeboten. Untersucht wird, wie neueste digitale Technologien effektiv für die Aufgaben von Museen, insbesondere in der Wissensvermittlung, nutzbar gemacht werden können.
Graphentechnologien in den Digitalen Geisteswissenschaften. Die RI als Netzwerk von Entitäten
(2017)
Folien des Vortrags „Graphentechnologien in den digitalen Geisteswissenschaften“ von Dr. Andreas Kuczera im Rahmen des DH-Kolloquiums an der BBAW am 1.12.2017. Anhand verschiedener Beispiele aus den Projekten Regesta Imperii und Nomen et Gens zeigt der Vortrag wie Graphentechnologien für geisteswissenschaftliche Fragestellungen verwendet werden könnten.
Durch die zunehmende Digitalisierung nimmt die Bedeutung von Forschungsdaten in den Geisteswissenschaften, insbesondere in den Digital Humanities, zu. Dabei rücken in den letzten Jahren verstärkt Open Science-Paradigmen, wie der möglichst offene Zugang zu den Daten und die FAIR Data Principles (Findable, Accessible, Interoperable, Reuseable) in den Fokus. Diese bedeuten einen Paradigmenwechsel für Wissenschaftler*innen und Wissenschafts- und Gedächtnisinstitutionen und erfordern die Kooperation im Rahmen nationaler und internationaler Infrastrukturen.
Zur Förderung guter Datenmanagementpraktiken verlangen verschiedene nationale und internationale Förderorganisationen bei Projektanträgen Auskunft über den Umgang mit nachgenutzten oder erstellten Forschungsdaten, z. B. in der Form von Datenmanagementplänen (DMPs). Inzwischen setzt sich die Erkenntnis durch, dass es nicht mit einem einmaligen Datenmanagementplan getan ist, sondern dass DMPs während des Projektverlaufs angepasst werden müssen, um das Forschungsdatenmanagement aktiv und unter Einbeziehung aller relevanten Stakeholder zu unterstützen und seine Potenziale auszuschöpfen (aktives Forschungsdatenmanagement). Hierfür wird im Rahmen eines DFG-Projekts das Werkzeug Research Data Management Organizer (RDMO) entwickelt.
Der Vortrag gibt eine Einführung in die wichtigsten Begrifflichkeiten und Konzepte des geisteswissenschaftlichen Forschungsdatenmanagements und seine Bedeutung für die Sicherung der guten wissenschaftlichen Praxis, die Qualitätssicherung der Forschungsdaten und die Erhöhung des Impacts der Resultate digitaler geisteswissenschaftlicher Forschung und führt diesbezüglich in Funktionalitäten und Anwendungsmöglichkeiten des Werkzeugs RDMO ein.
Präsentationsfolien für einen Vortrag im Rahmen des DH-Kolloquiums an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) am 02.08.2019.
Der Vortrag gibt zunächst einen Einblick in die Erstellung TEI-XML-basierter Text-Editionen mit einem Fokus auf Handschriften des 19. Jahrhunderts (am Beispiel der Nachschriften zu Humboldts Kosmos-Vorlesungen 1827/28 in Berlin). Anhand dessen wird erläutert, inwiefern sich die Repräsentation historischer Textzeugen im Zuge des Medien- bzw. Paradigmenwechsels von printorientierten Formaten hin zu genuin digitalen Editionsformen verändert. Dies hat zum einen Auswirkungen auf Produktionsseite, d.h. auf die editorische Praxis, vor allem aber – und hierauf wird der Schwerpunkt des Vortrags liegen – auf die Rezeptionsseite: Digitale Edition müssen nicht nur anders konzipiert und produziert, sondern auch anders gelesen werden, will man das Potential der (in der germanistischen Editionsphilologie teilweise immer noch:) ‘neuen’ Medien ausschöpfen. Die Editionspraxis schreitet von der linearen Auszeichnung textoberflächlicher Phänomene bzw. deren an- oder nachgelagerter diskursiver, spezifischer Beschreibung weiter in Richtung standardisierter, formalisierter Annotation, die in die mehrdimensionale, vielschichtige Tiefe des Textzeugen führt.
Folien zu einem Vortrag im Rahmen des Digital-Humanities-Kolloquium an der BBAW am 7.7.2017. Der Vortrag erläutert, ausgehend von editionswissenschaftlichen Entwicklungen der 1980er und 1990er Jahre, wie die "Kopfdaten" eines Briefes nach den Richtlinien der Text Encoding Initiative (TEI) kodiert werden können. Insbesondere wird auf das TEI-Element correspDesc eingegangen und die Kodierung anhand eines Beispiels veranschaulicht. Darüber hinaus wird der Mehrwert von Briefmetadaten sowohl für die digitale Briefedition an sich als auch zu ihrer Vernetzung diskutiert. Dabei wird vor allem auf das Correspondence Metadata Interchange Format (CMIF) und den Webservice correspSearch eingegangen.