Refine
Year of publication
Document Type
- Lecture (58) (remove)
Language
- German (58) (remove)
Keywords
Has Fulltext
- yes (58)
Institute
- TELOTA - IT/Digital Humanities (21)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (11)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt CLARIN-D (2)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Akademienvorhaben Anpassungsstrategien der späten mitteleuropäischen Monarchie am preußischen Beispiel 1786 bis 1918 (1)
- Akademienvorhaben Die Griechischen Christlichen Schriftsteller (1)
- Akademienvorhaben Turfanforschung (1)
(Open-Source-)OCR-Workflows
(2017)
Slides for the OCR-D talk at the Digital Humanities Kolloquium at the Berlin-Brandenburg Academy of Sciences and Humanities (4th August 2017).
Der Band dokumentiert die "Posterstraße", die im Rahmen der Festveranstaltung zum 20-jährigen Jubiläum von TELOTA am 22. Juni 2022 stattfand. Die über 30 Poster stellen die vielfältigen Arbeitsbereiche, Tätigkeitsfelder, Projekte und Kooperationen von TELOTA vor. Sie sind - wie auf der Veranstaltung - in sieben thematische Bereiche gegliedert, die die Arbeit von TELOTA beschreiben: Forschungssoftware, Text & Edition, Visualisierung & Datenanalyse, Infrastruktur, Vernetzung & Kooperationen sowie DH-Community & Lehre.
Um die Möglichkeiten und Risiken, die sich durch virtuelle Forschungsplattformen ergeben, besser einschätzen zu können, erscheint es sinnvoll, ihre Stellung in Zusammenhang mit der gesamten virtuellen Infrastruktur in der Forschungs- und Wissenschaftslandschaft zu denken. Hierbei wird deutlich, dass ihre Aufgabe nicht so sehr darin bestehen kann, neue Funktionalitäten zu erfinden oder neue Ressourcen verfügbar zu machen, sondern eher darin gesehen werden muss, bestehende Anwendungen und Quellsysteme auf eine Art zu organisieren, bei der sich der Mehrwert für den Benutzer durch die Integration und das In-Beziehung-Setzen derselben ergibt. Dies gilt insbesondere für die Organisation von Wissen. Erfolgreich haben Initiativen wie Open Access auf der politischen und DINI (Deutsche Initiative für Netzwerkinformation) auf der technischen Seite dazu beigetragen, dass die Ergebnisse von Forschung zunehmend in digitaler Form vorliegen und zumeist innerhalb von Repositorien, deren Zahl - wie z.B. auf OpenDOAR zu sehen - unaufhaltsam wächst, verfügbar sind. Eine Herausforderung stellt daher immer mehr die Integration und Nutzbarmachung von Wissen dar. Als Ergebniseintrag 21 im Repositorium eines Universitäts-Instituts ist der Titel eines Aufsatzes eine isolierte Information. In Beziehung gesetzt zu anderen Ressourcen und statistisch und semantisch kontextualisiert in Verbindung mit anderen Systemen wird er zu anschlussfähigem Wissen. Unter Anderem für diese Aufgabe soll mit dem Wissensspeicher der BBAW, der zur Zeit entwickelt wird, eine Lösung gefunden werden. Er versteht sich als eine Plattform, in der die Vielgestaltigkeit der Akademie, die sich durch ihre vielfältigen Forschungsvorhaben ergibt und die sich in verschiedenen Interessenszusammenhängen, Ressourcen und Ressourcensystemen ausdrückt, integriert wird, und die sich ihrerseits wiederum die Aufgabe setzt, sich in bestehende Services einzubringen und diese in dem durch die Plattform neu geschaffenen Kontext zu nutzen. Eine virtuelle Forschungsplattform kann daher auch als Ort angesehen werden, an dem sich inhaltliche, technische und strukturelle Heterogenität sowohl intern als auch extern harmonisieren und zusammenführen lässt und damit einen fruchtbaren Umgang mit Wissen in der digitalen Welt überhaupt erst möglich macht.
Der Beitrag informiert über Kollationsverfahren und Formen der Textpräsentation, die im Rahmen des Parzival-Projekts praktiziert und erprobt werden. Der 'Parzival'-Roman Wolframs von Eschenbach gerät dabei von seiner Überlieferung her in den Blick: Zur Darstellung gelangen handschriftliche Erscheinungsweisen und die Varianten einzelner Textfassungen. Durch die Nutzung von Datenbanken können dynamische Präsentationsformen erzeugt werden, in denen die Betrachter selbständig eine Synopse von Textzeugen bzw. Fassungen zusammenstellen. Die konzeptionellen und technischen Grundlagen dieses Verfahrens werden im Rahmen des Beitrags erläutert. Die angegebene URL führt zur Testedition.
Im Vortrag wurde ausführlich der Grundgedanke hinter dem DTA-Basisformat, d. h. die Etablierung eines reduzierten, zugleich vollständig TEI-konformen XML-Markups für historische Textressourcen, erläutert. ‚Reduziert‛ bedeutet in diesem Zusammenhang, dass immer dort, wo die P5-Richtlinien der TEI mehrere Möglichkeiten zur Annotation gleichartiger Phänomene bieten, innerhalb des DTABf nur genau eine dieser Varianten gewählt werden kann. Ziele dieser Restriktion sind zum einen die Gewährleistung gleichartiger Annotationsweisen innerhalb des DTA-Korpus sowie zum anderen die Erhöhung der Interoperabilität verschiedener TEI-XML-kodierter Textkorpora.
Neben dem DTABf für historische Drucke erwähnte Susanne Haaf in ihrem Vortrag auch die verschiedenen Spezialtagsets innerhalb des DTABf, die beispielsweise für die Annotation von (historischen) Zeitungen, Funeralschriften und seit einiger Zeit auch für die Auszeichnung (neuzeitlicher) Manuskripte entwickelt wurden. Dabei wurde das immer noch sehr breite Spektrum der Phänomene erkennbar, die sich mit dem DTABf standardkonform auszeichnen lassen, wobei die ausführliche und reich illustrierte Dokumentation des DTABf eine zuverlässige Orientierungshilfe bietet. In technischer Hinsicht wurde die Erstellung der umfangreichen DTABf-Dokumentation mit dem Dokumentenformat DITA (Darwin Information Typing Architecture) erläutert, das deren Handhabung und Modularisierung (auch durch Nachnutzende) enorm vereinfacht. Als weitere technische Komponenten stellte Haaf das mit dem Chaining-ODDs-Mechanismus modularisierte ODD, auf dem das DTABf beruht, das RNG-Schema sowie die weitere Spezifikation der Annotationspraxis durch einen Schematron-Regelsatz vor. [2]
Alle Komponenten des DTABf werden mittlerweile über die DTA-Präsenz auf der Entwicklungsplattform GitHub verwaltet und versioniert. Sie können dadurch auch von externen Nutzerinnen und Nutzern kommentiert, heruntergeladen und ggf. auf deren eigene Bedürfnisse hin modifiziert werden. Als weiterer Schritt zur stärkeren Einbindung der wachsenden Nutzer-Community des DTABf ist die Einrichtung einer Steuerungsgruppe mit externen Beteiligten geplant, die über zukünftige Modifikationen und Erweiterungen des Formats entscheiden wird. Darüber hinaus wurde in diesem Zusammenhang die geplante Übersetzung der DTABf-Dokumentation ins Englische, die im Rahmen des EU-Projekts PARTHENOS vorgesehen ist, erwähnt. [3]
Die anschließende Diskussion widmete sich u.a. den Implikationen der zunehmenden Verbreitung des DTABf, das mittlerweile von mehr als 25 externen Projekten genutzt und sowohl vom EU-weiten Infrastrukturprojekt CLARIN als auch von der Deutschen Forschungsgemeinschaft (DFG) empfohlen wird, was einen wichtigen Schritt in Richtung Standardisierung bzw. Etablierung von Best Practices innerhalb der Historischen Linguistik sowie allgemein der textbasiert arbeitenden Philologien, Geschichts- und Kulturwissenschaften darstellt. Das DTABf wurde zwar ursprünglich für die Auszeichnung des primär deutschsprachigen Korpus des Deutschen Textarchivs entwickelt, eignet sich aber ebenso zur Annotation von Textressourcen, die in anderen Sprachen (oder anderen Sprachstufen des Deutschen) verfasst wurden.
Das Schweizerische Idiotikon dokumentiert die deutsche Sprache in der Schweiz vom Jahr 1300 bis heute. Es ist mit bisher 16 Bänden (Wortstrecke A – W) das grösste Regionalwörterbuch des Deutschen. An ihm wird seit genau 150 Jahren kontinuierlich gearbeitet, in ca. 12 Jahren soll der 17. und letzte Band abgeschlossen sein. Zur einfacheren Benutzung und zur grösseren Verbreitung des gedruckten Werkes sowohl in der wissenschaftlichen Gemeinschaft wie auch in der interessierten weiteren Öffentlichkeit wurde vor 3 Jahren mit der Digitalisierung begonnen. Die komplexe Mikrostruktur der Wörterbuchartikel sowie die beschränkten personellen Ressourcen, die in erster Linie für die Weiterarbeit am letzten Band eingesetzt werden müssen, liess eine Volltextdigitalisierung mit ausgebautem TEI-Tagging als zu langwierig und zu ambitiös erscheinen. Daher wurde die Digitalisierung schrittweise angegangen, indem zuerst die Zugriffstrukturen über mit vielen Schreib- und Aussprachevarianten versehene digitale Register ausgebaut wurden. In einem zweiten Schritt wurden die Register mit den digitalisierten Abbildern der gedruckten Buchseiten verbunden, und in einem dritten, gegenwärtig realisierten Schritt wird die Suche über einen mittels OCR erstellten Volltext implementiert.