Lecture
Refine
Year of publication
Document Type
- Lecture (74) (remove)
Language
- German (58)
- English (10)
- Spanish (5)
- Multiple languages (1)
Keywords
- Digital Humanities (15)
- Computerunterstützte Lexikographie (9)
- Edition (9)
- Historische Lexikographie (9)
- historical lexicography (9)
- Digitalisierung (8)
- Information und Dokumentation (8)
- Bibliographie (6)
- Deutschland (6)
- Edición digital académica (5)
Has Fulltext
- yes (74)
Institute
- TELOTA - IT/Digital Humanities (24)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (17)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Drittmittelprojekt Proyecto Humboldt Digital (7)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Drittmittelprojekt CLARIN-D (3)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Drittmittelprojekt OCR-D (2)
- Zentrum Sprache (2)
- Akademienvorhaben Anpassungsstrategien der späten mitteleuropäischen Monarchie am preußischen Beispiel 1786 bis 1918 (1)
- Akademienvorhaben Die Griechischen Christlichen Schriftsteller (1)
- Akademienvorhaben Turfanforschung (1)
- Berlin-Brandenburgische Akademie der Wissenschaften (1)
- Drittmittelprojekt Lebenswelten, Erfahrungsräume und politische Horizonte der ostpreußischen Adelsfamilie Lehndorff vom 18. bis in das 20. Jahrhundert (1)
- Veröffentlichungen externer Institutionen (1)
- Veröffentlichungen von Akademiemitgliedern (1)
Graphentechnologien in den Digitalen Geisteswissenschaften. Die RI als Netzwerk von Entitäten
(2017)
Folien des Vortrags „Graphentechnologien in den digitalen Geisteswissenschaften“ von Dr. Andreas Kuczera im Rahmen des DH-Kolloquiums an der BBAW am 1.12.2017. Anhand verschiedener Beispiele aus den Projekten Regesta Imperii und Nomen et Gens zeigt der Vortrag wie Graphentechnologien für geisteswissenschaftliche Fragestellungen verwendet werden könnten.
Der Vortrag gibt zunächst einen Einblick in die Erstellung TEI-XML-basierter Text-Editionen mit einem Fokus auf Handschriften des 19. Jahrhunderts (am Beispiel der Nachschriften zu Humboldts Kosmos-Vorlesungen 1827/28 in Berlin). Anhand dessen wird erläutert, inwiefern sich die Repräsentation historischer Textzeugen im Zuge des Medien- bzw. Paradigmenwechsels von printorientierten Formaten hin zu genuin digitalen Editionsformen verändert. Dies hat zum einen Auswirkungen auf Produktionsseite, d.h. auf die editorische Praxis, vor allem aber – und hierauf wird der Schwerpunkt des Vortrags liegen – auf die Rezeptionsseite: Digitale Edition müssen nicht nur anders konzipiert und produziert, sondern auch anders gelesen werden, will man das Potential der (in der germanistischen Editionsphilologie teilweise immer noch:) ‘neuen’ Medien ausschöpfen. Die Editionspraxis schreitet von der linearen Auszeichnung textoberflächlicher Phänomene bzw. deren an- oder nachgelagerter diskursiver, spezifischer Beschreibung weiter in Richtung standardisierter, formalisierter Annotation, die in die mehrdimensionale, vielschichtige Tiefe des Textzeugen führt.
Friedrich Schleiermachers Vorlesungen über die Ästhetik (1819, 1825, 1832/33) sind bislang in verschiedenen Ausgaben erschienen. In diesem Beitrag wird aufgrund einer kurzen Editions- und Rezeptionsgeschichte dieser Vorlesungen untersucht, inwiefern die kanonische Bedeutung eines philosophischen Werks von den technischen und konzeptionellen Bedingungen seiner Edition einerseits und von der fachlich qualifizierten Rezeption andererseits abhängt. Dabei wird insbesondere auf die kanon-wirksamen Potenziale der digitalen Edition eingegangen.
Einführung Textkritik
(2017)
Im Vortrag wurde ausführlich der Grundgedanke hinter dem DTA-Basisformat, d. h. die Etablierung eines reduzierten, zugleich vollständig TEI-konformen XML-Markups für historische Textressourcen, erläutert. ‚Reduziert‛ bedeutet in diesem Zusammenhang, dass immer dort, wo die P5-Richtlinien der TEI mehrere Möglichkeiten zur Annotation gleichartiger Phänomene bieten, innerhalb des DTABf nur genau eine dieser Varianten gewählt werden kann. Ziele dieser Restriktion sind zum einen die Gewährleistung gleichartiger Annotationsweisen innerhalb des DTA-Korpus sowie zum anderen die Erhöhung der Interoperabilität verschiedener TEI-XML-kodierter Textkorpora.
Neben dem DTABf für historische Drucke erwähnte Susanne Haaf in ihrem Vortrag auch die verschiedenen Spezialtagsets innerhalb des DTABf, die beispielsweise für die Annotation von (historischen) Zeitungen, Funeralschriften und seit einiger Zeit auch für die Auszeichnung (neuzeitlicher) Manuskripte entwickelt wurden. Dabei wurde das immer noch sehr breite Spektrum der Phänomene erkennbar, die sich mit dem DTABf standardkonform auszeichnen lassen, wobei die ausführliche und reich illustrierte Dokumentation des DTABf eine zuverlässige Orientierungshilfe bietet. In technischer Hinsicht wurde die Erstellung der umfangreichen DTABf-Dokumentation mit dem Dokumentenformat DITA (Darwin Information Typing Architecture) erläutert, das deren Handhabung und Modularisierung (auch durch Nachnutzende) enorm vereinfacht. Als weitere technische Komponenten stellte Haaf das mit dem Chaining-ODDs-Mechanismus modularisierte ODD, auf dem das DTABf beruht, das RNG-Schema sowie die weitere Spezifikation der Annotationspraxis durch einen Schematron-Regelsatz vor. [2]
Alle Komponenten des DTABf werden mittlerweile über die DTA-Präsenz auf der Entwicklungsplattform GitHub verwaltet und versioniert. Sie können dadurch auch von externen Nutzerinnen und Nutzern kommentiert, heruntergeladen und ggf. auf deren eigene Bedürfnisse hin modifiziert werden. Als weiterer Schritt zur stärkeren Einbindung der wachsenden Nutzer-Community des DTABf ist die Einrichtung einer Steuerungsgruppe mit externen Beteiligten geplant, die über zukünftige Modifikationen und Erweiterungen des Formats entscheiden wird. Darüber hinaus wurde in diesem Zusammenhang die geplante Übersetzung der DTABf-Dokumentation ins Englische, die im Rahmen des EU-Projekts PARTHENOS vorgesehen ist, erwähnt. [3]
Die anschließende Diskussion widmete sich u.a. den Implikationen der zunehmenden Verbreitung des DTABf, das mittlerweile von mehr als 25 externen Projekten genutzt und sowohl vom EU-weiten Infrastrukturprojekt CLARIN als auch von der Deutschen Forschungsgemeinschaft (DFG) empfohlen wird, was einen wichtigen Schritt in Richtung Standardisierung bzw. Etablierung von Best Practices innerhalb der Historischen Linguistik sowie allgemein der textbasiert arbeitenden Philologien, Geschichts- und Kulturwissenschaften darstellt. Das DTABf wurde zwar ursprünglich für die Auszeichnung des primär deutschsprachigen Korpus des Deutschen Textarchivs entwickelt, eignet sich aber ebenso zur Annotation von Textressourcen, die in anderen Sprachen (oder anderen Sprachstufen des Deutschen) verfasst wurden.
(Open-Source-)OCR-Workflows
(2017)
Slides for the OCR-D talk at the Digital Humanities Kolloquium at the Berlin-Brandenburg Academy of Sciences and Humanities (4th August 2017).
Folien zum Vortrag "Digitale Briefeditionen und ihre Vernetzung" im Rahmen der Ringvorlesung "Transdisziplinäre Aspekte Digitaler Methodik in den Geistes- und Kulturwissenschaften" an der Johannes Gutenberg-Universität Mainz am 3. Mai 2017. Der Vortrag erläutert die aktuellen Entwicklungen digitaler Briefeditionen, u.a. werden User Interfaces und ihr Nutzen für die digitale Briefedition vorgestellt. Darüber hinaus diskutiert der Vortrag, wie mit Hilfe von Application Programming Interfaces (APIs) die digitale Briefedition umfassend vernetzt werden kann. Ein Exkurs widmet sich dabei dem Webservice "correspSearch".
Folien zu einem Vortrag im Rahmen des Digital-Humanities-Kolloquium an der BBAW am 7.7.2017. Der Vortrag erläutert, ausgehend von editionswissenschaftlichen Entwicklungen der 1980er und 1990er Jahre, wie die "Kopfdaten" eines Briefes nach den Richtlinien der Text Encoding Initiative (TEI) kodiert werden können. Insbesondere wird auf das TEI-Element correspDesc eingegangen und die Kodierung anhand eines Beispiels veranschaulicht. Darüber hinaus wird der Mehrwert von Briefmetadaten sowohl für die digitale Briefedition an sich als auch zu ihrer Vernetzung diskutiert. Dabei wird vor allem auf das Correspondence Metadata Interchange Format (CMIF) und den Webservice correspSearch eingegangen.
Da einerseits die informelle Partizipation an der Kultur des Internet durch Digital Natives nicht unmittelbar auf das Erlernen komplexer wissenschaftlicher Informations- und Medienkompetenz übertragbar ist, andererseits im geschichtswissenschaftlichen akademischen Unterricht die Komplexität digitaler und/oder virtueller geschichtswissenschaftlicher Ressourcen kaum zu vermitteln ist, müssen Bibliotheken gemeinsam mit den Fachbereichen effiziente Strategien entwerfen, Studierenden geschichtswissenschaftliche Informationskompetenz nachhaltig zu vermitteln, die ein erfolgreiches Studium ermöglichen. Hierfür bietet das Modell der Teaching Library ein flexibel zu handhabendes Instrument. Die traditionelle produktorientierte "Datenbankschulung" wird ersetzt durch den kompetenzorientierten Umgang mit Fachressourcen im geschichtswissenschaftlichen Arbeitsprozess. Zu den traditionellen geschichtswissenschaftlichen Fachbibliographien treten immer komplexere Quellendatenbanken, die schon heute eine ganz neue Qualität quellenbasierten historischen Arbeitens ermöglichen. In diesem Sinne wird die geschichtswissenschaftliche Fachbibliographie der Zukunft im Verständnis eines erweiterten Bibliographiebegriffs eine Scharnierfunktion zwischen unterschiedlichen Quellendatenbanken, Virtuellen Fachbibliotheken, Virtuellen Forschungsumgebungen und Kulturportalen einnehmen.
Die deutschen Geschichtsbibliographien stehen aktuell vor einigen Herausforderungen: Sie sind von einer großen Heterogenität hinsichtlich ihrer Sammelprofile geprägt, kaum mit dem Bibliothekswesen vernetzt und müssen sich gegenüber anderen Recherchemitteln behaupten. Die Erkenntnis, dass dieser Situation gemeinsam besser begegnet werden kann, hat die beiden großen deutschen Bibliographien der Geschichtswissenschaft, die Historische Bibliographie und die Jahresberichte für Deutsche Geschichte, dazu bewogen, sich mit einer epochalen Spezialbibliographie, der Bibliographie zur Zeitgeschichte, und der Bayerischen Staatsbibliothek als Sondersammelgebietsbibliothek für Geschichte zusammenzutun. In einem gemeinsamen DFG-Projekt werden derzeit die organisatorischen und konzeptionellen Grundsteine für eine künftig engere Zusammenarbeit sowie eine noch zu schaffende "Deutsche Historische Bibliographie" gelegt. Während der ersten zwei Projektjahre konnten sich die Partner bereits darauf einigen, gemeinsam in einem Bibliotheksverbund zu katalogisieren und arbeitsteilig Zeitschriften auszuwerten, außerdem wurde eine gemeinsame Fachsystematik konzipiert, die einzelnen Bibliographien wurden an verschiedenen Stellen optimiert und ihre Datenbestände mit Suchmaschinentechnologie indiziert und in Fachportale eingebunden. In der zweiten Projektphase sollen diese Arbeiten fortgeführt und die Etablierung einer "Deutschen Historischen Bibliographie" vorbereitet werden. Es ist dabei das Ziel, ein so funktionales wie benutzerfreundliches Serviceangebot der historisch-bibliographischen Fachinformation zu schaffen. In der Präsentation wird ein breites, den state-of-the-art moderner Informationstechnologien berücksichtigendes Feature-Spektrum vorgestellt, das einer "geschichtswissenschaftlichen Fachbibliographie der Zukunft" gerecht werden soll. In welchem Umfang dies tatsächlich realisiert werden kann, wird jedoch noch intensiv zu prüfen sein.
Even a reductionist attempt to define scholarship is clearly fraught with difficulty, but an idealised historical lexicographer-cum-scholar must obviously have – inter alia and at the very least – a profound linguistic and textual knowledge of the language being documented, an ability to understand texts in their historical context and to analyse the meaning or function of lexical items as used in context, an ability to synthesise the results through generalisation and abstraction and to formulate them in a way that is both accurate, i.e. reflects actual usage, and user- or reader-friendly, i.e. is comprehensible to the user/reader. S/he must have encyclopedic or world knowledge and literary skills in order to understand general content words and explain their meaning and their semantic shifts perhaps over many centuries, and technical expertise to understand specialist terms and define their use in specific contexts, again perhaps over time. In respect of etymology s/he must not only have knowledge of older stages of the language and an ability to reconstruct unattested forms, but also knowledge of the other languages that have impacted on the language being documented, or at least familiarity with the scholarly historical dictionaries of those languages. That is a tall order indeed, impossibly tall for any one person today given today‘s demands on and expectations of lexicographers. Teams which include specialists in different areas or at least have access to consultants in such areas alongside generalists are needed if scholarly standards are to be met. The standard of scholarship is primarily a factor of the number and range as well as the knowledge and experience of the lexicographers, as is in large measure the pace of production. In this regard, it cannot be emphasised enough that scholarly historical lexicography of high quality is and will remain very time consuming.