Lecture
Refine
Year of publication
Document Type
- Lecture (73) (remove)
Language
- German (57)
- English (10)
- Spanish (5)
- Multiple languages (1)
Keywords
- Digital Humanities (14)
- Computerunterstützte Lexikographie (9)
- Historische Lexikographie (9)
- historical lexicography (9)
- Digitalisierung (8)
- Edition (8)
- Information und Dokumentation (8)
- Bibliographie (6)
- Deutschland (6)
- Edición digital académica (5)
Has Fulltext
- yes (73)
Institute
- TELOTA - IT/Digital Humanities (23)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (17)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Drittmittelprojekt Proyecto Humboldt Digital (7)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Drittmittelprojekt CLARIN-D (3)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Drittmittelprojekt OCR-D (2)
- Zentrum Sprache (2)
TELOTA: Woher, Wohin?
(2022)
Im Vortrag wurde ausführlich der Grundgedanke hinter dem DTA-Basisformat, d. h. die Etablierung eines reduzierten, zugleich vollständig TEI-konformen XML-Markups für historische Textressourcen, erläutert. ‚Reduziert‛ bedeutet in diesem Zusammenhang, dass immer dort, wo die P5-Richtlinien der TEI mehrere Möglichkeiten zur Annotation gleichartiger Phänomene bieten, innerhalb des DTABf nur genau eine dieser Varianten gewählt werden kann. Ziele dieser Restriktion sind zum einen die Gewährleistung gleichartiger Annotationsweisen innerhalb des DTA-Korpus sowie zum anderen die Erhöhung der Interoperabilität verschiedener TEI-XML-kodierter Textkorpora.
Neben dem DTABf für historische Drucke erwähnte Susanne Haaf in ihrem Vortrag auch die verschiedenen Spezialtagsets innerhalb des DTABf, die beispielsweise für die Annotation von (historischen) Zeitungen, Funeralschriften und seit einiger Zeit auch für die Auszeichnung (neuzeitlicher) Manuskripte entwickelt wurden. Dabei wurde das immer noch sehr breite Spektrum der Phänomene erkennbar, die sich mit dem DTABf standardkonform auszeichnen lassen, wobei die ausführliche und reich illustrierte Dokumentation des DTABf eine zuverlässige Orientierungshilfe bietet. In technischer Hinsicht wurde die Erstellung der umfangreichen DTABf-Dokumentation mit dem Dokumentenformat DITA (Darwin Information Typing Architecture) erläutert, das deren Handhabung und Modularisierung (auch durch Nachnutzende) enorm vereinfacht. Als weitere technische Komponenten stellte Haaf das mit dem Chaining-ODDs-Mechanismus modularisierte ODD, auf dem das DTABf beruht, das RNG-Schema sowie die weitere Spezifikation der Annotationspraxis durch einen Schematron-Regelsatz vor. [2]
Alle Komponenten des DTABf werden mittlerweile über die DTA-Präsenz auf der Entwicklungsplattform GitHub verwaltet und versioniert. Sie können dadurch auch von externen Nutzerinnen und Nutzern kommentiert, heruntergeladen und ggf. auf deren eigene Bedürfnisse hin modifiziert werden. Als weiterer Schritt zur stärkeren Einbindung der wachsenden Nutzer-Community des DTABf ist die Einrichtung einer Steuerungsgruppe mit externen Beteiligten geplant, die über zukünftige Modifikationen und Erweiterungen des Formats entscheiden wird. Darüber hinaus wurde in diesem Zusammenhang die geplante Übersetzung der DTABf-Dokumentation ins Englische, die im Rahmen des EU-Projekts PARTHENOS vorgesehen ist, erwähnt. [3]
Die anschließende Diskussion widmete sich u.a. den Implikationen der zunehmenden Verbreitung des DTABf, das mittlerweile von mehr als 25 externen Projekten genutzt und sowohl vom EU-weiten Infrastrukturprojekt CLARIN als auch von der Deutschen Forschungsgemeinschaft (DFG) empfohlen wird, was einen wichtigen Schritt in Richtung Standardisierung bzw. Etablierung von Best Practices innerhalb der Historischen Linguistik sowie allgemein der textbasiert arbeitenden Philologien, Geschichts- und Kulturwissenschaften darstellt. Das DTABf wurde zwar ursprünglich für die Auszeichnung des primär deutschsprachigen Korpus des Deutschen Textarchivs entwickelt, eignet sich aber ebenso zur Annotation von Textressourcen, die in anderen Sprachen (oder anderen Sprachstufen des Deutschen) verfasst wurden.
Das Wörterbuch der ägyptischen Sprache (belegt vom 3. JT. v. Chr. bis 3. JH. n. Chr.), das von 1926-1931 publiziert wurde, baut auf einem großen Belegarchiv mit über 1,2 Millionen Belegzetteln auf. Nur ein kleiner Bruchteil der Belegstellen konnte zwischen 1935 und 1953 publiziert werden. Mit dem Aufbau eines neuen und nunmehr elektronischen Textcorpus kann in dem lexikographischen Nachfolgeprojekt an der BBAW diesem Ansatz folgend ein nun ebenfalls elektronisches und vollständig corpusbasiertes Lexikon geschaffen werden. In dem Corpus sind neben den facettenreichen Gebrauchsweisen von Wörtern auch semantische und lexikalische Strukturen des Wortschatzes neu recherchier- und analysierbar. Die Polysemie von einzelnen Lemmata kann durch selektive Belegszuweisungen aus den vollständig erfassten Quellentexten nachvollziehbar gemacht werden. Daneben können Kollokationsanalysen und andere lexikalisch-statistische Verfahren im Gesamtcorpus das komplexe Zusammenspiel von Wort- und Textstrukturen verdeutlichen. Durch die Publikationsplattform „Thesaurus Linguae Aegyptiae“ stehen das elektronische Wörterbuch und das Corpus der ägyptischen Texte im Internet für komplexe Abfragen zur Verfügung (http://www.bba.de/tla/).
Die Bedeutungsbeschreibung wird auch in künftigen historischen Wörterbüchern eine wesentliche Rolle spielen. Daher ist zu überlegen, welche Standards aus der Ära des Printwörterbuchs zu übernehmen sind und wie die neuen Möglichkeiten, die das elektronische Medium bietet, am besten genutzt werden können. Es wird dafür plädiert, dass online-Bedeutungswörterbücher stärker durch interne Informationsvernetzungen strukturiert sein sollten, als gegenwärtig üblich ist, da nur so das Potential der digitalen Lexikographie optimal ausgeschöpft werden kann. Dazu wird ein System von semantischen Annotierungen skizziert, welche die Artikel eines Wörterbuchs und besonders auch einzelne Lesarten miteinander verknüpfen und auf diese Weise eine Beschreibung des Wortschatzes als strukturiertes Gebilde ermöglichen. Weiterhin wird nach dem Verhältnis der Bedeutungsbeschreibung zu Korpusdaten sowie anderen lexikographischen Informationstypen gefragt. In diesem Zusammenhang wird die These aufgestellt, dass die lexikographische Bedeutungsbeschreibung der Zukunft nicht, wie in aktuellen online-Angeboten gelegentlich der Fall, als ein Modul unter vielen erscheinen, sondern vielmehr ihre zentrale Position innerhalb des lexikographischen Informationsangebots behalten sollte.
Der Beitrag geht von einer kritischen Bestandaufnahme digitalisierter Lexikografie der Gegenwart aus. Daran anknüpfend sollen pointierte Thesen bzw. Ideen formuliert werden, die auf Erkenntnisse über das Netzwerk europäischer Nachschlagewerke vergangener Jahrhunderte zurückgreifen. Die Thesen werden in zwei Richtungen entfaltet: In eine europäisch-globale Perspektive und in die Perspektive des Wunsches, Nutzerfreundlichkeit und wissenschaftliche Qualität mit einander zu verbinden.
Friedrich Schleiermachers Vorlesungen über die Ästhetik (1819, 1825, 1832/33) sind bislang in verschiedenen Ausgaben erschienen. In diesem Beitrag wird aufgrund einer kurzen Editions- und Rezeptionsgeschichte dieser Vorlesungen untersucht, inwiefern die kanonische Bedeutung eines philosophischen Werks von den technischen und konzeptionellen Bedingungen seiner Edition einerseits und von der fachlich qualifizierten Rezeption andererseits abhängt. Dabei wird insbesondere auf die kanon-wirksamen Potenziale der digitalen Edition eingegangen.
Even a reductionist attempt to define scholarship is clearly fraught with difficulty, but an idealised historical lexicographer-cum-scholar must obviously have – inter alia and at the very least – a profound linguistic and textual knowledge of the language being documented, an ability to understand texts in their historical context and to analyse the meaning or function of lexical items as used in context, an ability to synthesise the results through generalisation and abstraction and to formulate them in a way that is both accurate, i.e. reflects actual usage, and user- or reader-friendly, i.e. is comprehensible to the user/reader. S/he must have encyclopedic or world knowledge and literary skills in order to understand general content words and explain their meaning and their semantic shifts perhaps over many centuries, and technical expertise to understand specialist terms and define their use in specific contexts, again perhaps over time. In respect of etymology s/he must not only have knowledge of older stages of the language and an ability to reconstruct unattested forms, but also knowledge of the other languages that have impacted on the language being documented, or at least familiarity with the scholarly historical dictionaries of those languages. That is a tall order indeed, impossibly tall for any one person today given today‘s demands on and expectations of lexicographers. Teams which include specialists in different areas or at least have access to consultants in such areas alongside generalists are needed if scholarly standards are to be met. The standard of scholarship is primarily a factor of the number and range as well as the knowledge and experience of the lexicographers, as is in large measure the pace of production. In this regard, it cannot be emphasised enough that scholarly historical lexicography of high quality is and will remain very time consuming.