Refine
Year of publication
Document Type
- Lecture (58) (remove)
Language
- German (58) (remove)
Keywords
- Digital Humanities (12)
- Edition (8)
- Information und Dokumentation (8)
- Bibliographie (6)
- Computerunterstützte Lexikographie (6)
- Deutschland (6)
- Geschichtswissenschaft (5)
- Historische Lexikographie (5)
- historical lexicography (5)
- Text Encoding Initiative (4)
- Brief (3)
- Datenmanagement (3)
- Digitalisierung (3)
- Forschungsdaten (3)
- TEI (3)
- online dictionary (3)
- Benutzerforschung (2)
- Biographik (2)
- Datenbankverwaltung (2)
- Datenmodellierung (2)
- Deutsches Wörterbuch <Grimm> (2)
- Digitale Edition (2)
- Forschungsdatenmanagement (2)
- Geisteswissenschaften (2)
- Grammatik (2)
- Grammatik im Wörterbuch (2)
- Lexikographie (2)
- Metadaten (2)
- Patristik (2)
- Schnittstelle (2)
- Strukturierung (2)
- XML (2)
- correspSearch (2)
- dictionary (2)
- digital lexicography (2)
- e-lexicography (2)
- elektronisches Repositorium (2)
- user feedback (2)
- 100 (1)
- Afrasiab (1)
- Altertumswissenschaft (1)
- Altägyptisch (1)
- Antikes Christentum (1)
- Application Programming Interface (1)
- Bedeutung (1)
- Bedeutungsbeschreibung (1)
- Benutzerfreundlichkeit (1)
- Bewusstsein (1)
- Briefsammlung (1)
- CMIF (1)
- Christentum (1)
- Daten (1)
- Datensicherung (1)
- Editionsgeschichte (1)
- Einsprachiges Wörterbuch (1)
- Empathie (1)
- Europäische Lexikographie (1)
- Eusebius, Caesariensis (1)
- Evolution (1)
- Exegese (1)
- Gehirn-Geist-Beziehung (1)
- Gemeinsinn (1)
- Gender (1)
- German loans (1)
- Geschlechterforschung (1)
- Grammatik und Semantik (1)
- Graphdatenbank (1)
- Graphentechnologien (1)
- Historische Sprachwissenschaft (1)
- Homo sapiens (1)
- Hungarian (1)
- Informatik (1)
- Informationskompetenz (1)
- Infrastructure (1)
- Internetwörterbuch (1)
- Juden (1)
- Kafir Kala (1)
- Katene (1)
- Kommentar (1)
- Korpus <Linguistik> (1)
- Künstliche Intelligenz (1)
- Lachmannian method(criticism of) (1)
- Landesbibliographie (1)
- Lehndorff (1)
- Lehndorff (Familie) (1)
- Lehnwort (1)
- Lehnwörterbuch (1)
- Mug (1)
- Netzwerkforschung (1)
- Nordrhein-Westfalen (1)
- Normdatei (1)
- OWID (1)
- Old Egyptian (1)
- Online-Publikation (1)
- Online-Wörterbuch (1)
- Open Science (1)
- Origenes (1)
- Ostpreußen (1)
- Parzival (1)
- Philosophiegeschichte (1)
- Pseudo-Athanasius (1)
- Regesta Imperii (1)
- Regesten (1)
- Regionalbibliographie (1)
- Repository (1)
- Repository <Informatik> (1)
- Retrodigitalisierung (1)
- Schleiermacher (1)
- Schleiermacher, Friedrich (1)
- Schweizerisches Idiotikon (1)
- Semantik (1)
- Semantische Analyse (1)
- Septuaginta (1)
- Slavic languages (1)
- Slawische Sprachen (1)
- Sogdiana (1)
- Sogdisch (1)
- Sprachen in Europa (1)
- Steinort (1)
- Swiss German (1)
- Sztynort (1)
- Technische Infrastruktur (1)
- Text Mining (1)
- Textkritik (1)
- Theorie und Methoden der Sprachwissenschaft (1)
- Ungarisch (1)
- User Interface (1)
- Vernetzung (1)
- Web Services (1)
- Wissenschaftliche Bibliothek (1)
- Wissenschaftliche Kooperation (1)
- Wissenschaftskollaboration (1)
- Wolfram von Eschenbach (1)
- Wörterbuch (1)
- Wörterbuch und Nutzer (1)
- Wörterbuchbenutzung (1)
- Yaghnobi (1)
- Zarafschan-Tal (1)
- Zugriffsstruktur (1)
- antike Philosophie (1)
- corpus (1)
- courtly romance (1)
- critical electronic edition (1)
- deutsche Lehnwörter (1)
- dh-kolloquium (1)
- diachronic dictionary (1)
- digitales Wörterbuch (1)
- digitalisation (1)
- ediarum (1)
- elexiko (1)
- grammar (1)
- italouzbekische archäologische Mission in Samarkand (1)
- lexicography in Europe (1)
- lexikographischer Prozess (1)
- meaning (1)
- new philology (1)
- retro-digitisation (1)
- transmission of manuscripts (1)
- usability (1)
- Ästhetik (1)
Has Fulltext
- yes (58)
Institute
- TELOTA - IT/Digital Humanities (21)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (11)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt CLARIN-D (2)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Akademienvorhaben Anpassungsstrategien der späten mitteleuropäischen Monarchie am preußischen Beispiel 1786 bis 1918 (1)
- Akademienvorhaben Die Griechischen Christlichen Schriftsteller (1)
- Akademienvorhaben Turfanforschung (1)
Vortrag "ediarum-Funktionen 'sex' & 'gender'" beim BBAW-internen Workshop "Gender&Data in DH-Projekten" am 21.03.2024 über die neu entwickelten ediarum-Funktionen "biologisches Geschlecht (sex)" und "Geschlechtsidentität (gender)". Beschreibt die Vorüberlegungen und Anforderungen sowie die Umsetzung im Datenmodell und den ediarum-Aktionen. Abschließend Ausblick auf mögliche Weiterentwicklungen.
Folien zum Kurzvortrag "Gender & Data in correspSearch", der im Rahmen eines Workshops zu Gender & Data am 23.03.2023 an der BBAW gehalten wurden. Der Kurzvortrag gibt einen Überblick darüber, wieviel Briefe von/an Frauen in correspSearch vorhanden sind und wie der Webservice mit Hilfe der Gemeinsamen Normdatei Briefe nach Geschlecht durchsuchbar macht - und mit welchen Limitationen.
Schon vor zehn Jahren konstatierte Patrick Sahle, dass die digitale Edition «von ihren konzeptionellen und technischen Bedingungen her ‹entgrenzt›» ist (Sahle 2013, Bd. 2, S. 219). Er skizzierte fünf «Dimensionen der Offenheit». Dazu gehören erstens die Auswahl der Editionsinhalte, zweitens die Kodierungstiefe, drittens die Unabgeschlossenheit, viertens die Vernetzung mit externen Inhalten und Webservices sowie fünftens die variablen Präsentationsformen der digitalen Edition. Es sind diese Dimensionen, die die digitale Edition dezidiert als eine «offene» charakterisieren. Doch was heisst das konkret: Wie manifestieren sich die genannten Dimensionen in digitalen Editionen? Welche Möglichkeiten bietet die offene Edition – und werden sie alle überhaupt schon genutzt? Welche Herausforderungen stellt die offene Edition an die digitale Methodik und die Editionswissenschaft? Diese Fragen versuchte der Vortrag anhand einiger Beispiele von Editionen neuzeitlicher Texte zu beantworten.
Folien des Abendvortrags im Rahmen der Summer School „Einführung in die digitale Editorik. Briefe mit TEI codieren und publizieren.“ Zürich, 30.08.2023.
Der Band dokumentiert die "Posterstraße", die im Rahmen der Festveranstaltung zum 20-jährigen Jubiläum von TELOTA am 22. Juni 2022 stattfand. Die über 30 Poster stellen die vielfältigen Arbeitsbereiche, Tätigkeitsfelder, Projekte und Kooperationen von TELOTA vor. Sie sind - wie auf der Veranstaltung - in sieben thematische Bereiche gegliedert, die die Arbeit von TELOTA beschreiben: Forschungssoftware, Text & Edition, Visualisierung & Datenanalyse, Infrastruktur, Vernetzung & Kooperationen sowie DH-Community & Lehre.
TELOTA: Woher, Wohin?
(2022)
Love your data!
(2022)
Im Rahmen der Akademievorträge an brandenburgischen Schulen 2021/22 bot die Initiative "Forschungsdatenmanagement" den Schülerinnen und Schülern einen Einblick in die Themen Datenorganisation und -sicherung.
Denn die Menge an digitalen Daten auf dieser Erde wächst täglich. Umso wichtiger ist das Management der eigenen Daten, um den Überblick zu behalten – privat, aber auch im Studium oder Berufsleben. In der Wissenschaftswelt geben die „Leitlinien zur Sicherung guter wissenschaftlicher Praxis“ den sorgsamen Umgang mit den sogenannten „Forschungsdaten“ sogar vor. In den Geistes- und Kulturwissenschaften versteht man unter dem Begriff alle Quellen/Materialien und Ergebnisse, die im Zusammenhang einer Forschungsfrage gesammelt, erzeugt, beschrieben und/oder ausgewertet werden. Wie geht man mit diesen Daten am besten um und welche Tipps und Tricks kann man sich hier für seine private Datenorganisation abschauen? Der Vortrag sensibilisiert für die Relevanz von Datenmanagement und gibt einen datenzentrierten Einblick in (geistes-)wissenschaftliche Forschungsprozesse.
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.
Im Jahr 2021 lädt die Initiative "Forschungsdatenmanagement" alle Mitarbeitenden der BBAW zu einer Veranstaltungsreihe mit dem Titel "Forschungsdatenmanagement kompakt" ein.
Die Präsentationsfolien der ersten Online-Veranstaltung am 11.02.2021 führen in die Grundlagen und Grundbegriffe des Forschungsdatenmanagements ein und stellen die Ziele der Initiative vor.
Digitale Technologien und Formate eröffnen Museen neue Formate der Interaktion, Interpretation und Kommunikation. Im Vergleich zu objektbezogener Forschung im Museum, die durch den Einsatz digitaler Erschließungssysteme, der Nutzung und Publikation von digitalen Reproduktionen und der Integration von digital gestützten Untersuchungsmethoden eine methodische Erweiterung erfährt, wird die Entwicklung digitaler Kommunikations- und Vermittlungsformate bisher eher selten als transdisziplinärer Forschungsauftrag im Museum verstanden. Mit museum4punkt0 wurde 2017 erstmals in Deutschland ein museales Forschungsprojekt initiiert, welches Kulturinstitutionen verschiedener Sparten, Größen und institutionellen Strukturen mit dem Ziel der Entwicklung und Beforschung digitaler Anwendungen in einem Verbund vereint. Zentrales Merkmal des Verbundes ist die Vernetzung und gegenseitige Unterstützung der beteiligten Institutionen bei der Entwicklung und Evaluation von digitalen Vermittlungs- und Kommunikationsangeboten. Untersucht wird, wie neueste digitale Technologien effektiv für die Aufgaben von Museen, insbesondere in der Wissensvermittlung, nutzbar gemacht werden können.
Was macht gute Software aus? Wie stellt man sicher, dass man die Bedürfnisse der Benutzer und anderen Stakeholder richtig versteht, priorisiert, kommuniziert und umsetzt? Wie definiert man Balance und Zeitablauf für Planung, Design, Architektur, und Implementierung? Was muss man modellieren und was nicht? Braucht man User Stories oder Use Cases? Und wer macht was in einem kleinen Team? Ist häufige Iteration die Lösung aller Probleme? Dieser Vortrag versucht aufzuzeigen, worauf es wirklich ankommt – in einem Spagat zwischen klassischem Requirements Engineering, agiler Softwareentwicklung und modernem Interaktionsdesign.
Die digitalen Geisteswissenschaften beschäftigen sich mit der Erforschung von Methoden, die für die Erstellung von formalen Modellen in den Geisteswissenschaften nötig sind, sowie mit deren Anwendung auf konkrete geisteswissenschaftliche Forschungsfragen. Das Web of Data (Semantic Web) verspricht mittels formalen Modellen die Welt zu beschreiben und Forschungsdaten auf einer semantischen Ebene so zu strukturieren, dass Interoperabilität, Nachvollziehbarkeit und Nachnutzung gewährleistet sind.
Am Beispiel einer Ontologie zur virtuellen Rekonstruktion des Nachlasses von Stefan Zweig sowie eines konzeptionelles Datenmodell zur Beschreibung von Transaktionen in historischen Rechnungsunterlagen wird der Vortrag Herausforderungen und Möglichkeiten des Web of Data veranschaulichen. Die Diskussion erstreckt sich von der Forschungsfrage der jeweiligen Fachdomäne, über das Ontology Engineering bis hin zur Anwendung der Ontologie im Projektkontext und der Modellierung der Daten als Linked Open Data Ressource.
Während die Netzwerkanalyse in den Sozialwissenschaften seit den Arbeiten Jacob Levy Morenos zu Anfang des 20. Jh.s fester Bestandteil des methodischen Repertoires ist, hat sie sich im Laufe der letzten 10 Jahren auch in anderen Wissenschaftszweigen, darunter auch Archäologie und Geschichtswissenschaften, als Methodik etabliert. Doch was beinhaltet die Analyse von Netzwerken jenseits einer rein metaphorischen Nutzung des Begriffes nun genau? Für welche Fragestellungen ist diese Methodik geeignet, und wo liegen die Grenzen der Anwendung? Wie lässt sich die Entwicklung und rege Anwendung in Fachdisziplinen wie Soziologie und Politologie mit der Erforschung (prä-)historischer Gesellschaften vereinbaren? Anhand verschiedener Beispiele aus Archäologie und Geschichte werden diese und weitere Fragen diskutiert und eine Einführung in den derzeitigen Stand der archäologisch-historischen Netzwerkforschung gegeben.
Der Vortrag bietet eine Rückschau auf die Jahreskonferenz der Digital Humanities im deutschsprachigen Raum zu dem Thema "Kritik der digitalen Vernunft", die von 26.2. bis 2.3.2018 in Köln stattfand. Zunächst wird ein Überblick zu den Konferenzbeiträgen der Mitarbeiterinnen und Mitarbeiter der BBAW gegeben. Die Bandbreite der Beiträge aus dem Haus umfasst sowohl praxisorientierte Vorträge, in denen die Entwicklung digitaler Editionen und Korpora thematisiert wird, als auch theoretische Reflexionen. Im Anschluss formulieren die Vortragenden die wesentlichen Beobachtungen und Eindrücke zur Frage, wo die verschiedenen Bereiche der Digital Humanities (z. B. digitale Editionen, quantitative Textanalyse, Softwareentwicklung) im Moment stehen und welche Tendenzen sich für die nahe Zukunft abzeichnen.
Graphentechnologien in den Digitalen Geisteswissenschaften. Die RI als Netzwerk von Entitäten
(2017)
Folien des Vortrags „Graphentechnologien in den digitalen Geisteswissenschaften“ von Dr. Andreas Kuczera im Rahmen des DH-Kolloquiums an der BBAW am 1.12.2017. Anhand verschiedener Beispiele aus den Projekten Regesta Imperii und Nomen et Gens zeigt der Vortrag wie Graphentechnologien für geisteswissenschaftliche Fragestellungen verwendet werden könnten.
Der Vortrag gibt zunächst einen Einblick in die Erstellung TEI-XML-basierter Text-Editionen mit einem Fokus auf Handschriften des 19. Jahrhunderts (am Beispiel der Nachschriften zu Humboldts Kosmos-Vorlesungen 1827/28 in Berlin). Anhand dessen wird erläutert, inwiefern sich die Repräsentation historischer Textzeugen im Zuge des Medien- bzw. Paradigmenwechsels von printorientierten Formaten hin zu genuin digitalen Editionsformen verändert. Dies hat zum einen Auswirkungen auf Produktionsseite, d.h. auf die editorische Praxis, vor allem aber – und hierauf wird der Schwerpunkt des Vortrags liegen – auf die Rezeptionsseite: Digitale Edition müssen nicht nur anders konzipiert und produziert, sondern auch anders gelesen werden, will man das Potential der (in der germanistischen Editionsphilologie teilweise immer noch:) ‘neuen’ Medien ausschöpfen. Die Editionspraxis schreitet von der linearen Auszeichnung textoberflächlicher Phänomene bzw. deren an- oder nachgelagerter diskursiver, spezifischer Beschreibung weiter in Richtung standardisierter, formalisierter Annotation, die in die mehrdimensionale, vielschichtige Tiefe des Textzeugen führt.
Friedrich Schleiermachers Vorlesungen über die Ästhetik (1819, 1825, 1832/33) sind bislang in verschiedenen Ausgaben erschienen. In diesem Beitrag wird aufgrund einer kurzen Editions- und Rezeptionsgeschichte dieser Vorlesungen untersucht, inwiefern die kanonische Bedeutung eines philosophischen Werks von den technischen und konzeptionellen Bedingungen seiner Edition einerseits und von der fachlich qualifizierten Rezeption andererseits abhängt. Dabei wird insbesondere auf die kanon-wirksamen Potenziale der digitalen Edition eingegangen.
Einführung Textkritik
(2017)
Im Vortrag wurde ausführlich der Grundgedanke hinter dem DTA-Basisformat, d. h. die Etablierung eines reduzierten, zugleich vollständig TEI-konformen XML-Markups für historische Textressourcen, erläutert. ‚Reduziert‛ bedeutet in diesem Zusammenhang, dass immer dort, wo die P5-Richtlinien der TEI mehrere Möglichkeiten zur Annotation gleichartiger Phänomene bieten, innerhalb des DTABf nur genau eine dieser Varianten gewählt werden kann. Ziele dieser Restriktion sind zum einen die Gewährleistung gleichartiger Annotationsweisen innerhalb des DTA-Korpus sowie zum anderen die Erhöhung der Interoperabilität verschiedener TEI-XML-kodierter Textkorpora.
Neben dem DTABf für historische Drucke erwähnte Susanne Haaf in ihrem Vortrag auch die verschiedenen Spezialtagsets innerhalb des DTABf, die beispielsweise für die Annotation von (historischen) Zeitungen, Funeralschriften und seit einiger Zeit auch für die Auszeichnung (neuzeitlicher) Manuskripte entwickelt wurden. Dabei wurde das immer noch sehr breite Spektrum der Phänomene erkennbar, die sich mit dem DTABf standardkonform auszeichnen lassen, wobei die ausführliche und reich illustrierte Dokumentation des DTABf eine zuverlässige Orientierungshilfe bietet. In technischer Hinsicht wurde die Erstellung der umfangreichen DTABf-Dokumentation mit dem Dokumentenformat DITA (Darwin Information Typing Architecture) erläutert, das deren Handhabung und Modularisierung (auch durch Nachnutzende) enorm vereinfacht. Als weitere technische Komponenten stellte Haaf das mit dem Chaining-ODDs-Mechanismus modularisierte ODD, auf dem das DTABf beruht, das RNG-Schema sowie die weitere Spezifikation der Annotationspraxis durch einen Schematron-Regelsatz vor. [2]
Alle Komponenten des DTABf werden mittlerweile über die DTA-Präsenz auf der Entwicklungsplattform GitHub verwaltet und versioniert. Sie können dadurch auch von externen Nutzerinnen und Nutzern kommentiert, heruntergeladen und ggf. auf deren eigene Bedürfnisse hin modifiziert werden. Als weiterer Schritt zur stärkeren Einbindung der wachsenden Nutzer-Community des DTABf ist die Einrichtung einer Steuerungsgruppe mit externen Beteiligten geplant, die über zukünftige Modifikationen und Erweiterungen des Formats entscheiden wird. Darüber hinaus wurde in diesem Zusammenhang die geplante Übersetzung der DTABf-Dokumentation ins Englische, die im Rahmen des EU-Projekts PARTHENOS vorgesehen ist, erwähnt. [3]
Die anschließende Diskussion widmete sich u.a. den Implikationen der zunehmenden Verbreitung des DTABf, das mittlerweile von mehr als 25 externen Projekten genutzt und sowohl vom EU-weiten Infrastrukturprojekt CLARIN als auch von der Deutschen Forschungsgemeinschaft (DFG) empfohlen wird, was einen wichtigen Schritt in Richtung Standardisierung bzw. Etablierung von Best Practices innerhalb der Historischen Linguistik sowie allgemein der textbasiert arbeitenden Philologien, Geschichts- und Kulturwissenschaften darstellt. Das DTABf wurde zwar ursprünglich für die Auszeichnung des primär deutschsprachigen Korpus des Deutschen Textarchivs entwickelt, eignet sich aber ebenso zur Annotation von Textressourcen, die in anderen Sprachen (oder anderen Sprachstufen des Deutschen) verfasst wurden.
(Open-Source-)OCR-Workflows
(2017)
Slides for the OCR-D talk at the Digital Humanities Kolloquium at the Berlin-Brandenburg Academy of Sciences and Humanities (4th August 2017).
Folien zum Vortrag "Digitale Briefeditionen und ihre Vernetzung" im Rahmen der Ringvorlesung "Transdisziplinäre Aspekte Digitaler Methodik in den Geistes- und Kulturwissenschaften" an der Johannes Gutenberg-Universität Mainz am 3. Mai 2017. Der Vortrag erläutert die aktuellen Entwicklungen digitaler Briefeditionen, u.a. werden User Interfaces und ihr Nutzen für die digitale Briefedition vorgestellt. Darüber hinaus diskutiert der Vortrag, wie mit Hilfe von Application Programming Interfaces (APIs) die digitale Briefedition umfassend vernetzt werden kann. Ein Exkurs widmet sich dabei dem Webservice "correspSearch".
Folien zu einem Vortrag im Rahmen des Digital-Humanities-Kolloquium an der BBAW am 7.7.2017. Der Vortrag erläutert, ausgehend von editionswissenschaftlichen Entwicklungen der 1980er und 1990er Jahre, wie die "Kopfdaten" eines Briefes nach den Richtlinien der Text Encoding Initiative (TEI) kodiert werden können. Insbesondere wird auf das TEI-Element correspDesc eingegangen und die Kodierung anhand eines Beispiels veranschaulicht. Darüber hinaus wird der Mehrwert von Briefmetadaten sowohl für die digitale Briefedition an sich als auch zu ihrer Vernetzung diskutiert. Dabei wird vor allem auf das Correspondence Metadata Interchange Format (CMIF) und den Webservice correspSearch eingegangen.
Da einerseits die informelle Partizipation an der Kultur des Internet durch Digital Natives nicht unmittelbar auf das Erlernen komplexer wissenschaftlicher Informations- und Medienkompetenz übertragbar ist, andererseits im geschichtswissenschaftlichen akademischen Unterricht die Komplexität digitaler und/oder virtueller geschichtswissenschaftlicher Ressourcen kaum zu vermitteln ist, müssen Bibliotheken gemeinsam mit den Fachbereichen effiziente Strategien entwerfen, Studierenden geschichtswissenschaftliche Informationskompetenz nachhaltig zu vermitteln, die ein erfolgreiches Studium ermöglichen. Hierfür bietet das Modell der Teaching Library ein flexibel zu handhabendes Instrument. Die traditionelle produktorientierte "Datenbankschulung" wird ersetzt durch den kompetenzorientierten Umgang mit Fachressourcen im geschichtswissenschaftlichen Arbeitsprozess. Zu den traditionellen geschichtswissenschaftlichen Fachbibliographien treten immer komplexere Quellendatenbanken, die schon heute eine ganz neue Qualität quellenbasierten historischen Arbeitens ermöglichen. In diesem Sinne wird die geschichtswissenschaftliche Fachbibliographie der Zukunft im Verständnis eines erweiterten Bibliographiebegriffs eine Scharnierfunktion zwischen unterschiedlichen Quellendatenbanken, Virtuellen Fachbibliotheken, Virtuellen Forschungsumgebungen und Kulturportalen einnehmen.
Die deutschen Geschichtsbibliographien stehen aktuell vor einigen Herausforderungen: Sie sind von einer großen Heterogenität hinsichtlich ihrer Sammelprofile geprägt, kaum mit dem Bibliothekswesen vernetzt und müssen sich gegenüber anderen Recherchemitteln behaupten. Die Erkenntnis, dass dieser Situation gemeinsam besser begegnet werden kann, hat die beiden großen deutschen Bibliographien der Geschichtswissenschaft, die Historische Bibliographie und die Jahresberichte für Deutsche Geschichte, dazu bewogen, sich mit einer epochalen Spezialbibliographie, der Bibliographie zur Zeitgeschichte, und der Bayerischen Staatsbibliothek als Sondersammelgebietsbibliothek für Geschichte zusammenzutun. In einem gemeinsamen DFG-Projekt werden derzeit die organisatorischen und konzeptionellen Grundsteine für eine künftig engere Zusammenarbeit sowie eine noch zu schaffende "Deutsche Historische Bibliographie" gelegt. Während der ersten zwei Projektjahre konnten sich die Partner bereits darauf einigen, gemeinsam in einem Bibliotheksverbund zu katalogisieren und arbeitsteilig Zeitschriften auszuwerten, außerdem wurde eine gemeinsame Fachsystematik konzipiert, die einzelnen Bibliographien wurden an verschiedenen Stellen optimiert und ihre Datenbestände mit Suchmaschinentechnologie indiziert und in Fachportale eingebunden. In der zweiten Projektphase sollen diese Arbeiten fortgeführt und die Etablierung einer "Deutschen Historischen Bibliographie" vorbereitet werden. Es ist dabei das Ziel, ein so funktionales wie benutzerfreundliches Serviceangebot der historisch-bibliographischen Fachinformation zu schaffen. In der Präsentation wird ein breites, den state-of-the-art moderner Informationstechnologien berücksichtigendes Feature-Spektrum vorgestellt, das einer "geschichtswissenschaftlichen Fachbibliographie der Zukunft" gerecht werden soll. In welchem Umfang dies tatsächlich realisiert werden kann, wird jedoch noch intensiv zu prüfen sein.
Die Bedeutungsbeschreibung wird auch in künftigen historischen Wörterbüchern eine wesentliche Rolle spielen. Daher ist zu überlegen, welche Standards aus der Ära des Printwörterbuchs zu übernehmen sind und wie die neuen Möglichkeiten, die das elektronische Medium bietet, am besten genutzt werden können. Es wird dafür plädiert, dass online-Bedeutungswörterbücher stärker durch interne Informationsvernetzungen strukturiert sein sollten, als gegenwärtig üblich ist, da nur so das Potential der digitalen Lexikographie optimal ausgeschöpft werden kann. Dazu wird ein System von semantischen Annotierungen skizziert, welche die Artikel eines Wörterbuchs und besonders auch einzelne Lesarten miteinander verknüpfen und auf diese Weise eine Beschreibung des Wortschatzes als strukturiertes Gebilde ermöglichen. Weiterhin wird nach dem Verhältnis der Bedeutungsbeschreibung zu Korpusdaten sowie anderen lexikographischen Informationstypen gefragt. In diesem Zusammenhang wird die These aufgestellt, dass die lexikographische Bedeutungsbeschreibung der Zukunft nicht, wie in aktuellen online-Angeboten gelegentlich der Fall, als ein Modul unter vielen erscheinen, sondern vielmehr ihre zentrale Position innerhalb des lexikographischen Informationsangebots behalten sollte.
Die Benutzung von Onlinewörterbüchern ist bislang wenig erforscht. Am Institut für Deutsche Sprache in Mannheim wurde versucht, diese Forschungslücke mit einem Projekt zur Benutzungsforschung zumindest zum Teil schließen (s. www.benutzungsforschung.de). Die empirischen Studien wurden methodisch sowohl in Form von Onlinefragebögen, die neben befragenden auch experimentelle Elemente enthielten, als auch anhand eines Labortests (mit Eyetracking-Verfahren) durchgeführt. Die erste Studie untersuchte generell die Anlässe und sozialen Situationen der Verwendung von Onlinewörterbüchern sowie die Ansprüche, die Nutzer an Onlinewörterbücher stellen. An der zweisprachigen Onlinestudie (deutsch/englisch) nahmen international fast 700 Probanden teil. Durch die hohe Resonanz auf die erste Studie und den daraus folgenden Wunsch, die gewonnenen Informationen empirisch zu vertiefen, richtet sich auch die die zweite Studie an ein internationales Publikum und schloss inhaltlich an die erste Studie an. Später konzentrierten sich die Studien auf monolinguale deutsche Onlinewörterbücher wie elexiko (Studien 3 und 4), sowie auf das Wörterbuchportal OWID (Studie 5). Im Vortrag werden ausgewählte Ergebnisse der verschiedenen Studien vorgestellt.
In aktuellen Internetwörterbüchern werden die Wörterbuchnutzer mithilfe eines breiten Spektrums an Möglichkeiten in die lexikographische Arbeit einbezogen (z. B. Fehlermeldungen, eigene Einträge) bzw. mithilfe verschiedener Mittel an das Wörterbuch gebunden (z. B. Newsletter, Blogs). Zwischen wirklicher Bottom-up-Lexikographie und Methoden der Nutzerbindung bei kommerziellen Onlinewörterbüchern bewegen sich also die vielfältigen Möglichkeiten des Nutzerfeedbacks, das in vielen Fällen auf den Entstehungsprozess des jeweiligen Wörterbuchs Einfluss nimmt. In diesem Vortrag wird vorgestellt, an welchen Stellen des lexikographischen Prozesses von Internetwörterbüchern sich „die Öffentlichkeit“ einbringen kann und wie sich dieses Feedback auf den Prozess der Erarbeitung solcher Wörterbücher auswirkt. Dabei werden zugleich die verschiedenen Phasen des lexikographischen Prozesses von Internwörterbüchern vorgestellt und die für Wörterbücher in diesem Medium spezifischen Herstellungsbedingungen diskutiert.
Wie jedes Wörterbuch steht auch die Neubearbeitung des Grimm vor der Schwierigkeit dem Lexikonparameter der Akkuratheit der Information Genüge zu tun und gleichzeitig die Informationsdarstellung und Textorganisation aus ökonomischen Gründen so knapp wie möglich zu halten. Die sich daraus ergebenden Darstellungs- und Ausdrucksformen (unterschiedliche Schrifttypen und Schriftneigungen, Kapitälchen, Abkürzungen, runde, eckige oder spitze Klammern, Absätze, Gliederungsmarken und vieles andere mehr) helfen, die Artikelkonstituenten zu definieren und Informationstypen zu unterscheiden. Aus persönlicher Erfahrung weiß ich, daß selbst erfahrene Nutzer des Deutschen Wörterbuchs nicht alle angebotenen Informationen erkennen oder die verschiedenen Ausdrucksformen richtig zu deuten wissen. An ausgewählten Beispielen aus der Neubearbeitung soll das z. T. diffizile und komplexe System der Darstellungs- und Ausdrucksformen, das auch als Reaktion auf den etwas sorglosen Umgang der Brüder Grimm in den ersten Bänden der Erstauflage entstanden ist, vorgestellt werden, das sich zwar um äußerste Genauigkeit bemüht, für den Nutzer aber auch manchmal schwer zu durchschauen ist. Der Ausblick auf die Möglichkeiten, die ein elektronisch-lexikographisches System in dieser Hinsicht bieten könnte, schließt den Vortrag ab.
Vor allem in älteren Wörterbüchern mit philologischer Ausrichtung ist die Mikrostruktur der Artikel häufig diskursiv und unsystematisch. Eine automatisierte Digitalisierung solcher Wörterbücher mit dem Ziel, ihre logische Struktur zu kodieren, ist nicht möglich; in vielen Fällen ist schon ein Parser für ein manuell nachzubearbeitendes Rohdigitalisat kein realistisches Ziel, weil die Angabetypen des Wörterbuchs nicht klar voneinander abgrenzbar und in den Einzelartikeln nicht eindeutig identifizierbar sind. In solchen Fällen wirft auch eine nachträgliche manuelle Formalisierung der Mikrostruktur große lexikografische Probleme auf. Für komplexere Anwendungsszenarien wie etwa Abfragen in Webanwendungen kann es dennoch unumgänglich sein, wenigstens sämtliche relevanten in den Artikeln diskutierten Wortformen mit grundsätzlichen diasystematischen und morphologischen Informationen sowie ihren Relationen zueinander in einem maschinell lesbaren Format strukturiert zu repräsentieren, etwa durch datenzentrierte XML-Dokumente. Der Vortrag versucht, die lexikografischen und technischen Möglichkeiten und Grenzen einer solchen teilweisen und manuellen Retrodigitalisierung am Beispiel von Erfahrungen mit einem älteren Wörterbuch deutscher Lehnwörter im Slovenischen (Striedter-Temps 1963) auszuloten. Das Wörterbuch soll in ein Portal von Lehnwörterbüchern mit Deutsch als gemeinsamer Gebersprache eingebunden werden. Die Einzelartikel werden dem Benutzer als Bilddigitalisate zur Verfügung gestellt; die zusätzliche textuelle Retrodigitalisierung ist jedoch für komplexere, insbesondere auch für wörterbuchübergreifende und portalweite, Suchabfragen erforderlich.
Das Großwörterbuch des Ungarischen (GWU) ist grundsätzlich ein Bedeutungswörterbuch, das auch eine historische Dimension hat. Einerseits sind im Wörterbuch auch zahlreiche Stichwörter zu finden, die im Sprachgebrauch der früheren Jahrzehnte der bearbeiteten Periode (von 1772 bis zunächst 2000) wichtig gewesen sind. Andererseits kann die Bedeutungsstruktur vieler auch heute gebrauchter Wörter um Bedeutungen ergänzt werden, die nur aufgrund älterer Textstellen des Corpus erschlossen werden können. Diese Veränderungen im lexikalischen Bestand und in der Wortsemantik weisen natürlich auch auf aussersprachliche Umstände hin, aber auch auf das Verhältnis zwischen Innovation und Entlehnung als Möglichkeiten zur Erweiterung des Wortschatzes. Die lexikologische Markierung, d. h. die Bezeichnung der sprachlichen Verwendungsmöglichkeiten (Stile) und Fachbezogenheit der einzelnen Wörter (Bedeutungen) in einem historisch geprägten Bedeutungswörterbuch ist oft recht problematisch. Dem Lexikographen fehlt nämlich die persönliche Erfahrung des Sprachgebrauches einer früheren Synchronie, so ist er gezwungen, mit einer „zusätzlichen, erweiterten“ Kompetenz diese wichtigen Züge der behandelten Lexeme zu beschreiben. Anführungen zu unterschiedlichen grammatischen Merkmalen der Stichwörter können einem Wörterbuch nicht fehlen. Die Art und der Umfang dieser Verweise können die richtige Einschätzung der Verwendungsmöglichkeiten eines Wortes auch für ältere Perioden ziemlich gut fördern. Darüber hinaus können mit Hilfe der Wörterbuchgrammatik ggf. auch Veränderungen im grammatischen System dargestellt werden.
Das Schweizerische Idiotikon dokumentiert die deutsche Sprache in der Schweiz vom Jahr 1300 bis heute. Es ist mit bisher 16 Bänden (Wortstrecke A – W) das grösste Regionalwörterbuch des Deutschen. An ihm wird seit genau 150 Jahren kontinuierlich gearbeitet, in ca. 12 Jahren soll der 17. und letzte Band abgeschlossen sein. Zur einfacheren Benutzung und zur grösseren Verbreitung des gedruckten Werkes sowohl in der wissenschaftlichen Gemeinschaft wie auch in der interessierten weiteren Öffentlichkeit wurde vor 3 Jahren mit der Digitalisierung begonnen. Die komplexe Mikrostruktur der Wörterbuchartikel sowie die beschränkten personellen Ressourcen, die in erster Linie für die Weiterarbeit am letzten Band eingesetzt werden müssen, liess eine Volltextdigitalisierung mit ausgebautem TEI-Tagging als zu langwierig und zu ambitiös erscheinen. Daher wurde die Digitalisierung schrittweise angegangen, indem zuerst die Zugriffstrukturen über mit vielen Schreib- und Aussprachevarianten versehene digitale Register ausgebaut wurden. In einem zweiten Schritt wurden die Register mit den digitalisierten Abbildern der gedruckten Buchseiten verbunden, und in einem dritten, gegenwärtig realisierten Schritt wird die Suche über einen mittels OCR erstellten Volltext implementiert.
Das Wörterbuch der ägyptischen Sprache (belegt vom 3. JT. v. Chr. bis 3. JH. n. Chr.), das von 1926-1931 publiziert wurde, baut auf einem großen Belegarchiv mit über 1,2 Millionen Belegzetteln auf. Nur ein kleiner Bruchteil der Belegstellen konnte zwischen 1935 und 1953 publiziert werden. Mit dem Aufbau eines neuen und nunmehr elektronischen Textcorpus kann in dem lexikographischen Nachfolgeprojekt an der BBAW diesem Ansatz folgend ein nun ebenfalls elektronisches und vollständig corpusbasiertes Lexikon geschaffen werden. In dem Corpus sind neben den facettenreichen Gebrauchsweisen von Wörtern auch semantische und lexikalische Strukturen des Wortschatzes neu recherchier- und analysierbar. Die Polysemie von einzelnen Lemmata kann durch selektive Belegszuweisungen aus den vollständig erfassten Quellentexten nachvollziehbar gemacht werden. Daneben können Kollokationsanalysen und andere lexikalisch-statistische Verfahren im Gesamtcorpus das komplexe Zusammenspiel von Wort- und Textstrukturen verdeutlichen. Durch die Publikationsplattform „Thesaurus Linguae Aegyptiae“ stehen das elektronische Wörterbuch und das Corpus der ägyptischen Texte im Internet für komplexe Abfragen zur Verfügung (http://www.bba.de/tla/).
Überlappungen zwischen Grammatik und Wörterbuch sind kaum vermeidbar und gelten im Allgemeinen auch als wünschenswert und für den Nutzer als praktisch sinnvoll. Wörterbücher enthalten in der Regel grammatische Zusatzinformationen (z.B. zur Wortart und Flexion) in unterschiedlichem Umfang und auch in unterschiedlicher Darstellungsweise bzw. unter Verwendung unterschiedlicher Terminologien. Digitale Wörterbücher müssen hier im Gegensatz zu ‚klassischen‘ gedruckten Werken nicht auf kondensierte und mit Abkürzungen verknappte Informationen setzen, sondern können im Prinzip zu jedem Lemma eine umfassende Darstellung bieten. Es soll anhand von Beispielen der Frage nachgegangen werden, wie existierende digitale Wörterbücher mit der Integration grammatischer Informationen verfahren und welche Darstellungsmöglichkeiten sie dabei nutzen. Zudem wird gefragt, wie diese Inhalte für verschiedene Nutzertypen innerhalb eines Online-Wörterbuches dargeboten werden könnten.
Der Beitrag geht von einer kritischen Bestandaufnahme digitalisierter Lexikografie der Gegenwart aus. Daran anknüpfend sollen pointierte Thesen bzw. Ideen formuliert werden, die auf Erkenntnisse über das Netzwerk europäischer Nachschlagewerke vergangener Jahrhunderte zurückgreifen. Die Thesen werden in zwei Richtungen entfaltet: In eine europäisch-globale Perspektive und in die Perspektive des Wunsches, Nutzerfreundlichkeit und wissenschaftliche Qualität mit einander zu verbinden.
Nach Beendigung der Neubearbeitung des Deutschen Wörterbuchs werden die lexikographischen Arbeiten im Rahmen eines digitalen lexikalischen Systems fortgeführt. Welche Perspektiven sich insbesondere für die historische Lexikographie durch die neuen Arbeitsbedingungen eröffnen, ist Thema eines Workshops, den die Arbeitsstelle „Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm - Neubearbeitung” veranstaltet. Die Vorträge beleuchten das Thema unter verschiedenen Aspekten. So soll der spezifische Informationsgehalt von Artikeln in historischen Wörterbüchern illustriert und mit Angaben in gegenwartssprachlichen Wörterbüchern verglichen werden. Darüber hinaus werden Überlegungen zur Erschließung und Nutzung von Quellen sowie zur Erarbeitung und Präsentation lexikographischer Informationen im digitalen Zeitalter vorgestellt. Dazu gehört auch ein Überblick über bereits vorhandene elektronische Redaktionssysteme. Ein Vortrag, in dem es um Desiderata nach dem Ende der DWB-Neubearbeitung gehen soll, beschließt die Veranstaltung.