Refine
Year of publication
Document Type
- Lecture (57) (remove)
Language
- German (57) (remove)
Keywords
- Digital Humanities (11)
- Information und Dokumentation (8)
- Edition (7)
- Bibliographie (6)
- Computerunterstützte Lexikographie (6)
- Deutschland (6)
- Geschichtswissenschaft (5)
- Historische Lexikographie (5)
- historical lexicography (5)
- Brief (3)
- Datenmanagement (3)
- Digitalisierung (3)
- Forschungsdaten (3)
- TEI (3)
- Text Encoding Initiative (3)
- online dictionary (3)
- Benutzerforschung (2)
- Biographik (2)
- Datenbankverwaltung (2)
- Datenmodellierung (2)
- Deutsches Wörterbuch <Grimm> (2)
- Digitale Edition (2)
- Forschungsdatenmanagement (2)
- Geisteswissenschaften (2)
- Grammatik (2)
- Grammatik im Wörterbuch (2)
- Lexikographie (2)
- Metadaten (2)
- Patristik (2)
- Schnittstelle (2)
- Strukturierung (2)
- XML (2)
- correspSearch (2)
- dictionary (2)
- digital lexicography (2)
- e-lexicography (2)
- elektronisches Repositorium (2)
- user feedback (2)
- 100 (1)
- Afrasiab (1)
- Altertumswissenschaft (1)
- Altägyptisch (1)
- Antikes Christentum (1)
- Application Programming Interface (1)
- Bedeutung (1)
- Bedeutungsbeschreibung (1)
- Benutzerfreundlichkeit (1)
- Bewusstsein (1)
- Briefsammlung (1)
- CMIF (1)
- Christentum (1)
- Daten (1)
- Datensicherung (1)
- Editionsgeschichte (1)
- Einsprachiges Wörterbuch (1)
- Empathie (1)
- Europäische Lexikographie (1)
- Eusebius, Caesariensis (1)
- Evolution (1)
- Exegese (1)
- Gehirn-Geist-Beziehung (1)
- Gemeinsinn (1)
- Gender (1)
- German loans (1)
- Geschlechterforschung (1)
- Grammatik und Semantik (1)
- Graphdatenbank (1)
- Graphentechnologien (1)
- Historische Sprachwissenschaft (1)
- Homo sapiens (1)
- Hungarian (1)
- Informatik (1)
- Informationskompetenz (1)
- Infrastructure (1)
- Internetwörterbuch (1)
- Juden (1)
- Kafir Kala (1)
- Katene (1)
- Kommentar (1)
- Korpus <Linguistik> (1)
- Künstliche Intelligenz (1)
- Lachmannian method(criticism of) (1)
- Landesbibliographie (1)
- Lehndorff (1)
- Lehndorff (Familie) (1)
- Lehnwort (1)
- Lehnwörterbuch (1)
- Mug (1)
- Netzwerkforschung (1)
- Nordrhein-Westfalen (1)
- Normdatei (1)
- OWID (1)
- Old Egyptian (1)
- Online-Publikation (1)
- Online-Wörterbuch (1)
- Open Science (1)
- Origenes (1)
- Ostpreußen (1)
- Parzival (1)
- Philosophiegeschichte (1)
- Pseudo-Athanasius (1)
- Regesta Imperii (1)
- Regesten (1)
- Regionalbibliographie (1)
- Repository (1)
- Repository <Informatik> (1)
- Retrodigitalisierung (1)
- Schleiermacher (1)
- Schleiermacher, Friedrich (1)
- Schweizerisches Idiotikon (1)
- Semantik (1)
- Semantische Analyse (1)
- Septuaginta (1)
- Slavic languages (1)
- Slawische Sprachen (1)
- Sogdiana (1)
- Sogdisch (1)
- Sprachen in Europa (1)
- Steinort (1)
- Swiss German (1)
- Sztynort (1)
- Technische Infrastruktur (1)
- Text Mining (1)
- Textkritik (1)
- Theorie und Methoden der Sprachwissenschaft (1)
- Ungarisch (1)
- User Interface (1)
- Vernetzung (1)
- Web Services (1)
- Wissenschaftliche Bibliothek (1)
- Wissenschaftliche Kooperation (1)
- Wissenschaftskollaboration (1)
- Wolfram von Eschenbach (1)
- Wörterbuch (1)
- Wörterbuch und Nutzer (1)
- Wörterbuchbenutzung (1)
- Yaghnobi (1)
- Zarafschan-Tal (1)
- Zugriffsstruktur (1)
- antike Philosophie (1)
- corpus (1)
- courtly romance (1)
- critical electronic edition (1)
- deutsche Lehnwörter (1)
- dh-kolloquium (1)
- diachronic dictionary (1)
- digitales Wörterbuch (1)
- digitalisation (1)
- elexiko (1)
- grammar (1)
- italouzbekische archäologische Mission in Samarkand (1)
- lexicography in Europe (1)
- lexikographischer Prozess (1)
- meaning (1)
- new philology (1)
- retro-digitisation (1)
- transmission of manuscripts (1)
- usability (1)
- Ästhetik (1)
Has Fulltext
- yes (57)
Institute
- TELOTA - IT/Digital Humanities (20)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (11)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt CLARIN-D (2)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Akademienvorhaben Anpassungsstrategien der späten mitteleuropäischen Monarchie am preußischen Beispiel 1786 bis 1918 (1)
- Akademienvorhaben Die Griechischen Christlichen Schriftsteller (1)
- Akademienvorhaben Turfanforschung (1)
(Open-Source-)OCR-Workflows
(2017)
Slides for the OCR-D talk at the Digital Humanities Kolloquium at the Berlin-Brandenburg Academy of Sciences and Humanities (4th August 2017).
Um die Möglichkeiten und Risiken, die sich durch virtuelle Forschungsplattformen ergeben, besser einschätzen zu können, erscheint es sinnvoll, ihre Stellung in Zusammenhang mit der gesamten virtuellen Infrastruktur in der Forschungs- und Wissenschaftslandschaft zu denken. Hierbei wird deutlich, dass ihre Aufgabe nicht so sehr darin bestehen kann, neue Funktionalitäten zu erfinden oder neue Ressourcen verfügbar zu machen, sondern eher darin gesehen werden muss, bestehende Anwendungen und Quellsysteme auf eine Art zu organisieren, bei der sich der Mehrwert für den Benutzer durch die Integration und das In-Beziehung-Setzen derselben ergibt. Dies gilt insbesondere für die Organisation von Wissen. Erfolgreich haben Initiativen wie Open Access auf der politischen und DINI (Deutsche Initiative für Netzwerkinformation) auf der technischen Seite dazu beigetragen, dass die Ergebnisse von Forschung zunehmend in digitaler Form vorliegen und zumeist innerhalb von Repositorien, deren Zahl - wie z.B. auf OpenDOAR zu sehen - unaufhaltsam wächst, verfügbar sind. Eine Herausforderung stellt daher immer mehr die Integration und Nutzbarmachung von Wissen dar. Als Ergebniseintrag 21 im Repositorium eines Universitäts-Instituts ist der Titel eines Aufsatzes eine isolierte Information. In Beziehung gesetzt zu anderen Ressourcen und statistisch und semantisch kontextualisiert in Verbindung mit anderen Systemen wird er zu anschlussfähigem Wissen. Unter Anderem für diese Aufgabe soll mit dem Wissensspeicher der BBAW, der zur Zeit entwickelt wird, eine Lösung gefunden werden. Er versteht sich als eine Plattform, in der die Vielgestaltigkeit der Akademie, die sich durch ihre vielfältigen Forschungsvorhaben ergibt und die sich in verschiedenen Interessenszusammenhängen, Ressourcen und Ressourcensystemen ausdrückt, integriert wird, und die sich ihrerseits wiederum die Aufgabe setzt, sich in bestehende Services einzubringen und diese in dem durch die Plattform neu geschaffenen Kontext zu nutzen. Eine virtuelle Forschungsplattform kann daher auch als Ort angesehen werden, an dem sich inhaltliche, technische und strukturelle Heterogenität sowohl intern als auch extern harmonisieren und zusammenführen lässt und damit einen fruchtbaren Umgang mit Wissen in der digitalen Welt überhaupt erst möglich macht.
Das Personendaten-Repositorium sammelt und bereitet biographische Daten auf, die in verschiedenen Forschungsvorhaben und unter unterschiedlichen wissenschaftlichen Perspektiven entstanden sind. Die Schwierigkeiten, die sich bei einem solchen Projekt für die Strukturierung und Organisation der Daten ergeben, rühren nicht nur daher, dass sie aus unterschiedlichen Kontexten stammen. Vielmehr werden an Hand der Quellen-Diversität grundsätzliche Probleme biographischen Arbeitens, in deren Zusammenhang die Personendaten stehen, deutlich, denen eine solche Infrastruktur Rechnung tragen muss.
Einführung Textkritik
(2017)
Der Vortrag gibt zunächst einen Einblick in die Erstellung TEI-XML-basierter Text-Editionen mit einem Fokus auf Handschriften des 19. Jahrhunderts (am Beispiel der Nachschriften zu Humboldts Kosmos-Vorlesungen 1827/28 in Berlin). Anhand dessen wird erläutert, inwiefern sich die Repräsentation historischer Textzeugen im Zuge des Medien- bzw. Paradigmenwechsels von printorientierten Formaten hin zu genuin digitalen Editionsformen verändert. Dies hat zum einen Auswirkungen auf Produktionsseite, d.h. auf die editorische Praxis, vor allem aber – und hierauf wird der Schwerpunkt des Vortrags liegen – auf die Rezeptionsseite: Digitale Edition müssen nicht nur anders konzipiert und produziert, sondern auch anders gelesen werden, will man das Potential der (in der germanistischen Editionsphilologie teilweise immer noch:) ‘neuen’ Medien ausschöpfen. Die Editionspraxis schreitet von der linearen Auszeichnung textoberflächlicher Phänomene bzw. deren an- oder nachgelagerter diskursiver, spezifischer Beschreibung weiter in Richtung standardisierter, formalisierter Annotation, die in die mehrdimensionale, vielschichtige Tiefe des Textzeugen führt.
Der Beitrag informiert über Kollationsverfahren und Formen der Textpräsentation, die im Rahmen des Parzival-Projekts praktiziert und erprobt werden. Der 'Parzival'-Roman Wolframs von Eschenbach gerät dabei von seiner Überlieferung her in den Blick: Zur Darstellung gelangen handschriftliche Erscheinungsweisen und die Varianten einzelner Textfassungen. Durch die Nutzung von Datenbanken können dynamische Präsentationsformen erzeugt werden, in denen die Betrachter selbständig eine Synopse von Textzeugen bzw. Fassungen zusammenstellen. Die konzeptionellen und technischen Grundlagen dieses Verfahrens werden im Rahmen des Beitrags erläutert. Die angegebene URL führt zur Testedition.
Da einerseits die informelle Partizipation an der Kultur des Internet durch Digital Natives nicht unmittelbar auf das Erlernen komplexer wissenschaftlicher Informations- und Medienkompetenz übertragbar ist, andererseits im geschichtswissenschaftlichen akademischen Unterricht die Komplexität digitaler und/oder virtueller geschichtswissenschaftlicher Ressourcen kaum zu vermitteln ist, müssen Bibliotheken gemeinsam mit den Fachbereichen effiziente Strategien entwerfen, Studierenden geschichtswissenschaftliche Informationskompetenz nachhaltig zu vermitteln, die ein erfolgreiches Studium ermöglichen. Hierfür bietet das Modell der Teaching Library ein flexibel zu handhabendes Instrument. Die traditionelle produktorientierte "Datenbankschulung" wird ersetzt durch den kompetenzorientierten Umgang mit Fachressourcen im geschichtswissenschaftlichen Arbeitsprozess. Zu den traditionellen geschichtswissenschaftlichen Fachbibliographien treten immer komplexere Quellendatenbanken, die schon heute eine ganz neue Qualität quellenbasierten historischen Arbeitens ermöglichen. In diesem Sinne wird die geschichtswissenschaftliche Fachbibliographie der Zukunft im Verständnis eines erweiterten Bibliographiebegriffs eine Scharnierfunktion zwischen unterschiedlichen Quellendatenbanken, Virtuellen Fachbibliotheken, Virtuellen Forschungsumgebungen und Kulturportalen einnehmen.
Wie jedes Wörterbuch steht auch die Neubearbeitung des Grimm vor der Schwierigkeit dem Lexikonparameter der Akkuratheit der Information Genüge zu tun und gleichzeitig die Informationsdarstellung und Textorganisation aus ökonomischen Gründen so knapp wie möglich zu halten. Die sich daraus ergebenden Darstellungs- und Ausdrucksformen (unterschiedliche Schrifttypen und Schriftneigungen, Kapitälchen, Abkürzungen, runde, eckige oder spitze Klammern, Absätze, Gliederungsmarken und vieles andere mehr) helfen, die Artikelkonstituenten zu definieren und Informationstypen zu unterscheiden. Aus persönlicher Erfahrung weiß ich, daß selbst erfahrene Nutzer des Deutschen Wörterbuchs nicht alle angebotenen Informationen erkennen oder die verschiedenen Ausdrucksformen richtig zu deuten wissen. An ausgewählten Beispielen aus der Neubearbeitung soll das z. T. diffizile und komplexe System der Darstellungs- und Ausdrucksformen, das auch als Reaktion auf den etwas sorglosen Umgang der Brüder Grimm in den ersten Bänden der Erstauflage entstanden ist, vorgestellt werden, das sich zwar um äußerste Genauigkeit bemüht, für den Nutzer aber auch manchmal schwer zu durchschauen ist. Der Ausblick auf die Möglichkeiten, die ein elektronisch-lexikographisches System in dieser Hinsicht bieten könnte, schließt den Vortrag ab.
Was macht gute Software aus? Wie stellt man sicher, dass man die Bedürfnisse der Benutzer und anderen Stakeholder richtig versteht, priorisiert, kommuniziert und umsetzt? Wie definiert man Balance und Zeitablauf für Planung, Design, Architektur, und Implementierung? Was muss man modellieren und was nicht? Braucht man User Stories oder Use Cases? Und wer macht was in einem kleinen Team? Ist häufige Iteration die Lösung aller Probleme? Dieser Vortrag versucht aufzuzeigen, worauf es wirklich ankommt – in einem Spagat zwischen klassischem Requirements Engineering, agiler Softwareentwicklung und modernem Interaktionsdesign.
Das DFG-Projekt „Personendaten-Repositorium“ baut auf Kooperationen mit nationalen und internationalen Forschungseinrichtungen und Forschungsvorhaben auf: Es werden keine eigenen Inhalte erschlossen, sondern die bereits vorhandenen Datenbestände auf technischer sowie semantischer Ebene miteinander verbunden. Der Kurzvortrag behandelt die möglichen Vernetzungsmodelle und Vorteile für die Forschung und demonstriert diese anhand bereits bestehender Kooperationen.
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.