Digital-Humanities-Kolloquium an der Berlin-Brandenburgischen Akademie der Wissenschaften
Refine
Document Type
- Lecture (15)
Language
- German (12)
- English (2)
- Multiple languages (1)
Keywords
- Digital Humanities (10)
- Edition (3)
- API (1)
- Antikes Christentum (1)
- Brief (1)
- CMIF (1)
- Datenmanagement (1)
- Geisteswissenschaften (1)
- Graphdatenbank (1)
- Graphentechnologien (1)
Has Fulltext
- yes (15)
Institute
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.
Die digitalen Geisteswissenschaften beschäftigen sich mit der Erforschung von Methoden, die für die Erstellung von formalen Modellen in den Geisteswissenschaften nötig sind, sowie mit deren Anwendung auf konkrete geisteswissenschaftliche Forschungsfragen. Das Web of Data (Semantic Web) verspricht mittels formalen Modellen die Welt zu beschreiben und Forschungsdaten auf einer semantischen Ebene so zu strukturieren, dass Interoperabilität, Nachvollziehbarkeit und Nachnutzung gewährleistet sind.
Am Beispiel einer Ontologie zur virtuellen Rekonstruktion des Nachlasses von Stefan Zweig sowie eines konzeptionelles Datenmodell zur Beschreibung von Transaktionen in historischen Rechnungsunterlagen wird der Vortrag Herausforderungen und Möglichkeiten des Web of Data veranschaulichen. Die Diskussion erstreckt sich von der Forschungsfrage der jeweiligen Fachdomäne, über das Ontology Engineering bis hin zur Anwendung der Ontologie im Projektkontext und der Modellierung der Daten als Linked Open Data Ressource.
Was macht gute Software aus? Wie stellt man sicher, dass man die Bedürfnisse der Benutzer und anderen Stakeholder richtig versteht, priorisiert, kommuniziert und umsetzt? Wie definiert man Balance und Zeitablauf für Planung, Design, Architektur, und Implementierung? Was muss man modellieren und was nicht? Braucht man User Stories oder Use Cases? Und wer macht was in einem kleinen Team? Ist häufige Iteration die Lösung aller Probleme? Dieser Vortrag versucht aufzuzeigen, worauf es wirklich ankommt – in einem Spagat zwischen klassischem Requirements Engineering, agiler Softwareentwicklung und modernem Interaktionsdesign.
Der Vortrag gibt zunächst einen Einblick in die Erstellung TEI-XML-basierter Text-Editionen mit einem Fokus auf Handschriften des 19. Jahrhunderts (am Beispiel der Nachschriften zu Humboldts Kosmos-Vorlesungen 1827/28 in Berlin). Anhand dessen wird erläutert, inwiefern sich die Repräsentation historischer Textzeugen im Zuge des Medien- bzw. Paradigmenwechsels von printorientierten Formaten hin zu genuin digitalen Editionsformen verändert. Dies hat zum einen Auswirkungen auf Produktionsseite, d.h. auf die editorische Praxis, vor allem aber – und hierauf wird der Schwerpunkt des Vortrags liegen – auf die Rezeptionsseite: Digitale Edition müssen nicht nur anders konzipiert und produziert, sondern auch anders gelesen werden, will man das Potential der (in der germanistischen Editionsphilologie teilweise immer noch:) ‘neuen’ Medien ausschöpfen. Die Editionspraxis schreitet von der linearen Auszeichnung textoberflächlicher Phänomene bzw. deren an- oder nachgelagerter diskursiver, spezifischer Beschreibung weiter in Richtung standardisierter, formalisierter Annotation, die in die mehrdimensionale, vielschichtige Tiefe des Textzeugen führt.
Durch die zunehmende Digitalisierung nimmt die Bedeutung von Forschungsdaten in den Geisteswissenschaften, insbesondere in den Digital Humanities, zu. Dabei rücken in den letzten Jahren verstärkt Open Science-Paradigmen, wie der möglichst offene Zugang zu den Daten und die FAIR Data Principles (Findable, Accessible, Interoperable, Reuseable) in den Fokus. Diese bedeuten einen Paradigmenwechsel für Wissenschaftler*innen und Wissenschafts- und Gedächtnisinstitutionen und erfordern die Kooperation im Rahmen nationaler und internationaler Infrastrukturen.
Zur Förderung guter Datenmanagementpraktiken verlangen verschiedene nationale und internationale Förderorganisationen bei Projektanträgen Auskunft über den Umgang mit nachgenutzten oder erstellten Forschungsdaten, z. B. in der Form von Datenmanagementplänen (DMPs). Inzwischen setzt sich die Erkenntnis durch, dass es nicht mit einem einmaligen Datenmanagementplan getan ist, sondern dass DMPs während des Projektverlaufs angepasst werden müssen, um das Forschungsdatenmanagement aktiv und unter Einbeziehung aller relevanten Stakeholder zu unterstützen und seine Potenziale auszuschöpfen (aktives Forschungsdatenmanagement). Hierfür wird im Rahmen eines DFG-Projekts das Werkzeug Research Data Management Organizer (RDMO) entwickelt.
Der Vortrag gibt eine Einführung in die wichtigsten Begrifflichkeiten und Konzepte des geisteswissenschaftlichen Forschungsdatenmanagements und seine Bedeutung für die Sicherung der guten wissenschaftlichen Praxis, die Qualitätssicherung der Forschungsdaten und die Erhöhung des Impacts der Resultate digitaler geisteswissenschaftlicher Forschung und führt diesbezüglich in Funktionalitäten und Anwendungsmöglichkeiten des Werkzeugs RDMO ein.
Präsentationsfolien für einen Vortrag im Rahmen des DH-Kolloquiums an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) am 02.08.2019.
(Open-Source-)OCR-Workflows
(2017)
Slides for the OCR-D talk at the Digital Humanities Kolloquium at the Berlin-Brandenburg Academy of Sciences and Humanities (4th August 2017).