Lecture
Refine
Year of publication
Document Type
- Lecture (73) (remove)
Language
- German (57)
- English (10)
- Spanish (5)
- Multiple languages (1)
Keywords
- Digital Humanities (14)
- Computerunterstützte Lexikographie (9)
- Historische Lexikographie (9)
- historical lexicography (9)
- Digitalisierung (8)
- Edition (8)
- Information und Dokumentation (8)
- Bibliographie (6)
- Deutschland (6)
- Edición digital académica (5)
Has Fulltext
- yes (73)
Institute
- TELOTA - IT/Digital Humanities (23)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (17)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Drittmittelprojekt Proyecto Humboldt Digital (7)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Drittmittelprojekt CLARIN-D (3)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Drittmittelprojekt OCR-D (2)
- Zentrum Sprache (2)
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.
Die digitalen Geisteswissenschaften beschäftigen sich mit der Erforschung von Methoden, die für die Erstellung von formalen Modellen in den Geisteswissenschaften nötig sind, sowie mit deren Anwendung auf konkrete geisteswissenschaftliche Forschungsfragen. Das Web of Data (Semantic Web) verspricht mittels formalen Modellen die Welt zu beschreiben und Forschungsdaten auf einer semantischen Ebene so zu strukturieren, dass Interoperabilität, Nachvollziehbarkeit und Nachnutzung gewährleistet sind.
Am Beispiel einer Ontologie zur virtuellen Rekonstruktion des Nachlasses von Stefan Zweig sowie eines konzeptionelles Datenmodell zur Beschreibung von Transaktionen in historischen Rechnungsunterlagen wird der Vortrag Herausforderungen und Möglichkeiten des Web of Data veranschaulichen. Die Diskussion erstreckt sich von der Forschungsfrage der jeweiligen Fachdomäne, über das Ontology Engineering bis hin zur Anwendung der Ontologie im Projektkontext und der Modellierung der Daten als Linked Open Data Ressource.
Das DFG-Projekt „Personendaten-Repositorium“ baut auf Kooperationen mit nationalen und internationalen Forschungseinrichtungen und Forschungsvorhaben auf: Es werden keine eigenen Inhalte erschlossen, sondern die bereits vorhandenen Datenbestände auf technischer sowie semantischer Ebene miteinander verbunden. Der Kurzvortrag behandelt die möglichen Vernetzungsmodelle und Vorteile für die Forschung und demonstriert diese anhand bereits bestehender Kooperationen.
¿Cuáles son las confluencias entre la biblioteconomía y las humanidades digitales? ¿Cómo pueden los humanistas digitales crear recursos en colaboración con los bibliotecarios? ¿Cómo la cultura y la política están dando forma al desarrollo de las prácticas de digitalización en América Latina y Europa? Esta ponencia pretende responder a algunas de estas preguntas analizando el Proyecto Humboldt Digital y dando algunos ejemplos sobre cuatro actividades de TADIRAH -captura, enriquecimiento, almacenamiento y difusión- relevantes tanto para bibliotecarios como para humanistas digitales.
Ediarum is an editing environment designed and implemented by TELOTA at the Berlin-Brandenburg Academy of Sciences and Humanities (BBAW, Germany). It is based on two main components: an open-source XML native database (eXistDB) and a widely used commercial XML editor (Oxygen XML editor).
The aim of ediarum is to facilitate the task of encoding texts in TEI format, to store the resulting XML files in eXistDB and to enable collaboration and sharing amongst the members of a team. The central framework of this environment --known as ediarum.BASE.edit-- allows the editor to hide the XML tags and use a number of functions through a toolbar and a menu. In other words, the ediarum.BASE.edit's interface increases the usability of the XML editor and speeds up the encoding process and can be adapted to each project's needs. However, this framework is only available in German language. In other words, the code and the language interface are only accessible for and usable by German-speaking users.
While the original goal of TELOTA was to “bridge the gap” between the markup and the editor (Dumont and Fechner, 2015), the interface language creates a barrier for encoders who do not work in German and impedes potential collaborations with other institutions. In order to break this usability and accessibility barrier, in 2020 Proyecto Humboldt Digital (ProHD), a cooperation project between the BBAW and the Oficina del Historiador de la Ciudad de la Habana (Cuba), engaged with an adaptation process involving the internationalization of the software (developing features and code that are independent of language or locale) and the localization in the Spanish locale (creating resource files containing translations). As a result of this process, the project has developed a localization of ediarum.BASE.edit called ediarum.PROHD.edit that can be downloaded on Github.
This paper aims to present ediarum.PROHD.edit and to reflect on the most important challenges encountered during the software localization. After reviewing what “localization” means in Translation Studies (Pym, 2016; Jiménez Crespo, 2016), I will discuss the process of internationalization of the software (mostly variables written in ediarum's default functions), the localization itself (the translation of terms and descriptions displayed in the interface) and some testing undertaken with the Cuban team of Proyecto Humboldt Digital.