Lecture
Refine
Year of publication
Document Type
- Lecture (74) (remove)
Language
- German (58)
- English (10)
- Spanish (5)
- Multiple languages (1)
Keywords
- Digital Humanities (15)
- Computerunterstützte Lexikographie (9)
- Edition (9)
- Historische Lexikographie (9)
- historical lexicography (9)
- Digitalisierung (8)
- Information und Dokumentation (8)
- Bibliographie (6)
- Deutschland (6)
- Edición digital académica (5)
Has Fulltext
- yes (74)
Institute
- TELOTA - IT/Digital Humanities (24)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (17)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Drittmittelprojekt Proyecto Humboldt Digital (7)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Drittmittelprojekt CLARIN-D (3)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Drittmittelprojekt OCR-D (2)
- Zentrum Sprache (2)
Ediarum is an editing environment designed and implemented by TELOTA at the Berlin-Brandenburg Academy of Sciences and Humanities (BBAW, Germany). It is based on two main components: an open-source XML native database (eXistDB) and a widely used commercial XML editor (Oxygen XML editor).
The aim of ediarum is to facilitate the task of encoding texts in TEI format, to store the resulting XML files in eXistDB and to enable collaboration and sharing amongst the members of a team. The central framework of this environment --known as ediarum.BASE.edit-- allows the editor to hide the XML tags and use a number of functions through a toolbar and a menu. In other words, the ediarum.BASE.edit's interface increases the usability of the XML editor and speeds up the encoding process and can be adapted to each project's needs. However, this framework is only available in German language. In other words, the code and the language interface are only accessible for and usable by German-speaking users.
While the original goal of TELOTA was to “bridge the gap” between the markup and the editor (Dumont and Fechner, 2015), the interface language creates a barrier for encoders who do not work in German and impedes potential collaborations with other institutions. In order to break this usability and accessibility barrier, in 2020 Proyecto Humboldt Digital (ProHD), a cooperation project between the BBAW and the Oficina del Historiador de la Ciudad de la Habana (Cuba), engaged with an adaptation process involving the internationalization of the software (developing features and code that are independent of language or locale) and the localization in the Spanish locale (creating resource files containing translations). As a result of this process, the project has developed a localization of ediarum.BASE.edit called ediarum.PROHD.edit that can be downloaded on Github.
This paper aims to present ediarum.PROHD.edit and to reflect on the most important challenges encountered during the software localization. After reviewing what “localization” means in Translation Studies (Pym, 2016; Jiménez Crespo, 2016), I will discuss the process of internationalization of the software (mostly variables written in ediarum's default functions), the localization itself (the translation of terms and descriptions displayed in the interface) and some testing undertaken with the Cuban team of Proyecto Humboldt Digital.
Entre la digitalización y la edición digital : retos y avances de “Proyecto Humboldt Digital”
(2022)
Tras la presentación de los objetivos, se discute los principales retos encontrados en Proyecto Humboldt Digital: sesgos de la digitalización, selección de documentos, Covid-19, embargo estadounidense, software libre, alianzas poscustodiales; asimismo se presentan los avances principales: flujo de trabajo, digitalización, adaptación de herramientas, documentación de criterios, edición de fuentes históricas, construcción de sitios web, exposición y actividades de difusión.
Las ediciones digitales académicas suelen definirse como ediciones académicas que se guían por el paradigma digital en su teoría, método y práctica. Aunque esta definición es útil como punto de partida, los estudios sobre los usos potenciales de este tipo de publicación en formato digital siguen siendo escasos; asimismo, los proyectos digitales a menudo se limitan a dar acceso y a preservar los textos sin interrogarse sobre cómo pueden utilizarse para investigar. Con esta conferencia, pues, se pretende revisar la definición de edición digital académica, presentar una tipología que ayude a editores y a usuarios a orientarse y, por último, ilustrar algunos usos ejemplares de reutilización y análisis.
Das DFG-Projekt „Personendaten-Repositorium“ baut auf Kooperationen mit nationalen und internationalen Forschungseinrichtungen und Forschungsvorhaben auf: Es werden keine eigenen Inhalte erschlossen, sondern die bereits vorhandenen Datenbestände auf technischer sowie semantischer Ebene miteinander verbunden. Der Kurzvortrag behandelt die möglichen Vernetzungsmodelle und Vorteile für die Forschung und demonstriert diese anhand bereits bestehender Kooperationen.
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.
Die digitalen Geisteswissenschaften beschäftigen sich mit der Erforschung von Methoden, die für die Erstellung von formalen Modellen in den Geisteswissenschaften nötig sind, sowie mit deren Anwendung auf konkrete geisteswissenschaftliche Forschungsfragen. Das Web of Data (Semantic Web) verspricht mittels formalen Modellen die Welt zu beschreiben und Forschungsdaten auf einer semantischen Ebene so zu strukturieren, dass Interoperabilität, Nachvollziehbarkeit und Nachnutzung gewährleistet sind.
Am Beispiel einer Ontologie zur virtuellen Rekonstruktion des Nachlasses von Stefan Zweig sowie eines konzeptionelles Datenmodell zur Beschreibung von Transaktionen in historischen Rechnungsunterlagen wird der Vortrag Herausforderungen und Möglichkeiten des Web of Data veranschaulichen. Die Diskussion erstreckt sich von der Forschungsfrage der jeweiligen Fachdomäne, über das Ontology Engineering bis hin zur Anwendung der Ontologie im Projektkontext und der Modellierung der Daten als Linked Open Data Ressource.
Vor allem in älteren Wörterbüchern mit philologischer Ausrichtung ist die Mikrostruktur der Artikel häufig diskursiv und unsystematisch. Eine automatisierte Digitalisierung solcher Wörterbücher mit dem Ziel, ihre logische Struktur zu kodieren, ist nicht möglich; in vielen Fällen ist schon ein Parser für ein manuell nachzubearbeitendes Rohdigitalisat kein realistisches Ziel, weil die Angabetypen des Wörterbuchs nicht klar voneinander abgrenzbar und in den Einzelartikeln nicht eindeutig identifizierbar sind. In solchen Fällen wirft auch eine nachträgliche manuelle Formalisierung der Mikrostruktur große lexikografische Probleme auf. Für komplexere Anwendungsszenarien wie etwa Abfragen in Webanwendungen kann es dennoch unumgänglich sein, wenigstens sämtliche relevanten in den Artikeln diskutierten Wortformen mit grundsätzlichen diasystematischen und morphologischen Informationen sowie ihren Relationen zueinander in einem maschinell lesbaren Format strukturiert zu repräsentieren, etwa durch datenzentrierte XML-Dokumente. Der Vortrag versucht, die lexikografischen und technischen Möglichkeiten und Grenzen einer solchen teilweisen und manuellen Retrodigitalisierung am Beispiel von Erfahrungen mit einem älteren Wörterbuch deutscher Lehnwörter im Slovenischen (Striedter-Temps 1963) auszuloten. Das Wörterbuch soll in ein Portal von Lehnwörterbüchern mit Deutsch als gemeinsamer Gebersprache eingebunden werden. Die Einzelartikel werden dem Benutzer als Bilddigitalisate zur Verfügung gestellt; die zusätzliche textuelle Retrodigitalisierung ist jedoch für komplexere, insbesondere auch für wörterbuchübergreifende und portalweite, Suchabfragen erforderlich.
The Swedish Academy Dictionary (SAOB) is one of the big national dictionary projects started in the 19th century. SAOB is still in production – there are another two volumes out of 38 to printed before 2018. The structure inside the volumes is (of course) varied/varying. There are ten chief editors and five generations of editors involved in the project. In the 1980s the SAOB was OCR-scanned. The result was used for a webversion in the internet from 1997. The webversion is very frequently used but has a lot of shortcomings due to, among other things, a great typographic complexity and a scanning technology of the time. Now the editorial board is discussing the future: redigitalization (in China), updating of the webversion with new search tools, updating of the dictionary itself and some form of editing tool.
Im Jahr 2021 lädt die Initiative "Forschungsdatenmanagement" alle Mitarbeitenden der BBAW zu einer Veranstaltungsreihe mit dem Titel "Forschungsdatenmanagement kompakt" ein.
Die Präsentationsfolien der ersten Online-Veranstaltung am 11.02.2021 führen in die Grundlagen und Grundbegriffe des Forschungsdatenmanagements ein und stellen die Ziele der Initiative vor.
Love your data!
(2022)
Im Rahmen der Akademievorträge an brandenburgischen Schulen 2021/22 bot die Initiative "Forschungsdatenmanagement" den Schülerinnen und Schülern einen Einblick in die Themen Datenorganisation und -sicherung.
Denn die Menge an digitalen Daten auf dieser Erde wächst täglich. Umso wichtiger ist das Management der eigenen Daten, um den Überblick zu behalten – privat, aber auch im Studium oder Berufsleben. In der Wissenschaftswelt geben die „Leitlinien zur Sicherung guter wissenschaftlicher Praxis“ den sorgsamen Umgang mit den sogenannten „Forschungsdaten“ sogar vor. In den Geistes- und Kulturwissenschaften versteht man unter dem Begriff alle Quellen/Materialien und Ergebnisse, die im Zusammenhang einer Forschungsfrage gesammelt, erzeugt, beschrieben und/oder ausgewertet werden. Wie geht man mit diesen Daten am besten um und welche Tipps und Tricks kann man sich hier für seine private Datenorganisation abschauen? Der Vortrag sensibilisiert für die Relevanz von Datenmanagement und gibt einen datenzentrierten Einblick in (geistes-)wissenschaftliche Forschungsprozesse.
Überlappungen zwischen Grammatik und Wörterbuch sind kaum vermeidbar und gelten im Allgemeinen auch als wünschenswert und für den Nutzer als praktisch sinnvoll. Wörterbücher enthalten in der Regel grammatische Zusatzinformationen (z.B. zur Wortart und Flexion) in unterschiedlichem Umfang und auch in unterschiedlicher Darstellungsweise bzw. unter Verwendung unterschiedlicher Terminologien. Digitale Wörterbücher müssen hier im Gegensatz zu ‚klassischen‘ gedruckten Werken nicht auf kondensierte und mit Abkürzungen verknappte Informationen setzen, sondern können im Prinzip zu jedem Lemma eine umfassende Darstellung bieten. Es soll anhand von Beispielen der Frage nachgegangen werden, wie existierende digitale Wörterbücher mit der Integration grammatischer Informationen verfahren und welche Darstellungsmöglichkeiten sie dabei nutzen. Zudem wird gefragt, wie diese Inhalte für verschiedene Nutzertypen innerhalb eines Online-Wörterbuches dargeboten werden könnten.
Graphentechnologien in den Digitalen Geisteswissenschaften. Die RI als Netzwerk von Entitäten
(2017)
Folien des Vortrags „Graphentechnologien in den digitalen Geisteswissenschaften“ von Dr. Andreas Kuczera im Rahmen des DH-Kolloquiums an der BBAW am 1.12.2017. Anhand verschiedener Beispiele aus den Projekten Regesta Imperii und Nomen et Gens zeigt der Vortrag wie Graphentechnologien für geisteswissenschaftliche Fragestellungen verwendet werden könnten.
Die deutschen Geschichtsbibliographien stehen aktuell vor einigen Herausforderungen: Sie sind von einer großen Heterogenität hinsichtlich ihrer Sammelprofile geprägt, kaum mit dem Bibliothekswesen vernetzt und müssen sich gegenüber anderen Recherchemitteln behaupten. Die Erkenntnis, dass dieser Situation gemeinsam besser begegnet werden kann, hat die beiden großen deutschen Bibliographien der Geschichtswissenschaft, die Historische Bibliographie und die Jahresberichte für Deutsche Geschichte, dazu bewogen, sich mit einer epochalen Spezialbibliographie, der Bibliographie zur Zeitgeschichte, und der Bayerischen Staatsbibliothek als Sondersammelgebietsbibliothek für Geschichte zusammenzutun. In einem gemeinsamen DFG-Projekt werden derzeit die organisatorischen und konzeptionellen Grundsteine für eine künftig engere Zusammenarbeit sowie eine noch zu schaffende "Deutsche Historische Bibliographie" gelegt. Während der ersten zwei Projektjahre konnten sich die Partner bereits darauf einigen, gemeinsam in einem Bibliotheksverbund zu katalogisieren und arbeitsteilig Zeitschriften auszuwerten, außerdem wurde eine gemeinsame Fachsystematik konzipiert, die einzelnen Bibliographien wurden an verschiedenen Stellen optimiert und ihre Datenbestände mit Suchmaschinentechnologie indiziert und in Fachportale eingebunden. In der zweiten Projektphase sollen diese Arbeiten fortgeführt und die Etablierung einer "Deutschen Historischen Bibliographie" vorbereitet werden. Es ist dabei das Ziel, ein so funktionales wie benutzerfreundliches Serviceangebot der historisch-bibliographischen Fachinformation zu schaffen. In der Präsentation wird ein breites, den state-of-the-art moderner Informationstechnologien berücksichtigendes Feature-Spektrum vorgestellt, das einer "geschichtswissenschaftlichen Fachbibliographie der Zukunft" gerecht werden soll. In welchem Umfang dies tatsächlich realisiert werden kann, wird jedoch noch intensiv zu prüfen sein.
Die Benutzung von Onlinewörterbüchern ist bislang wenig erforscht. Am Institut für Deutsche Sprache in Mannheim wurde versucht, diese Forschungslücke mit einem Projekt zur Benutzungsforschung zumindest zum Teil schließen (s. www.benutzungsforschung.de). Die empirischen Studien wurden methodisch sowohl in Form von Onlinefragebögen, die neben befragenden auch experimentelle Elemente enthielten, als auch anhand eines Labortests (mit Eyetracking-Verfahren) durchgeführt. Die erste Studie untersuchte generell die Anlässe und sozialen Situationen der Verwendung von Onlinewörterbüchern sowie die Ansprüche, die Nutzer an Onlinewörterbücher stellen. An der zweisprachigen Onlinestudie (deutsch/englisch) nahmen international fast 700 Probanden teil. Durch die hohe Resonanz auf die erste Studie und den daraus folgenden Wunsch, die gewonnenen Informationen empirisch zu vertiefen, richtet sich auch die die zweite Studie an ein internationales Publikum und schloss inhaltlich an die erste Studie an. Später konzentrierten sich die Studien auf monolinguale deutsche Onlinewörterbücher wie elexiko (Studien 3 und 4), sowie auf das Wörterbuchportal OWID (Studie 5). Im Vortrag werden ausgewählte Ergebnisse der verschiedenen Studien vorgestellt.