Refine
Year of publication
Document Type
- Lecture (73) (remove)
Language
- German (57)
- English (10)
- Spanish (5)
- Multiple languages (1)
Keywords
- Digital Humanities (14)
- Computerunterstützte Lexikographie (9)
- Historische Lexikographie (9)
- historical lexicography (9)
- Digitalisierung (8)
- Edition (8)
- Information und Dokumentation (8)
- Bibliographie (6)
- Deutschland (6)
- Edición digital académica (5)
Has Fulltext
- yes (73)
Institute
- TELOTA - IT/Digital Humanities (23)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (17)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Drittmittelprojekt Proyecto Humboldt Digital (7)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Drittmittelprojekt CLARIN-D (3)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Drittmittelprojekt OCR-D (2)
- Zentrum Sprache (2)
- Akademienvorhaben Anpassungsstrategien der späten mitteleuropäischen Monarchie am preußischen Beispiel 1786 bis 1918 (1)
- Akademienvorhaben Die Griechischen Christlichen Schriftsteller (1)
- Akademienvorhaben Turfanforschung (1)
- Berlin-Brandenburgische Akademie der Wissenschaften (1)
- Drittmittelprojekt Lebenswelten, Erfahrungsräume und politische Horizonte der ostpreußischen Adelsfamilie Lehndorff vom 18. bis in das 20. Jahrhundert (1)
- Veröffentlichungen externer Institutionen (1)
- Veröffentlichungen von Akademiemitgliedern (1)
TELOTA: Woher, Wohin?
(2022)
Der Band dokumentiert die "Posterstraße", die im Rahmen der Festveranstaltung zum 20-jährigen Jubiläum von TELOTA am 22. Juni 2022 stattfand. Die über 30 Poster stellen die vielfältigen Arbeitsbereiche, Tätigkeitsfelder, Projekte und Kooperationen von TELOTA vor. Sie sind - wie auf der Veranstaltung - in sieben thematische Bereiche gegliedert, die die Arbeit von TELOTA beschreiben: Forschungssoftware, Text & Edition, Visualisierung & Datenanalyse, Infrastruktur, Vernetzung & Kooperationen sowie DH-Community & Lehre.
¿Cuáles son las confluencias entre la biblioteconomía y las humanidades digitales? ¿Cómo pueden los humanistas digitales crear recursos en colaboración con los bibliotecarios? ¿Cómo la cultura y la política están dando forma al desarrollo de las prácticas de digitalización en América Latina y Europa? Esta ponencia pretende responder a algunas de estas preguntas analizando el Proyecto Humboldt Digital y dando algunos ejemplos sobre cuatro actividades de TADIRAH -captura, enriquecimiento, almacenamiento y difusión- relevantes tanto para bibliotecarios como para humanistas digitales.
Ediarum is an editing environment designed and implemented by TELOTA at the Berlin-Brandenburg Academy of Sciences and Humanities (BBAW, Germany). It is based on two main components: an open-source XML native database (eXistDB) and a widely used commercial XML editor (Oxygen XML editor).
The aim of ediarum is to facilitate the task of encoding texts in TEI format, to store the resulting XML files in eXistDB and to enable collaboration and sharing amongst the members of a team. The central framework of this environment --known as ediarum.BASE.edit-- allows the editor to hide the XML tags and use a number of functions through a toolbar and a menu. In other words, the ediarum.BASE.edit's interface increases the usability of the XML editor and speeds up the encoding process and can be adapted to each project's needs. However, this framework is only available in German language. In other words, the code and the language interface are only accessible for and usable by German-speaking users.
While the original goal of TELOTA was to “bridge the gap” between the markup and the editor (Dumont and Fechner, 2015), the interface language creates a barrier for encoders who do not work in German and impedes potential collaborations with other institutions. In order to break this usability and accessibility barrier, in 2020 Proyecto Humboldt Digital (ProHD), a cooperation project between the BBAW and the Oficina del Historiador de la Ciudad de la Habana (Cuba), engaged with an adaptation process involving the internationalization of the software (developing features and code that are independent of language or locale) and the localization in the Spanish locale (creating resource files containing translations). As a result of this process, the project has developed a localization of ediarum.BASE.edit called ediarum.PROHD.edit that can be downloaded on Github.
This paper aims to present ediarum.PROHD.edit and to reflect on the most important challenges encountered during the software localization. After reviewing what “localization” means in Translation Studies (Pym, 2016; Jiménez Crespo, 2016), I will discuss the process of internationalization of the software (mostly variables written in ediarum's default functions), the localization itself (the translation of terms and descriptions displayed in the interface) and some testing undertaken with the Cuban team of Proyecto Humboldt Digital.
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.
Im Jahr 2021 lädt die Initiative "Forschungsdatenmanagement" alle Mitarbeitenden der BBAW zu einer Veranstaltungsreihe mit dem Titel "Forschungsdatenmanagement kompakt" ein.
Die Präsentationsfolien der ersten Online-Veranstaltung am 11.02.2021 führen in die Grundlagen und Grundbegriffe des Forschungsdatenmanagements ein und stellen die Ziele der Initiative vor.
Con esta comunicación pretendemos debatir sobre los principales retos y oportunidades que supone un proyecto de cooperación entre la Academia de las Ciencias y las Humanidades de Berlín (BBAW) y la Casa Humboldt de la Oficina del Historiador de la Ciudad de La Habana (OHCH); asimismo, presentaremos los primeros avances realizados en la digitalización y edición digital con métodos filológicos de un corpus de textos centrado en la recepción del pensamiento antiesclavista de Alexander von Humboldt y en la realidad colonial de la isla.
El corpus seleccionado se define por su naturaleza transnacional y multilingüe (español, francés y alemán) y por su dispersión física, pues los documentos se encuentran en varias bibliotecas y archivos cubanos, alemanes y polacos. Gracias a las posibilidades de interconexión y reutilización del medio digital, este proyecto se propone preservar y dar acceso digital a una colección coherente y unitaria desde un punto de vista temático. De esta manera, los usuarios obtendrán una mirada nueva y completa al problema de la esclavitud y al funcionamiento del sistema colonial, que condenaba a la isla al monocultivo y a importar bienes de primera necesidad procedentes de la Metrópolis.
El proyecto cuenta con un equipo internacional y multilingüe capacitado para incrementar el acceso a través de internet del patrimonio cultural cubano-alemán. Con tal fin, se ha adquirido equipamiento (ordenadores, escáneres de alta resolución, impresora, mobiliario, etc.) adecuado con el que se digitalizarán los documentos preservados en Cuba. Asimismo, se espera definir una metodología en común que asegure la sostenibilidad de los archivos de imágenes en formato estándar (TIFF), la identificación y descripción de los objetos digitales mediante metadatos, la obtención de texto completo de las obras impresas por medio de tecnologías OCR, la representación de la estructura de los textos con lenguaje de marcado TEI/XML y, finalmente, la publicación de ediciones académicas digitales en una plataforma abierta y multilingüe.
Durch die zunehmende Digitalisierung nimmt die Bedeutung von Forschungsdaten in den Geisteswissenschaften, insbesondere in den Digital Humanities, zu. Dabei rücken in den letzten Jahren verstärkt Open Science-Paradigmen, wie der möglichst offene Zugang zu den Daten und die FAIR Data Principles (Findable, Accessible, Interoperable, Reuseable) in den Fokus. Diese bedeuten einen Paradigmenwechsel für Wissenschaftler*innen und Wissenschafts- und Gedächtnisinstitutionen und erfordern die Kooperation im Rahmen nationaler und internationaler Infrastrukturen.
Zur Förderung guter Datenmanagementpraktiken verlangen verschiedene nationale und internationale Förderorganisationen bei Projektanträgen Auskunft über den Umgang mit nachgenutzten oder erstellten Forschungsdaten, z. B. in der Form von Datenmanagementplänen (DMPs). Inzwischen setzt sich die Erkenntnis durch, dass es nicht mit einem einmaligen Datenmanagementplan getan ist, sondern dass DMPs während des Projektverlaufs angepasst werden müssen, um das Forschungsdatenmanagement aktiv und unter Einbeziehung aller relevanten Stakeholder zu unterstützen und seine Potenziale auszuschöpfen (aktives Forschungsdatenmanagement). Hierfür wird im Rahmen eines DFG-Projekts das Werkzeug Research Data Management Organizer (RDMO) entwickelt.
Der Vortrag gibt eine Einführung in die wichtigsten Begrifflichkeiten und Konzepte des geisteswissenschaftlichen Forschungsdatenmanagements und seine Bedeutung für die Sicherung der guten wissenschaftlichen Praxis, die Qualitätssicherung der Forschungsdaten und die Erhöhung des Impacts der Resultate digitaler geisteswissenschaftlicher Forschung und führt diesbezüglich in Funktionalitäten und Anwendungsmöglichkeiten des Werkzeugs RDMO ein.
Präsentationsfolien für einen Vortrag im Rahmen des DH-Kolloquiums an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) am 02.08.2019.
Digitale Technologien und Formate eröffnen Museen neue Formate der Interaktion, Interpretation und Kommunikation. Im Vergleich zu objektbezogener Forschung im Museum, die durch den Einsatz digitaler Erschließungssysteme, der Nutzung und Publikation von digitalen Reproduktionen und der Integration von digital gestützten Untersuchungsmethoden eine methodische Erweiterung erfährt, wird die Entwicklung digitaler Kommunikations- und Vermittlungsformate bisher eher selten als transdisziplinärer Forschungsauftrag im Museum verstanden. Mit museum4punkt0 wurde 2017 erstmals in Deutschland ein museales Forschungsprojekt initiiert, welches Kulturinstitutionen verschiedener Sparten, Größen und institutionellen Strukturen mit dem Ziel der Entwicklung und Beforschung digitaler Anwendungen in einem Verbund vereint. Zentrales Merkmal des Verbundes ist die Vernetzung und gegenseitige Unterstützung der beteiligten Institutionen bei der Entwicklung und Evaluation von digitalen Vermittlungs- und Kommunikationsangeboten. Untersucht wird, wie neueste digitale Technologien effektiv für die Aufgaben von Museen, insbesondere in der Wissensvermittlung, nutzbar gemacht werden können.
Die digitalen Geisteswissenschaften beschäftigen sich mit der Erforschung von Methoden, die für die Erstellung von formalen Modellen in den Geisteswissenschaften nötig sind, sowie mit deren Anwendung auf konkrete geisteswissenschaftliche Forschungsfragen. Das Web of Data (Semantic Web) verspricht mittels formalen Modellen die Welt zu beschreiben und Forschungsdaten auf einer semantischen Ebene so zu strukturieren, dass Interoperabilität, Nachvollziehbarkeit und Nachnutzung gewährleistet sind.
Am Beispiel einer Ontologie zur virtuellen Rekonstruktion des Nachlasses von Stefan Zweig sowie eines konzeptionelles Datenmodell zur Beschreibung von Transaktionen in historischen Rechnungsunterlagen wird der Vortrag Herausforderungen und Möglichkeiten des Web of Data veranschaulichen. Die Diskussion erstreckt sich von der Forschungsfrage der jeweiligen Fachdomäne, über das Ontology Engineering bis hin zur Anwendung der Ontologie im Projektkontext und der Modellierung der Daten als Linked Open Data Ressource.
Während die Netzwerkanalyse in den Sozialwissenschaften seit den Arbeiten Jacob Levy Morenos zu Anfang des 20. Jh.s fester Bestandteil des methodischen Repertoires ist, hat sie sich im Laufe der letzten 10 Jahren auch in anderen Wissenschaftszweigen, darunter auch Archäologie und Geschichtswissenschaften, als Methodik etabliert. Doch was beinhaltet die Analyse von Netzwerken jenseits einer rein metaphorischen Nutzung des Begriffes nun genau? Für welche Fragestellungen ist diese Methodik geeignet, und wo liegen die Grenzen der Anwendung? Wie lässt sich die Entwicklung und rege Anwendung in Fachdisziplinen wie Soziologie und Politologie mit der Erforschung (prä-)historischer Gesellschaften vereinbaren? Anhand verschiedener Beispiele aus Archäologie und Geschichte werden diese und weitere Fragen diskutiert und eine Einführung in den derzeitigen Stand der archäologisch-historischen Netzwerkforschung gegeben.
The computer has come to play a transformative role in the ways we model, store, process and study text. Nevertheless, we cannot yet claim to have realised the promises of the digital medium: the organisation and dissemination of scholarly knowledge through the exchange, reuse and enrichment of data sets. Despite the acclaimed interdisciplinary nature of digital humanities, current digital research takes place in a closed environment and rarely surpasses the traditional boundaries of a field. Furthermore, it is worthwhile to continue questioning the models we use and whether they are actually suitable for our scholarly needs. There’s a risk that the affordances and limitations of a prevailing model may blind us to aspects it doesn’t support.
In her talk, Elli Bleeker discusses different technologies to model data with respect to their expressive power and their potential to address the needs of the scholarly community. Within this framework, she introduces a new data model for text, Text-As-Graph (TAG), and it’s reference implementation Alexandria, a text repository system. The TAG model allows researchers to store, query, and analyse text that is encoded from different perspectives. Alexandria thus stimulates new ways of looking at textual objects, facilitates the exchange of information across disciplines, and secures textual knowledge for future endeavours. From a philosophical perspective, the TAG model and the workflow of Alexandria raise compelling questions about our notions of textuality, and prompt us to reconsider how we can best model the variety of textual dimensions.
Der Vortrag bietet eine Rückschau auf die Jahreskonferenz der Digital Humanities im deutschsprachigen Raum zu dem Thema "Kritik der digitalen Vernunft", die von 26.2. bis 2.3.2018 in Köln stattfand. Zunächst wird ein Überblick zu den Konferenzbeiträgen der Mitarbeiterinnen und Mitarbeiter der BBAW gegeben. Die Bandbreite der Beiträge aus dem Haus umfasst sowohl praxisorientierte Vorträge, in denen die Entwicklung digitaler Editionen und Korpora thematisiert wird, als auch theoretische Reflexionen. Im Anschluss formulieren die Vortragenden die wesentlichen Beobachtungen und Eindrücke zur Frage, wo die verschiedenen Bereiche der Digital Humanities (z. B. digitale Editionen, quantitative Textanalyse, Softwareentwicklung) im Moment stehen und welche Tendenzen sich für die nahe Zukunft abzeichnen.