Filtern
Erscheinungsjahr
Dokumenttyp
- Vortrag, Vorlesung, Präsentation (74) (entfernen)
Sprache
- Deutsch (58)
- Englisch (10)
- Spanisch (5)
- Mehrsprachig (1)
Schlagworte
- Digital Humanities (15)
- Computerunterstützte Lexikographie (9)
- Edition (9)
- Historische Lexikographie (9)
- historical lexicography (9)
- Digitalisierung (8)
- Information und Dokumentation (8)
- Bibliographie (6)
- Deutschland (6)
- Edición digital académica (5)
- Geschichtswissenschaft (5)
- Datenmanagement (4)
- Digitalización (4)
- TEI (4)
- Text Encoding Initiative (4)
- online dictionary (4)
- Alexander von Humboldt (3)
- Brief (3)
- Forschungsdaten (3)
- Humboldt, Alexander von (3)
- Lexikographie (3)
- dictionary (3)
- user feedback (3)
- Benutzerforschung (2)
- Biographik (2)
- Cuba (2)
- Datenbankverwaltung (2)
- Datenmodellierung (2)
- Deutsches Wörterbuch <Grimm> (2)
- Digitale Edition (2)
- Entlehnung (2)
- Eurolatein (2)
- Europa (2)
- Forschungsdatenmanagement (2)
- Geisteswissenschaften (2)
- Grammatik (2)
- Grammatik im Wörterbuch (2)
- Latein (2)
- Latin loanwords (2)
- Metadaten (2)
- Patristik (2)
- Retrodigitalisierung (2)
- Schnittstelle (2)
- Strukturierung (2)
- Usability (2)
- Wörterbuch und Nutzer (2)
- XML (2)
- correspSearch (2)
- digital lexicography (2)
- digitalisation (2)
- e-lexicography (2)
- elektronisches Repositorium (2)
- neo-latin (2)
- retro-digitisation (2)
- west-european languages (2)
- westeuropäische Sprachen (2)
- wissenschaftliche Lexikographie (2)
- 100 (1)
- API (1)
- Accessibility (1)
- Afrasiab (1)
- Altertumswissenschaft (1)
- Altägyptisch (1)
- Antikes Christentum (1)
- Análisis (1)
- Application Programming Interface (1)
- Archivos digitales (1)
- Bedeutung (1)
- Bedeutungsbeschreibung (1)
- Benutzerfreundlichkeit (1)
- Bewusstsein (1)
- Biblioteconomía (1)
- Briefsammlung (1)
- CMIF (1)
- Christentum (1)
- Daten (1)
- Datensicherung (1)
- Digitales Archiv (1)
- Dutch (1)
- Editionsgeschichte (1)
- Einsprachiges Wörterbuch (1)
- Empathie (1)
- Europäische Lexikographie (1)
- Eusebius, Caesariensis (1)
- Evolution (1)
- Exegese (1)
- French (1)
- Gehirn-Geist-Beziehung (1)
- Gemeinsinn (1)
- Gender (1)
- German loans (1)
- Geschlechterforschung (1)
- Grammatik und Semantik (1)
- Graphdatenbank (1)
- Graphentechnologien (1)
- Historische Sprachwissenschaft (1)
- Homo sapiens (1)
- Hungarian (1)
- Informatik (1)
- Informationskompetenz (1)
- Infrastructure (1)
- Interfaces (1)
- Internationalization (1)
- Internetwörterbuch (1)
- Juden (1)
- Kafir Kala (1)
- Katene (1)
- Kommentar (1)
- Korpus <Linguistik> (1)
- Künstliche Intelligenz (1)
- Lachmannian method(criticism of) (1)
- Landesbibliographie (1)
- Lectura (1)
- Lehndorff (1)
- Lehndorff (Familie) (1)
- Lehnwort (1)
- Lehnwörterbuch (1)
- Localization (1)
- Markup-Theorie (1)
- Mug (1)
- Multilingualism (1)
- Netzwerkforschung (1)
- Niederländisch (1)
- Nordrhein-Westfalen (1)
- Normdatei (1)
- Norwegian (1)
- Norwegisch (1)
- OWID (1)
- Old Egyptian (1)
- Online-Publikation (1)
- Online-Wörterbuch (1)
- Open Science (1)
- Origenes (1)
- Ostpreußen (1)
- Parzival (1)
- Philosophiegeschichte (1)
- Pseudo-Athanasius (1)
- Redaktionssystem (1)
- Regesta Imperii (1)
- Regesten (1)
- Regionalbibliographie (1)
- Repository (1)
- Repository <Informatik> (1)
- Reutilización (1)
- Schleiermacher (1)
- Schleiermacher, Friedrich (1)
- Schwedisch (1)
- Schweizerisches Idiotikon (1)
- Semantik (1)
- Semantische Analyse (1)
- Septuaginta (1)
- Slavic languages (1)
- Slawische Sprachen (1)
- Sogdiana (1)
- Sogdisch (1)
- Sprachen in Europa (1)
- Steinort (1)
- Swedish (1)
- Swiss German (1)
- Sztynort (1)
- Technische Infrastruktur (1)
- Text Mining (1)
- Textkritik (1)
- Textmodellierung (1)
- Theorie und Methoden der Sprachwissenschaft (1)
- Translation (1)
- Ungarisch (1)
- User Interface (1)
- Vernetzung (1)
- Walther von / Französisches etymologisches Wörterbuch (1)
- Wartburg (1)
- Web Services (1)
- Wissenschaftliche Bibliothek (1)
- Wissenschaftliche Kooperation (1)
- Wissenschaftskollaboration (1)
- Wolfram von Eschenbach (1)
- Wörterbuch (1)
- Wörterbuch und Öffentlichkeit (1)
- Wörterbuchbenutzung (1)
- Yaghnobi (1)
- Zarafschan-Tal (1)
- Zugriffsstruktur (1)
- antike Philosophie (1)
- corpus (1)
- courtly romance (1)
- critical electronic edition (1)
- deutsche Lehnwörter (1)
- dh-kolloquium (1)
- diachronic dictionary (1)
- digital editing platform (1)
- digital scholarly edition (1)
- digitales Wörterbuch (1)
- digitization (1)
- ediarum (1)
- elexiko (1)
- etymology (1)
- grammar (1)
- italouzbekische archäologische Mission in Samarkand (1)
- lexicography in Europe (1)
- lexikographischer Prozess (1)
- meaning (1)
- new philology (1)
- transmission of manuscripts (1)
- usability (1)
- Ästhetik (1)
Volltext vorhanden
- ja (74)
Institut
- TELOTA - IT/Digital Humanities (24)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (17)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Drittmittelprojekt Proyecto Humboldt Digital (7)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Drittmittelprojekt CLARIN-D (3)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Drittmittelprojekt OCR-D (2)
- Zentrum Sprache (2)
- Akademienvorhaben Anpassungsstrategien der späten mitteleuropäischen Monarchie am preußischen Beispiel 1786 bis 1918 (1)
- Akademienvorhaben Die Griechischen Christlichen Schriftsteller (1)
- Akademienvorhaben Turfanforschung (1)
- Berlin-Brandenburgische Akademie der Wissenschaften (1)
- Drittmittelprojekt Lebenswelten, Erfahrungsräume und politische Horizonte der ostpreußischen Adelsfamilie Lehndorff vom 18. bis in das 20. Jahrhundert (1)
- Veröffentlichungen externer Institutionen (1)
- Veröffentlichungen von Akademiemitgliedern (1)
Vortrag "ediarum-Funktionen 'sex' & 'gender'" beim BBAW-internen Workshop "Gender&Data in DH-Projekten" am 21.03.2024 über die neu entwickelten ediarum-Funktionen "biologisches Geschlecht (sex)" und "Geschlechtsidentität (gender)". Beschreibt die Vorüberlegungen und Anforderungen sowie die Umsetzung im Datenmodell und den ediarum-Aktionen. Abschließend Ausblick auf mögliche Weiterentwicklungen.
Folien zum Kurzvortrag "Gender & Data in correspSearch", der im Rahmen eines Workshops zu Gender & Data am 23.03.2023 an der BBAW gehalten wurden. Der Kurzvortrag gibt einen Überblick darüber, wieviel Briefe von/an Frauen in correspSearch vorhanden sind und wie der Webservice mit Hilfe der Gemeinsamen Normdatei Briefe nach Geschlecht durchsuchbar macht - und mit welchen Limitationen.
Schon vor zehn Jahren konstatierte Patrick Sahle, dass die digitale Edition «von ihren konzeptionellen und technischen Bedingungen her ‹entgrenzt›» ist (Sahle 2013, Bd. 2, S. 219). Er skizzierte fünf «Dimensionen der Offenheit». Dazu gehören erstens die Auswahl der Editionsinhalte, zweitens die Kodierungstiefe, drittens die Unabgeschlossenheit, viertens die Vernetzung mit externen Inhalten und Webservices sowie fünftens die variablen Präsentationsformen der digitalen Edition. Es sind diese Dimensionen, die die digitale Edition dezidiert als eine «offene» charakterisieren. Doch was heisst das konkret: Wie manifestieren sich die genannten Dimensionen in digitalen Editionen? Welche Möglichkeiten bietet die offene Edition – und werden sie alle überhaupt schon genutzt? Welche Herausforderungen stellt die offene Edition an die digitale Methodik und die Editionswissenschaft? Diese Fragen versuchte der Vortrag anhand einiger Beispiele von Editionen neuzeitlicher Texte zu beantworten.
Folien des Abendvortrags im Rahmen der Summer School „Einführung in die digitale Editorik. Briefe mit TEI codieren und publizieren.“ Zürich, 30.08.2023.
Der Band dokumentiert die "Posterstraße", die im Rahmen der Festveranstaltung zum 20-jährigen Jubiläum von TELOTA am 22. Juni 2022 stattfand. Die über 30 Poster stellen die vielfältigen Arbeitsbereiche, Tätigkeitsfelder, Projekte und Kooperationen von TELOTA vor. Sie sind - wie auf der Veranstaltung - in sieben thematische Bereiche gegliedert, die die Arbeit von TELOTA beschreiben: Forschungssoftware, Text & Edition, Visualisierung & Datenanalyse, Infrastruktur, Vernetzung & Kooperationen sowie DH-Community & Lehre.
Ediarum is an editing environment designed and implemented by TELOTA at the Berlin-Brandenburg Academy of Sciences and Humanities (BBAW, Germany). It is based on two main components: an open-source XML native database (eXistDB) and a widely used commercial XML editor (Oxygen XML editor).
The aim of ediarum is to facilitate the task of encoding texts in TEI format, to store the resulting XML files in eXistDB and to enable collaboration and sharing amongst the members of a team. The central framework of this environment --known as ediarum.BASE.edit-- allows the editor to hide the XML tags and use a number of functions through a toolbar and a menu. In other words, the ediarum.BASE.edit's interface increases the usability of the XML editor and speeds up the encoding process and can be adapted to each project's needs. However, this framework is only available in German language. In other words, the code and the language interface are only accessible for and usable by German-speaking users.
While the original goal of TELOTA was to “bridge the gap” between the markup and the editor (Dumont and Fechner, 2015), the interface language creates a barrier for encoders who do not work in German and impedes potential collaborations with other institutions. In order to break this usability and accessibility barrier, in 2020 Proyecto Humboldt Digital (ProHD), a cooperation project between the BBAW and the Oficina del Historiador de la Ciudad de la Habana (Cuba), engaged with an adaptation process involving the internationalization of the software (developing features and code that are independent of language or locale) and the localization in the Spanish locale (creating resource files containing translations). As a result of this process, the project has developed a localization of ediarum.BASE.edit called ediarum.PROHD.edit that can be downloaded on Github.
This paper aims to present ediarum.PROHD.edit and to reflect on the most important challenges encountered during the software localization. After reviewing what “localization” means in Translation Studies (Pym, 2016; Jiménez Crespo, 2016), I will discuss the process of internationalization of the software (mostly variables written in ediarum's default functions), the localization itself (the translation of terms and descriptions displayed in the interface) and some testing undertaken with the Cuban team of Proyecto Humboldt Digital.
¿Cuáles son las confluencias entre la biblioteconomía y las humanidades digitales? ¿Cómo pueden los humanistas digitales crear recursos en colaboración con los bibliotecarios? ¿Cómo la cultura y la política están dando forma al desarrollo de las prácticas de digitalización en América Latina y Europa? Esta ponencia pretende responder a algunas de estas preguntas analizando el Proyecto Humboldt Digital y dando algunos ejemplos sobre cuatro actividades de TADIRAH -captura, enriquecimiento, almacenamiento y difusión- relevantes tanto para bibliotecarios como para humanistas digitales.
Con esta comunicación pretendemos debatir sobre los principales retos y oportunidades que supone un proyecto de cooperación entre la Academia de las Ciencias y las Humanidades de Berlín (BBAW) y la Casa Humboldt de la Oficina del Historiador de la Ciudad de La Habana (OHCH); asimismo, presentaremos los primeros avances realizados en la digitalización y edición digital con métodos filológicos de un corpus de textos centrado en la recepción del pensamiento antiesclavista de Alexander von Humboldt y en la realidad colonial de la isla.
El corpus seleccionado se define por su naturaleza transnacional y multilingüe (español, francés y alemán) y por su dispersión física, pues los documentos se encuentran en varias bibliotecas y archivos cubanos, alemanes y polacos. Gracias a las posibilidades de interconexión y reutilización del medio digital, este proyecto se propone preservar y dar acceso digital a una colección coherente y unitaria desde un punto de vista temático. De esta manera, los usuarios obtendrán una mirada nueva y completa al problema de la esclavitud y al funcionamiento del sistema colonial, que condenaba a la isla al monocultivo y a importar bienes de primera necesidad procedentes de la Metrópolis.
El proyecto cuenta con un equipo internacional y multilingüe capacitado para incrementar el acceso a través de internet del patrimonio cultural cubano-alemán. Con tal fin, se ha adquirido equipamiento (ordenadores, escáneres de alta resolución, impresora, mobiliario, etc.) adecuado con el que se digitalizarán los documentos preservados en Cuba. Asimismo, se espera definir una metodología en común que asegure la sostenibilidad de los archivos de imágenes en formato estándar (TIFF), la identificación y descripción de los objetos digitales mediante metadatos, la obtención de texto completo de las obras impresas por medio de tecnologías OCR, la representación de la estructura de los textos con lenguaje de marcado TEI/XML y, finalmente, la publicación de ediciones académicas digitales en una plataforma abierta y multilingüe.
Las ediciones digitales académicas suelen definirse como ediciones académicas que se guían por el paradigma digital en su teoría, método y práctica. Aunque esta definición es útil como punto de partida, los estudios sobre los usos potenciales de este tipo de publicación en formato digital siguen siendo escasos; asimismo, los proyectos digitales a menudo se limitan a dar acceso y a preservar los textos sin interrogarse sobre cómo pueden utilizarse para investigar. Con esta conferencia, pues, se pretende revisar la definición de edición digital académica, presentar una tipología que ayude a editores y a usuarios a orientarse y, por último, ilustrar algunos usos ejemplares de reutilización y análisis.
Entre la digitalización y la edición digital : retos y avances de “Proyecto Humboldt Digital”
(2022)
Tras la presentación de los objetivos, se discute los principales retos encontrados en Proyecto Humboldt Digital: sesgos de la digitalización, selección de documentos, Covid-19, embargo estadounidense, software libre, alianzas poscustodiales; asimismo se presentan los avances principales: flujo de trabajo, digitalización, adaptación de herramientas, documentación de criterios, edición de fuentes históricas, construcción de sitios web, exposición y actividades de difusión.
TELOTA: Woher, Wohin?
(2022)
Love your data!
(2022)
Im Rahmen der Akademievorträge an brandenburgischen Schulen 2021/22 bot die Initiative "Forschungsdatenmanagement" den Schülerinnen und Schülern einen Einblick in die Themen Datenorganisation und -sicherung.
Denn die Menge an digitalen Daten auf dieser Erde wächst täglich. Umso wichtiger ist das Management der eigenen Daten, um den Überblick zu behalten – privat, aber auch im Studium oder Berufsleben. In der Wissenschaftswelt geben die „Leitlinien zur Sicherung guter wissenschaftlicher Praxis“ den sorgsamen Umgang mit den sogenannten „Forschungsdaten“ sogar vor. In den Geistes- und Kulturwissenschaften versteht man unter dem Begriff alle Quellen/Materialien und Ergebnisse, die im Zusammenhang einer Forschungsfrage gesammelt, erzeugt, beschrieben und/oder ausgewertet werden. Wie geht man mit diesen Daten am besten um und welche Tipps und Tricks kann man sich hier für seine private Datenorganisation abschauen? Der Vortrag sensibilisiert für die Relevanz von Datenmanagement und gibt einen datenzentrierten Einblick in (geistes-)wissenschaftliche Forschungsprozesse.
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.
Im Jahr 2021 lädt die Initiative "Forschungsdatenmanagement" alle Mitarbeitenden der BBAW zu einer Veranstaltungsreihe mit dem Titel "Forschungsdatenmanagement kompakt" ein.
Die Präsentationsfolien der ersten Online-Veranstaltung am 11.02.2021 führen in die Grundlagen und Grundbegriffe des Forschungsdatenmanagements ein und stellen die Ziele der Initiative vor.
Digitale Technologien und Formate eröffnen Museen neue Formate der Interaktion, Interpretation und Kommunikation. Im Vergleich zu objektbezogener Forschung im Museum, die durch den Einsatz digitaler Erschließungssysteme, der Nutzung und Publikation von digitalen Reproduktionen und der Integration von digital gestützten Untersuchungsmethoden eine methodische Erweiterung erfährt, wird die Entwicklung digitaler Kommunikations- und Vermittlungsformate bisher eher selten als transdisziplinärer Forschungsauftrag im Museum verstanden. Mit museum4punkt0 wurde 2017 erstmals in Deutschland ein museales Forschungsprojekt initiiert, welches Kulturinstitutionen verschiedener Sparten, Größen und institutionellen Strukturen mit dem Ziel der Entwicklung und Beforschung digitaler Anwendungen in einem Verbund vereint. Zentrales Merkmal des Verbundes ist die Vernetzung und gegenseitige Unterstützung der beteiligten Institutionen bei der Entwicklung und Evaluation von digitalen Vermittlungs- und Kommunikationsangeboten. Untersucht wird, wie neueste digitale Technologien effektiv für die Aufgaben von Museen, insbesondere in der Wissensvermittlung, nutzbar gemacht werden können.
Durch die zunehmende Digitalisierung nimmt die Bedeutung von Forschungsdaten in den Geisteswissenschaften, insbesondere in den Digital Humanities, zu. Dabei rücken in den letzten Jahren verstärkt Open Science-Paradigmen, wie der möglichst offene Zugang zu den Daten und die FAIR Data Principles (Findable, Accessible, Interoperable, Reuseable) in den Fokus. Diese bedeuten einen Paradigmenwechsel für Wissenschaftler*innen und Wissenschafts- und Gedächtnisinstitutionen und erfordern die Kooperation im Rahmen nationaler und internationaler Infrastrukturen.
Zur Förderung guter Datenmanagementpraktiken verlangen verschiedene nationale und internationale Förderorganisationen bei Projektanträgen Auskunft über den Umgang mit nachgenutzten oder erstellten Forschungsdaten, z. B. in der Form von Datenmanagementplänen (DMPs). Inzwischen setzt sich die Erkenntnis durch, dass es nicht mit einem einmaligen Datenmanagementplan getan ist, sondern dass DMPs während des Projektverlaufs angepasst werden müssen, um das Forschungsdatenmanagement aktiv und unter Einbeziehung aller relevanten Stakeholder zu unterstützen und seine Potenziale auszuschöpfen (aktives Forschungsdatenmanagement). Hierfür wird im Rahmen eines DFG-Projekts das Werkzeug Research Data Management Organizer (RDMO) entwickelt.
Der Vortrag gibt eine Einführung in die wichtigsten Begrifflichkeiten und Konzepte des geisteswissenschaftlichen Forschungsdatenmanagements und seine Bedeutung für die Sicherung der guten wissenschaftlichen Praxis, die Qualitätssicherung der Forschungsdaten und die Erhöhung des Impacts der Resultate digitaler geisteswissenschaftlicher Forschung und führt diesbezüglich in Funktionalitäten und Anwendungsmöglichkeiten des Werkzeugs RDMO ein.
Präsentationsfolien für einen Vortrag im Rahmen des DH-Kolloquiums an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) am 02.08.2019.
Was macht gute Software aus? Wie stellt man sicher, dass man die Bedürfnisse der Benutzer und anderen Stakeholder richtig versteht, priorisiert, kommuniziert und umsetzt? Wie definiert man Balance und Zeitablauf für Planung, Design, Architektur, und Implementierung? Was muss man modellieren und was nicht? Braucht man User Stories oder Use Cases? Und wer macht was in einem kleinen Team? Ist häufige Iteration die Lösung aller Probleme? Dieser Vortrag versucht aufzuzeigen, worauf es wirklich ankommt – in einem Spagat zwischen klassischem Requirements Engineering, agiler Softwareentwicklung und modernem Interaktionsdesign.
Die digitalen Geisteswissenschaften beschäftigen sich mit der Erforschung von Methoden, die für die Erstellung von formalen Modellen in den Geisteswissenschaften nötig sind, sowie mit deren Anwendung auf konkrete geisteswissenschaftliche Forschungsfragen. Das Web of Data (Semantic Web) verspricht mittels formalen Modellen die Welt zu beschreiben und Forschungsdaten auf einer semantischen Ebene so zu strukturieren, dass Interoperabilität, Nachvollziehbarkeit und Nachnutzung gewährleistet sind.
Am Beispiel einer Ontologie zur virtuellen Rekonstruktion des Nachlasses von Stefan Zweig sowie eines konzeptionelles Datenmodell zur Beschreibung von Transaktionen in historischen Rechnungsunterlagen wird der Vortrag Herausforderungen und Möglichkeiten des Web of Data veranschaulichen. Die Diskussion erstreckt sich von der Forschungsfrage der jeweiligen Fachdomäne, über das Ontology Engineering bis hin zur Anwendung der Ontologie im Projektkontext und der Modellierung der Daten als Linked Open Data Ressource.
The computer has come to play a transformative role in the ways we model, store, process and study text. Nevertheless, we cannot yet claim to have realised the promises of the digital medium: the organisation and dissemination of scholarly knowledge through the exchange, reuse and enrichment of data sets. Despite the acclaimed interdisciplinary nature of digital humanities, current digital research takes place in a closed environment and rarely surpasses the traditional boundaries of a field. Furthermore, it is worthwhile to continue questioning the models we use and whether they are actually suitable for our scholarly needs. There’s a risk that the affordances and limitations of a prevailing model may blind us to aspects it doesn’t support.
In her talk, Elli Bleeker discusses different technologies to model data with respect to their expressive power and their potential to address the needs of the scholarly community. Within this framework, she introduces a new data model for text, Text-As-Graph (TAG), and it’s reference implementation Alexandria, a text repository system. The TAG model allows researchers to store, query, and analyse text that is encoded from different perspectives. Alexandria thus stimulates new ways of looking at textual objects, facilitates the exchange of information across disciplines, and secures textual knowledge for future endeavours. From a philosophical perspective, the TAG model and the workflow of Alexandria raise compelling questions about our notions of textuality, and prompt us to reconsider how we can best model the variety of textual dimensions.
Während die Netzwerkanalyse in den Sozialwissenschaften seit den Arbeiten Jacob Levy Morenos zu Anfang des 20. Jh.s fester Bestandteil des methodischen Repertoires ist, hat sie sich im Laufe der letzten 10 Jahren auch in anderen Wissenschaftszweigen, darunter auch Archäologie und Geschichtswissenschaften, als Methodik etabliert. Doch was beinhaltet die Analyse von Netzwerken jenseits einer rein metaphorischen Nutzung des Begriffes nun genau? Für welche Fragestellungen ist diese Methodik geeignet, und wo liegen die Grenzen der Anwendung? Wie lässt sich die Entwicklung und rege Anwendung in Fachdisziplinen wie Soziologie und Politologie mit der Erforschung (prä-)historischer Gesellschaften vereinbaren? Anhand verschiedener Beispiele aus Archäologie und Geschichte werden diese und weitere Fragen diskutiert und eine Einführung in den derzeitigen Stand der archäologisch-historischen Netzwerkforschung gegeben.
Der Vortrag bietet eine Rückschau auf die Jahreskonferenz der Digital Humanities im deutschsprachigen Raum zu dem Thema "Kritik der digitalen Vernunft", die von 26.2. bis 2.3.2018 in Köln stattfand. Zunächst wird ein Überblick zu den Konferenzbeiträgen der Mitarbeiterinnen und Mitarbeiter der BBAW gegeben. Die Bandbreite der Beiträge aus dem Haus umfasst sowohl praxisorientierte Vorträge, in denen die Entwicklung digitaler Editionen und Korpora thematisiert wird, als auch theoretische Reflexionen. Im Anschluss formulieren die Vortragenden die wesentlichen Beobachtungen und Eindrücke zur Frage, wo die verschiedenen Bereiche der Digital Humanities (z. B. digitale Editionen, quantitative Textanalyse, Softwareentwicklung) im Moment stehen und welche Tendenzen sich für die nahe Zukunft abzeichnen.
Graphentechnologien in den Digitalen Geisteswissenschaften. Die RI als Netzwerk von Entitäten
(2017)
Folien des Vortrags „Graphentechnologien in den digitalen Geisteswissenschaften“ von Dr. Andreas Kuczera im Rahmen des DH-Kolloquiums an der BBAW am 1.12.2017. Anhand verschiedener Beispiele aus den Projekten Regesta Imperii und Nomen et Gens zeigt der Vortrag wie Graphentechnologien für geisteswissenschaftliche Fragestellungen verwendet werden könnten.
Der Vortrag gibt zunächst einen Einblick in die Erstellung TEI-XML-basierter Text-Editionen mit einem Fokus auf Handschriften des 19. Jahrhunderts (am Beispiel der Nachschriften zu Humboldts Kosmos-Vorlesungen 1827/28 in Berlin). Anhand dessen wird erläutert, inwiefern sich die Repräsentation historischer Textzeugen im Zuge des Medien- bzw. Paradigmenwechsels von printorientierten Formaten hin zu genuin digitalen Editionsformen verändert. Dies hat zum einen Auswirkungen auf Produktionsseite, d.h. auf die editorische Praxis, vor allem aber – und hierauf wird der Schwerpunkt des Vortrags liegen – auf die Rezeptionsseite: Digitale Edition müssen nicht nur anders konzipiert und produziert, sondern auch anders gelesen werden, will man das Potential der (in der germanistischen Editionsphilologie teilweise immer noch:) ‘neuen’ Medien ausschöpfen. Die Editionspraxis schreitet von der linearen Auszeichnung textoberflächlicher Phänomene bzw. deren an- oder nachgelagerter diskursiver, spezifischer Beschreibung weiter in Richtung standardisierter, formalisierter Annotation, die in die mehrdimensionale, vielschichtige Tiefe des Textzeugen führt.
Friedrich Schleiermachers Vorlesungen über die Ästhetik (1819, 1825, 1832/33) sind bislang in verschiedenen Ausgaben erschienen. In diesem Beitrag wird aufgrund einer kurzen Editions- und Rezeptionsgeschichte dieser Vorlesungen untersucht, inwiefern die kanonische Bedeutung eines philosophischen Werks von den technischen und konzeptionellen Bedingungen seiner Edition einerseits und von der fachlich qualifizierten Rezeption andererseits abhängt. Dabei wird insbesondere auf die kanon-wirksamen Potenziale der digitalen Edition eingegangen.
Einführung Textkritik
(2017)
Im Vortrag wurde ausführlich der Grundgedanke hinter dem DTA-Basisformat, d. h. die Etablierung eines reduzierten, zugleich vollständig TEI-konformen XML-Markups für historische Textressourcen, erläutert. ‚Reduziert‛ bedeutet in diesem Zusammenhang, dass immer dort, wo die P5-Richtlinien der TEI mehrere Möglichkeiten zur Annotation gleichartiger Phänomene bieten, innerhalb des DTABf nur genau eine dieser Varianten gewählt werden kann. Ziele dieser Restriktion sind zum einen die Gewährleistung gleichartiger Annotationsweisen innerhalb des DTA-Korpus sowie zum anderen die Erhöhung der Interoperabilität verschiedener TEI-XML-kodierter Textkorpora.
Neben dem DTABf für historische Drucke erwähnte Susanne Haaf in ihrem Vortrag auch die verschiedenen Spezialtagsets innerhalb des DTABf, die beispielsweise für die Annotation von (historischen) Zeitungen, Funeralschriften und seit einiger Zeit auch für die Auszeichnung (neuzeitlicher) Manuskripte entwickelt wurden. Dabei wurde das immer noch sehr breite Spektrum der Phänomene erkennbar, die sich mit dem DTABf standardkonform auszeichnen lassen, wobei die ausführliche und reich illustrierte Dokumentation des DTABf eine zuverlässige Orientierungshilfe bietet. In technischer Hinsicht wurde die Erstellung der umfangreichen DTABf-Dokumentation mit dem Dokumentenformat DITA (Darwin Information Typing Architecture) erläutert, das deren Handhabung und Modularisierung (auch durch Nachnutzende) enorm vereinfacht. Als weitere technische Komponenten stellte Haaf das mit dem Chaining-ODDs-Mechanismus modularisierte ODD, auf dem das DTABf beruht, das RNG-Schema sowie die weitere Spezifikation der Annotationspraxis durch einen Schematron-Regelsatz vor. [2]
Alle Komponenten des DTABf werden mittlerweile über die DTA-Präsenz auf der Entwicklungsplattform GitHub verwaltet und versioniert. Sie können dadurch auch von externen Nutzerinnen und Nutzern kommentiert, heruntergeladen und ggf. auf deren eigene Bedürfnisse hin modifiziert werden. Als weiterer Schritt zur stärkeren Einbindung der wachsenden Nutzer-Community des DTABf ist die Einrichtung einer Steuerungsgruppe mit externen Beteiligten geplant, die über zukünftige Modifikationen und Erweiterungen des Formats entscheiden wird. Darüber hinaus wurde in diesem Zusammenhang die geplante Übersetzung der DTABf-Dokumentation ins Englische, die im Rahmen des EU-Projekts PARTHENOS vorgesehen ist, erwähnt. [3]
Die anschließende Diskussion widmete sich u.a. den Implikationen der zunehmenden Verbreitung des DTABf, das mittlerweile von mehr als 25 externen Projekten genutzt und sowohl vom EU-weiten Infrastrukturprojekt CLARIN als auch von der Deutschen Forschungsgemeinschaft (DFG) empfohlen wird, was einen wichtigen Schritt in Richtung Standardisierung bzw. Etablierung von Best Practices innerhalb der Historischen Linguistik sowie allgemein der textbasiert arbeitenden Philologien, Geschichts- und Kulturwissenschaften darstellt. Das DTABf wurde zwar ursprünglich für die Auszeichnung des primär deutschsprachigen Korpus des Deutschen Textarchivs entwickelt, eignet sich aber ebenso zur Annotation von Textressourcen, die in anderen Sprachen (oder anderen Sprachstufen des Deutschen) verfasst wurden.
(Open-Source-)OCR-Workflows
(2017)
Slides for the OCR-D talk at the Digital Humanities Kolloquium at the Berlin-Brandenburg Academy of Sciences and Humanities (4th August 2017).
Folien zum Vortrag "Digitale Briefeditionen und ihre Vernetzung" im Rahmen der Ringvorlesung "Transdisziplinäre Aspekte Digitaler Methodik in den Geistes- und Kulturwissenschaften" an der Johannes Gutenberg-Universität Mainz am 3. Mai 2017. Der Vortrag erläutert die aktuellen Entwicklungen digitaler Briefeditionen, u.a. werden User Interfaces und ihr Nutzen für die digitale Briefedition vorgestellt. Darüber hinaus diskutiert der Vortrag, wie mit Hilfe von Application Programming Interfaces (APIs) die digitale Briefedition umfassend vernetzt werden kann. Ein Exkurs widmet sich dabei dem Webservice "correspSearch".
Folien zu einem Vortrag im Rahmen des Digital-Humanities-Kolloquium an der BBAW am 7.7.2017. Der Vortrag erläutert, ausgehend von editionswissenschaftlichen Entwicklungen der 1980er und 1990er Jahre, wie die "Kopfdaten" eines Briefes nach den Richtlinien der Text Encoding Initiative (TEI) kodiert werden können. Insbesondere wird auf das TEI-Element correspDesc eingegangen und die Kodierung anhand eines Beispiels veranschaulicht. Darüber hinaus wird der Mehrwert von Briefmetadaten sowohl für die digitale Briefedition an sich als auch zu ihrer Vernetzung diskutiert. Dabei wird vor allem auf das Correspondence Metadata Interchange Format (CMIF) und den Webservice correspSearch eingegangen.
Da einerseits die informelle Partizipation an der Kultur des Internet durch Digital Natives nicht unmittelbar auf das Erlernen komplexer wissenschaftlicher Informations- und Medienkompetenz übertragbar ist, andererseits im geschichtswissenschaftlichen akademischen Unterricht die Komplexität digitaler und/oder virtueller geschichtswissenschaftlicher Ressourcen kaum zu vermitteln ist, müssen Bibliotheken gemeinsam mit den Fachbereichen effiziente Strategien entwerfen, Studierenden geschichtswissenschaftliche Informationskompetenz nachhaltig zu vermitteln, die ein erfolgreiches Studium ermöglichen. Hierfür bietet das Modell der Teaching Library ein flexibel zu handhabendes Instrument. Die traditionelle produktorientierte "Datenbankschulung" wird ersetzt durch den kompetenzorientierten Umgang mit Fachressourcen im geschichtswissenschaftlichen Arbeitsprozess. Zu den traditionellen geschichtswissenschaftlichen Fachbibliographien treten immer komplexere Quellendatenbanken, die schon heute eine ganz neue Qualität quellenbasierten historischen Arbeitens ermöglichen. In diesem Sinne wird die geschichtswissenschaftliche Fachbibliographie der Zukunft im Verständnis eines erweiterten Bibliographiebegriffs eine Scharnierfunktion zwischen unterschiedlichen Quellendatenbanken, Virtuellen Fachbibliotheken, Virtuellen Forschungsumgebungen und Kulturportalen einnehmen.
Die deutschen Geschichtsbibliographien stehen aktuell vor einigen Herausforderungen: Sie sind von einer großen Heterogenität hinsichtlich ihrer Sammelprofile geprägt, kaum mit dem Bibliothekswesen vernetzt und müssen sich gegenüber anderen Recherchemitteln behaupten. Die Erkenntnis, dass dieser Situation gemeinsam besser begegnet werden kann, hat die beiden großen deutschen Bibliographien der Geschichtswissenschaft, die Historische Bibliographie und die Jahresberichte für Deutsche Geschichte, dazu bewogen, sich mit einer epochalen Spezialbibliographie, der Bibliographie zur Zeitgeschichte, und der Bayerischen Staatsbibliothek als Sondersammelgebietsbibliothek für Geschichte zusammenzutun. In einem gemeinsamen DFG-Projekt werden derzeit die organisatorischen und konzeptionellen Grundsteine für eine künftig engere Zusammenarbeit sowie eine noch zu schaffende "Deutsche Historische Bibliographie" gelegt. Während der ersten zwei Projektjahre konnten sich die Partner bereits darauf einigen, gemeinsam in einem Bibliotheksverbund zu katalogisieren und arbeitsteilig Zeitschriften auszuwerten, außerdem wurde eine gemeinsame Fachsystematik konzipiert, die einzelnen Bibliographien wurden an verschiedenen Stellen optimiert und ihre Datenbestände mit Suchmaschinentechnologie indiziert und in Fachportale eingebunden. In der zweiten Projektphase sollen diese Arbeiten fortgeführt und die Etablierung einer "Deutschen Historischen Bibliographie" vorbereitet werden. Es ist dabei das Ziel, ein so funktionales wie benutzerfreundliches Serviceangebot der historisch-bibliographischen Fachinformation zu schaffen. In der Präsentation wird ein breites, den state-of-the-art moderner Informationstechnologien berücksichtigendes Feature-Spektrum vorgestellt, das einer "geschichtswissenschaftlichen Fachbibliographie der Zukunft" gerecht werden soll. In welchem Umfang dies tatsächlich realisiert werden kann, wird jedoch noch intensiv zu prüfen sein.
Even a reductionist attempt to define scholarship is clearly fraught with difficulty, but an idealised historical lexicographer-cum-scholar must obviously have – inter alia and at the very least – a profound linguistic and textual knowledge of the language being documented, an ability to understand texts in their historical context and to analyse the meaning or function of lexical items as used in context, an ability to synthesise the results through generalisation and abstraction and to formulate them in a way that is both accurate, i.e. reflects actual usage, and user- or reader-friendly, i.e. is comprehensible to the user/reader. S/he must have encyclopedic or world knowledge and literary skills in order to understand general content words and explain their meaning and their semantic shifts perhaps over many centuries, and technical expertise to understand specialist terms and define their use in specific contexts, again perhaps over time. In respect of etymology s/he must not only have knowledge of older stages of the language and an ability to reconstruct unattested forms, but also knowledge of the other languages that have impacted on the language being documented, or at least familiarity with the scholarly historical dictionaries of those languages. That is a tall order indeed, impossibly tall for any one person today given today‘s demands on and expectations of lexicographers. Teams which include specialists in different areas or at least have access to consultants in such areas alongside generalists are needed if scholarly standards are to be met. The standard of scholarship is primarily a factor of the number and range as well as the knowledge and experience of the lexicographers, as is in large measure the pace of production. In this regard, it cannot be emphasised enough that scholarly historical lexicography of high quality is and will remain very time consuming.