Refine
Year of publication
Document Type
- Lecture (23)
- Working Paper (4)
- Preprint (3)
- Conference Proceeding (2)
- Part of a Book (1)
- Other (1)
- Research data (1)
Language
- German (30)
- English (4)
- Multiple languages (1)
Keywords
- Digital Humanities (12)
- Edition (7)
- Brief (4)
- TEI (4)
- Datenmanagement (3)
- Digitale Edition (3)
- Forschungsdaten (3)
- Open Access (3)
- Biographik (2)
- Datenbankverwaltung (2)
Has Fulltext
- yes (35) (remove)
Institute
- Initiative Telota (35) (remove)
Folien zum Kurzvortrag "Gender & Data in correspSearch", der im Rahmen eines Workshops zu Gender & Data am 23.03.2023 an der BBAW gehalten wurden. Der Kurzvortrag gibt einen Überblick darüber, wieviel Briefe von/an Frauen in correspSearch vorhanden sind und wie der Webservice mit Hilfe der Gemeinsamen Normdatei Briefe nach Geschlecht durchsuchbar macht - und mit welchen Limitationen.
Schon vor zehn Jahren konstatierte Patrick Sahle, dass die digitale Edition «von ihren konzeptionellen und technischen Bedingungen her ‹entgrenzt›» ist (Sahle 2013, Bd. 2, S. 219). Er skizzierte fünf «Dimensionen der Offenheit». Dazu gehören erstens die Auswahl der Editionsinhalte, zweitens die Kodierungstiefe, drittens die Unabgeschlossenheit, viertens die Vernetzung mit externen Inhalten und Webservices sowie fünftens die variablen Präsentationsformen der digitalen Edition. Es sind diese Dimensionen, die die digitale Edition dezidiert als eine «offene» charakterisieren. Doch was heisst das konkret: Wie manifestieren sich die genannten Dimensionen in digitalen Editionen? Welche Möglichkeiten bietet die offene Edition – und werden sie alle überhaupt schon genutzt? Welche Herausforderungen stellt die offene Edition an die digitale Methodik und die Editionswissenschaft? Diese Fragen versuchte der Vortrag anhand einiger Beispiele von Editionen neuzeitlicher Texte zu beantworten.
Folien des Abendvortrags im Rahmen der Summer School „Einführung in die digitale Editorik. Briefe mit TEI codieren und publizieren.“ Zürich, 30.08.2023.
Der Band dokumentiert die "Posterstraße", die im Rahmen der Festveranstaltung zum 20-jährigen Jubiläum von TELOTA am 22. Juni 2022 stattfand. Die über 30 Poster stellen die vielfältigen Arbeitsbereiche, Tätigkeitsfelder, Projekte und Kooperationen von TELOTA vor. Sie sind - wie auf der Veranstaltung - in sieben thematische Bereiche gegliedert, die die Arbeit von TELOTA beschreiben: Forschungssoftware, Text & Edition, Visualisierung & Datenanalyse, Infrastruktur, Vernetzung & Kooperationen sowie DH-Community & Lehre.
Der Beitrag beschäftigt sich mit den Entwicklungen der Kommentierungspraxis in digitalen Brief- und Tagebucheditionen. Er untersucht dazu auch quantitativ die Kommentarpraxis anhand von TEI-XML-Daten und stellt sie teilweise Datenerhebungen aus gedruckten Editionen gegenüber. Darüber hinaus werden neue Entwicklungen und Möglichkeiten digitaler Editionen diskutiert, etwa zur Vernetzung, zum Austausch von Stellenkommentaren sowie zum Einsatz von Semantic-Web-Technologien.
300 Jahre Leonhard Euler
(2007)
Am 15. April 2007 jährte sich zum 300. Mal der Geburtstag des großen Schweizer Mathematikers Leonhard Euler. Mit zahlreichen wissenschaftlichen Veranstaltungen, Ausstellungen, Filmen und Internet-Präsentationen gedenkt die wissenschaftliche Welt dieses Jubiläums.
In Zusammenarbeit mit dem IT-Service gestaltete auch das Akademiearchiv eine Euler-Präsentation auf der Homepage der BBAW.
TELOTA: Woher, Wohin?
(2022)
RDMO ‒ Schnellstartanleitung
(2021)
Die Anleitung richtet sich an alle Wissenschaftler und Wissenschaftlerinnen an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW), welche die BBAW-Instanz der webbasierten Software "Research Data Management Organiser" (RDMO) nutzen. RDMO unterstützt Forschende durch einen vordefinierten und an die Besonderheiten der BBAW angepassten Fragenkatalog bei der Verwaltung von Datenmanagementaufgaben über den gesamten Datenlebenszyklus hinweg. Die Initiative "Forschungsdatenmanagement" erstellt gemeinsam mit allen Projekten und Vorhaben, die mit digitalen Forschungsdaten arbeiten, einen Datenmanagementplan.
Die vorliegende Handreichung gibt einen kurzen Überblick über die Funktionen von RDMO und unterstützt die Nutzenden beim selbstständigen Einsatz des Online-Werkzeugs zur Verwaltung und Aktualisierung ihres Datenmanagementplans.
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.
Im Jahr 2021 lädt die Initiative "Forschungsdatenmanagement" alle Mitarbeitenden der BBAW zu einer Veranstaltungsreihe mit dem Titel "Forschungsdatenmanagement kompakt" ein.
Die Präsentationsfolien der ersten Online-Veranstaltung am 11.02.2021 führen in die Grundlagen und Grundbegriffe des Forschungsdatenmanagements ein und stellen die Ziele der Initiative vor.
Digitale Technologien und Formate eröffnen Museen neue Formate der Interaktion, Interpretation und Kommunikation. Im Vergleich zu objektbezogener Forschung im Museum, die durch den Einsatz digitaler Erschließungssysteme, der Nutzung und Publikation von digitalen Reproduktionen und der Integration von digital gestützten Untersuchungsmethoden eine methodische Erweiterung erfährt, wird die Entwicklung digitaler Kommunikations- und Vermittlungsformate bisher eher selten als transdisziplinärer Forschungsauftrag im Museum verstanden. Mit museum4punkt0 wurde 2017 erstmals in Deutschland ein museales Forschungsprojekt initiiert, welches Kulturinstitutionen verschiedener Sparten, Größen und institutionellen Strukturen mit dem Ziel der Entwicklung und Beforschung digitaler Anwendungen in einem Verbund vereint. Zentrales Merkmal des Verbundes ist die Vernetzung und gegenseitige Unterstützung der beteiligten Institutionen bei der Entwicklung und Evaluation von digitalen Vermittlungs- und Kommunikationsangeboten. Untersucht wird, wie neueste digitale Technologien effektiv für die Aufgaben von Museen, insbesondere in der Wissensvermittlung, nutzbar gemacht werden können.
Durch die zunehmende Digitalisierung nimmt die Bedeutung von Forschungsdaten in den Geisteswissenschaften, insbesondere in den Digital Humanities, zu. Dabei rücken in den letzten Jahren verstärkt Open Science-Paradigmen, wie der möglichst offene Zugang zu den Daten und die FAIR Data Principles (Findable, Accessible, Interoperable, Reuseable) in den Fokus. Diese bedeuten einen Paradigmenwechsel für Wissenschaftler*innen und Wissenschafts- und Gedächtnisinstitutionen und erfordern die Kooperation im Rahmen nationaler und internationaler Infrastrukturen.
Zur Förderung guter Datenmanagementpraktiken verlangen verschiedene nationale und internationale Förderorganisationen bei Projektanträgen Auskunft über den Umgang mit nachgenutzten oder erstellten Forschungsdaten, z. B. in der Form von Datenmanagementplänen (DMPs). Inzwischen setzt sich die Erkenntnis durch, dass es nicht mit einem einmaligen Datenmanagementplan getan ist, sondern dass DMPs während des Projektverlaufs angepasst werden müssen, um das Forschungsdatenmanagement aktiv und unter Einbeziehung aller relevanten Stakeholder zu unterstützen und seine Potenziale auszuschöpfen (aktives Forschungsdatenmanagement). Hierfür wird im Rahmen eines DFG-Projekts das Werkzeug Research Data Management Organizer (RDMO) entwickelt.
Der Vortrag gibt eine Einführung in die wichtigsten Begrifflichkeiten und Konzepte des geisteswissenschaftlichen Forschungsdatenmanagements und seine Bedeutung für die Sicherung der guten wissenschaftlichen Praxis, die Qualitätssicherung der Forschungsdaten und die Erhöhung des Impacts der Resultate digitaler geisteswissenschaftlicher Forschung und führt diesbezüglich in Funktionalitäten und Anwendungsmöglichkeiten des Werkzeugs RDMO ein.
Präsentationsfolien für einen Vortrag im Rahmen des DH-Kolloquiums an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) am 02.08.2019.
Was macht gute Software aus? Wie stellt man sicher, dass man die Bedürfnisse der Benutzer und anderen Stakeholder richtig versteht, priorisiert, kommuniziert und umsetzt? Wie definiert man Balance und Zeitablauf für Planung, Design, Architektur, und Implementierung? Was muss man modellieren und was nicht? Braucht man User Stories oder Use Cases? Und wer macht was in einem kleinen Team? Ist häufige Iteration die Lösung aller Probleme? Dieser Vortrag versucht aufzuzeigen, worauf es wirklich ankommt – in einem Spagat zwischen klassischem Requirements Engineering, agiler Softwareentwicklung und modernem Interaktionsdesign.
Die digitalen Geisteswissenschaften beschäftigen sich mit der Erforschung von Methoden, die für die Erstellung von formalen Modellen in den Geisteswissenschaften nötig sind, sowie mit deren Anwendung auf konkrete geisteswissenschaftliche Forschungsfragen. Das Web of Data (Semantic Web) verspricht mittels formalen Modellen die Welt zu beschreiben und Forschungsdaten auf einer semantischen Ebene so zu strukturieren, dass Interoperabilität, Nachvollziehbarkeit und Nachnutzung gewährleistet sind.
Am Beispiel einer Ontologie zur virtuellen Rekonstruktion des Nachlasses von Stefan Zweig sowie eines konzeptionelles Datenmodell zur Beschreibung von Transaktionen in historischen Rechnungsunterlagen wird der Vortrag Herausforderungen und Möglichkeiten des Web of Data veranschaulichen. Die Diskussion erstreckt sich von der Forschungsfrage der jeweiligen Fachdomäne, über das Ontology Engineering bis hin zur Anwendung der Ontologie im Projektkontext und der Modellierung der Daten als Linked Open Data Ressource.
The computer has come to play a transformative role in the ways we model, store, process and study text. Nevertheless, we cannot yet claim to have realised the promises of the digital medium: the organisation and dissemination of scholarly knowledge through the exchange, reuse and enrichment of data sets. Despite the acclaimed interdisciplinary nature of digital humanities, current digital research takes place in a closed environment and rarely surpasses the traditional boundaries of a field. Furthermore, it is worthwhile to continue questioning the models we use and whether they are actually suitable for our scholarly needs. There’s a risk that the affordances and limitations of a prevailing model may blind us to aspects it doesn’t support.
In her talk, Elli Bleeker discusses different technologies to model data with respect to their expressive power and their potential to address the needs of the scholarly community. Within this framework, she introduces a new data model for text, Text-As-Graph (TAG), and it’s reference implementation Alexandria, a text repository system. The TAG model allows researchers to store, query, and analyse text that is encoded from different perspectives. Alexandria thus stimulates new ways of looking at textual objects, facilitates the exchange of information across disciplines, and secures textual knowledge for future endeavours. From a philosophical perspective, the TAG model and the workflow of Alexandria raise compelling questions about our notions of textuality, and prompt us to reconsider how we can best model the variety of textual dimensions.
When managing large quantities of data, it is a common solution to utilize a centralized data management software to forge a connection between metadata and the data objects themselves. In case of text-based objects without any attached metadata, it is easy for humans to contextualize these objects by recognizing patterns such as filenames, titles, authors etc. This task becomes a challenge when dealing with non-text-based objects like images in the cultural heritage domain. Without metadata or expert knowledge, it becomes difficult to estimate the creation date of a painting or tell the name of its painter. Thus, the ability to contextualize data depends on whether there is a working connection between the metadata store and the data object itself. This connection fails as soon as the file is moved on the file system without having these changes also applied in the corresponding
data base, or when the file is shared without a reference to its original location. This paper presents an approach to overcome that type of co-dependency by utilizing XMP to embed cultural heritage metadata directly into image files to ensure their location-independent long-term preservation. The “Corpus Vitrearum Medii Aevi” Germany (CVMA) project serves as an example use-case.
quoteSalute strives to make data of digital scholarly editions of letters (DSELs) accessible in a playful fashion by enabling users to integrate salutations from DSELs in their own email correspondence. The foundation of quoteSalute is a curated TEI-XML text corpus which has been created by extracting <salute>-tags from TEI-XML-encoded DSELs. For providing users with fitting salutations, we annotated the data regarding language, level of politeness and intended gender of sender and receiver.
Der Vortrag bietet eine Rückschau auf die Jahreskonferenz der Digital Humanities im deutschsprachigen Raum zu dem Thema "Kritik der digitalen Vernunft", die von 26.2. bis 2.3.2018 in Köln stattfand. Zunächst wird ein Überblick zu den Konferenzbeiträgen der Mitarbeiterinnen und Mitarbeiter der BBAW gegeben. Die Bandbreite der Beiträge aus dem Haus umfasst sowohl praxisorientierte Vorträge, in denen die Entwicklung digitaler Editionen und Korpora thematisiert wird, als auch theoretische Reflexionen. Im Anschluss formulieren die Vortragenden die wesentlichen Beobachtungen und Eindrücke zur Frage, wo die verschiedenen Bereiche der Digital Humanities (z. B. digitale Editionen, quantitative Textanalyse, Softwareentwicklung) im Moment stehen und welche Tendenzen sich für die nahe Zukunft abzeichnen.
Folien zum Vortrag "Digitale Briefeditionen und ihre Vernetzung" im Rahmen der Ringvorlesung "Transdisziplinäre Aspekte Digitaler Methodik in den Geistes- und Kulturwissenschaften" an der Johannes Gutenberg-Universität Mainz am 3. Mai 2017. Der Vortrag erläutert die aktuellen Entwicklungen digitaler Briefeditionen, u.a. werden User Interfaces und ihr Nutzen für die digitale Briefedition vorgestellt. Darüber hinaus diskutiert der Vortrag, wie mit Hilfe von Application Programming Interfaces (APIs) die digitale Briefedition umfassend vernetzt werden kann. Ein Exkurs widmet sich dabei dem Webservice "correspSearch".
Folien zu einem Vortrag im Rahmen des Digital-Humanities-Kolloquium an der BBAW am 7.7.2017. Der Vortrag erläutert, ausgehend von editionswissenschaftlichen Entwicklungen der 1980er und 1990er Jahre, wie die "Kopfdaten" eines Briefes nach den Richtlinien der Text Encoding Initiative (TEI) kodiert werden können. Insbesondere wird auf das TEI-Element correspDesc eingegangen und die Kodierung anhand eines Beispiels veranschaulicht. Darüber hinaus wird der Mehrwert von Briefmetadaten sowohl für die digitale Briefedition an sich als auch zu ihrer Vernetzung diskutiert. Dabei wird vor allem auf das Correspondence Metadata Interchange Format (CMIF) und den Webservice correspSearch eingegangen.
Das Feld der computerunterstützten Analyse von Filmen ist in den Digital Humanities noch vergleichbar neu. Ein Aspekt der dabei besondere Aufmerksamkeit erfahren hat ist die Analyse der Farblichkeit in Filmen. Die meisten Projekte greifen dabei auf den im Kontext der Farbquantifizierung gängigen K-Means Clustering Algorithmus zurück. Der Vortrag zeigt, warum dieser Ansatz für die Filminterpretation nur bedingt brauchbar ist und warum bisherige Ansätze eines Konzepts ermangeln, welches die Probleme in Zusammenhang mit K-Means zu reflektieren und zu kompensieren vermag. Er schlägt eine alternative Herangehensweise auf der Grundlage der Farbkontrasttheorie von Johannes Itten vor und zeigt, wie innerhalb dieses Konzepts computerunterstützt mit Filmen gearbeitet werden kann. Die aufgezeigten Probleme und Vorschläge werden dabei an Hand von aktuellem Filmmaterial aus dem Genre des Zombiefilms illustriert.
Die Repositoriensysteme DSpace, EPrints, Fedora Commons und Greenstone werden auf ihre Eignung für ein Personendaten-Repositorium evaluiert. Der Text ist so aufgebaut, dass die Untersuchungen der jeweiligen Systeme oder einzelner Aspekte auch unabhängig voneinander gelesen werden können. Zudem wurde eine Unterteilung in allgemeine, technische und spezifisch-projektbezogene Aspekte der Evaluation vorgenommen.
Um die Möglichkeiten und Risiken, die sich durch virtuelle Forschungsplattformen ergeben, besser einschätzen zu können, erscheint es sinnvoll, ihre Stellung in Zusammenhang mit der gesamten virtuellen Infrastruktur in der Forschungs- und Wissenschaftslandschaft zu denken. Hierbei wird deutlich, dass ihre Aufgabe nicht so sehr darin bestehen kann, neue Funktionalitäten zu erfinden oder neue Ressourcen verfügbar zu machen, sondern eher darin gesehen werden muss, bestehende Anwendungen und Quellsysteme auf eine Art zu organisieren, bei der sich der Mehrwert für den Benutzer durch die Integration und das In-Beziehung-Setzen derselben ergibt. Dies gilt insbesondere für die Organisation von Wissen. Erfolgreich haben Initiativen wie Open Access auf der politischen und DINI (Deutsche Initiative für Netzwerkinformation) auf der technischen Seite dazu beigetragen, dass die Ergebnisse von Forschung zunehmend in digitaler Form vorliegen und zumeist innerhalb von Repositorien, deren Zahl - wie z.B. auf OpenDOAR zu sehen - unaufhaltsam wächst, verfügbar sind. Eine Herausforderung stellt daher immer mehr die Integration und Nutzbarmachung von Wissen dar. Als Ergebniseintrag 21 im Repositorium eines Universitäts-Instituts ist der Titel eines Aufsatzes eine isolierte Information. In Beziehung gesetzt zu anderen Ressourcen und statistisch und semantisch kontextualisiert in Verbindung mit anderen Systemen wird er zu anschlussfähigem Wissen. Unter Anderem für diese Aufgabe soll mit dem Wissensspeicher der BBAW, der zur Zeit entwickelt wird, eine Lösung gefunden werden. Er versteht sich als eine Plattform, in der die Vielgestaltigkeit der Akademie, die sich durch ihre vielfältigen Forschungsvorhaben ergibt und die sich in verschiedenen Interessenszusammenhängen, Ressourcen und Ressourcensystemen ausdrückt, integriert wird, und die sich ihrerseits wiederum die Aufgabe setzt, sich in bestehende Services einzubringen und diese in dem durch die Plattform neu geschaffenen Kontext zu nutzen. Eine virtuelle Forschungsplattform kann daher auch als Ort angesehen werden, an dem sich inhaltliche, technische und strukturelle Heterogenität sowohl intern als auch extern harmonisieren und zusammenführen lässt und damit einen fruchtbaren Umgang mit Wissen in der digitalen Welt überhaupt erst möglich macht.
Das DFG-Projekt „Personendaten-Repositorium“ baut auf Kooperationen mit nationalen und internationalen Forschungseinrichtungen und Forschungsvorhaben auf: Es werden keine eigenen Inhalte erschlossen, sondern die bereits vorhandenen Datenbestände auf technischer sowie semantischer Ebene miteinander verbunden. Der Kurzvortrag behandelt die möglichen Vernetzungsmodelle und Vorteile für die Forschung und demonstriert diese anhand bereits bestehender Kooperationen.
Das Personendaten-Repositorium sammelt und bereitet biographische Daten auf, die in verschiedenen Forschungsvorhaben und unter unterschiedlichen wissenschaftlichen Perspektiven entstanden sind. Die Schwierigkeiten, die sich bei einem solchen Projekt für die Strukturierung und Organisation der Daten ergeben, rühren nicht nur daher, dass sie aus unterschiedlichen Kontexten stammen. Vielmehr werden an Hand der Quellen-Diversität grundsätzliche Probleme biographischen Arbeitens, in deren Zusammenhang die Personendaten stehen, deutlich, denen eine solche Infrastruktur Rechnung tragen muss.
Unter dem Begriff Telota (»the electronic life of the academy«) werden sämtliche Aktivitäten zur Durchsetzung der elektronischen Arbeits- und Publikationsstrategie an der Berlin-Brandenburgischen Akademie der Wissenschaften zusammengefasst. In dem Aufsatz werden die Entstehung der Telota-Initiative skizziert, die geleisteten Arbeiten zur Durchsetzung von Open Access beschrieben und die zukünftigen Aufgaben umrissen.
Der Beitrag informiert über Kollationsverfahren und Formen der Textpräsentation, die im Rahmen des Parzival-Projekts praktiziert und erprobt werden. Der 'Parzival'-Roman Wolframs von Eschenbach gerät dabei von seiner Überlieferung her in den Blick: Zur Darstellung gelangen handschriftliche Erscheinungsweisen und die Varianten einzelner Textfassungen. Durch die Nutzung von Datenbanken können dynamische Präsentationsformen erzeugt werden, in denen die Betrachter selbständig eine Synopse von Textzeugen bzw. Fassungen zusammenstellen. Die konzeptionellen und technischen Grundlagen dieses Verfahrens werden im Rahmen des Beitrags erläutert. Die angegebene URL führt zur Testedition.