Refine
Year of publication
Document Type
- Lecture (24)
- Research data (8)
- Working Paper (4)
- Preprint (3)
- Report (3)
- Conference Proceeding (2)
- Part of a Book (1)
- Other (1)
Language
- German (37)
- Multiple languages (5)
- English (4)
Keywords
- Digital Humanities (16)
- Edition (8)
- Brief (4)
- TEI (4)
- Datenmanagement (3)
- Digitale Edition (3)
- Forschungsdaten (3)
- Geschlechterforschung (3)
- Open Access (3)
- Text Encoding Initiative (3)
- Biographik (2)
- Datenbankverwaltung (2)
- Datenmodellierung (2)
- Digitale Editionen (2)
- Dokumentenserver (2)
- Elektronisches Publizieren (2)
- Forschungsdatenmanagement (2)
- Frauen (2)
- Gender Studies (2)
- Repository <Informatik> (2)
- Strukturierung (2)
- XML (2)
- correspSearch (2)
- elektronisches Repositorium (2)
- 006.42 (1)
- 777.0285 (1)
- API (1)
- Application Programming Interface (1)
- Briefeditionen (1)
- Briefsammlung (1)
- CMIF (1)
- CVMA (1)
- Cultural Heritage (1)
- Data (1)
- Daten (1)
- Euler, Leonhard (1)
- Evaluation (1)
- Forschungssoftwareentwicklung (1)
- Gender (1)
- Geschichte (1)
- Iffland, August Wilhelm (1)
- Iffland, August Wilhelm | 1759-1814 | Dramaturg, Theaterintendant, Schriftsteller, Schauspieler, Theaterdirektor, Dramatiker (1)
- Informatik (1)
- Infrastructure (1)
- Jubiläum (1)
- KI (1)
- Kommentar (1)
- Kommentierung (1)
- Kultur (1)
- Königliches Nationaltheater (Berlin) (1)
- Königliches Nationaltheater (Berlin) | Theaterbau des Königlichen Nationaltheaters (Berlin), Berlin (1)
- Künstliche Intelligenz (1)
- Lachmannian method(criticism of) (1)
- Literatur (1)
- Markup-Theorie (1)
- Mathematik (1)
- Metadaten (1)
- Open Data (1)
- Open Science (1)
- Open Source (1)
- Parzival (1)
- Personen (1)
- Personenbezogene Daten (1)
- Persons (1)
- Publikationsstrategien (1)
- Publikationstechniken (1)
- RDMO (1)
- Repositorien (1)
- Repositories (1)
- Repository (1)
- Schnittstelle (1)
- Software (1)
- TEI-XML (1)
- Technische Infrastruktur (1)
- Text Mining (1)
- Textmodellierung (1)
- Theaterbau des Königlichen Nationaltheaters (Berlin) (1)
- User Interface (1)
- Vernetzung (1)
- Web Services (1)
- Wissenschaftliche Kooperation (1)
- Wissenschaftskollaboration (1)
- Wolfram von Eschenbach (1)
- XMP (1)
- cinemetrics (1)
- clustering (1)
- colour spaces (1)
- contrast (1)
- courtly romance (1)
- critical electronic edition (1)
- dh-kolloquium (1)
- digital editions (1)
- digital images (1)
- digital scholarly edition (1)
- ediarum (1)
- elektronisches Publizieren (1)
- film analysis (1)
- itten (1)
- metadata (1)
- new philology (1)
- open access (1)
- publishing strategies (1)
- transmission of manuscripts (1)
- zombies (1)
Institute
- TELOTA - IT/Digital Humanities (46) (remove)
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.
Die digitalen Geisteswissenschaften beschäftigen sich mit der Erforschung von Methoden, die für die Erstellung von formalen Modellen in den Geisteswissenschaften nötig sind, sowie mit deren Anwendung auf konkrete geisteswissenschaftliche Forschungsfragen. Das Web of Data (Semantic Web) verspricht mittels formalen Modellen die Welt zu beschreiben und Forschungsdaten auf einer semantischen Ebene so zu strukturieren, dass Interoperabilität, Nachvollziehbarkeit und Nachnutzung gewährleistet sind.
Am Beispiel einer Ontologie zur virtuellen Rekonstruktion des Nachlasses von Stefan Zweig sowie eines konzeptionelles Datenmodell zur Beschreibung von Transaktionen in historischen Rechnungsunterlagen wird der Vortrag Herausforderungen und Möglichkeiten des Web of Data veranschaulichen. Die Diskussion erstreckt sich von der Forschungsfrage der jeweiligen Fachdomäne, über das Ontology Engineering bis hin zur Anwendung der Ontologie im Projektkontext und der Modellierung der Daten als Linked Open Data Ressource.
quoteSalute strives to make data of digital scholarly editions of letters (DSELs) accessible in a playful fashion by enabling users to integrate salutations from DSELs in their own email correspondence. The foundation of quoteSalute is a curated TEI-XML text corpus which has been created by extracting <salute>-tags from TEI-XML-encoded DSELs. For providing users with fitting salutations, we annotated the data regarding language, level of politeness and intended gender of sender and receiver.
When managing large quantities of data, it is a common solution to utilize a centralized data management software to forge a connection between metadata and the data objects themselves. In case of text-based objects without any attached metadata, it is easy for humans to contextualize these objects by recognizing patterns such as filenames, titles, authors etc. This task becomes a challenge when dealing with non-text-based objects like images in the cultural heritage domain. Without metadata or expert knowledge, it becomes difficult to estimate the creation date of a painting or tell the name of its painter. Thus, the ability to contextualize data depends on whether there is a working connection between the metadata store and the data object itself. This connection fails as soon as the file is moved on the file system without having these changes also applied in the corresponding
data base, or when the file is shared without a reference to its original location. This paper presents an approach to overcome that type of co-dependency by utilizing XMP to embed cultural heritage metadata directly into image files to ensure their location-independent long-term preservation. The “Corpus Vitrearum Medii Aevi” Germany (CVMA) project serves as an example use-case.
Das Feld der computerunterstützten Analyse von Filmen ist in den Digital Humanities noch vergleichbar neu. Ein Aspekt der dabei besondere Aufmerksamkeit erfahren hat ist die Analyse der Farblichkeit in Filmen. Die meisten Projekte greifen dabei auf den im Kontext der Farbquantifizierung gängigen K-Means Clustering Algorithmus zurück. Der Vortrag zeigt, warum dieser Ansatz für die Filminterpretation nur bedingt brauchbar ist und warum bisherige Ansätze eines Konzepts ermangeln, welches die Probleme in Zusammenhang mit K-Means zu reflektieren und zu kompensieren vermag. Er schlägt eine alternative Herangehensweise auf der Grundlage der Farbkontrasttheorie von Johannes Itten vor und zeigt, wie innerhalb dieses Konzepts computerunterstützt mit Filmen gearbeitet werden kann. Die aufgezeigten Probleme und Vorschläge werden dabei an Hand von aktuellem Filmmaterial aus dem Genre des Zombiefilms illustriert.
Ein Editionsunternehmen und seine Geschichte
Blick zurück
Die Jean Paul Edition zählt zu den ältesten neugermanistischen Editionsunternehmen der Preußischen Akademie der Wissenschaften und war das Lebenswerk Eduard Berends (1883-1973). Der erste, von Julius Petersen, Gustav Roethe und Franz Muncker unterstützte Plan für diese große wissenschaftliche Klassikerausgabe lag bereits 1914 vor. Doch erst 13 Jahre später konnte Berend mit der Realisierung seines ›Traumes‹ beginnen. Bis 1939 sind 21 Bände der Historisch-kritischen Jean-Paul-Ausgabe erschienen, in der Regel zwei (!) pro Jahr, und dies, obwohl Berend als Jude seit 1933 in seiner Arbeit zunehmend behindert wurde. Im Herbst 1938 wurde sein Vertrag mit der Akademie gekündigt. Nach KZ-Haft und monatelangem Warten gelang ihm Ende 1939 die Emigration ins Schweizer Exil mit seinem gesamten Archiv.
Vor Aufnahme der Arbeit an den Werken hatte Berend von 1922 bis 1926 in vier Bänden Jean Pauls Briefe bis zur Übersiedlung nach Bayreuth ergänzt und sie durch Regesten der An-Briefe ergänzt. Da nach dem Zweiten Weltkrieg die Arbeit an den Werken in der neu aufgebauten Akademie der Wissenschaften nicht wie vorgesehen fortgesetzt werden konnte, weil Jean Pauls Nachlass nach Moskau verbracht worden war (Rückgabe 1957/58), schlug Berend vor, die Arbeit an den Briefen wieder aufzunehmen. 1952 erschien der sechste als erster Band, 1964 nach Abschluss der acht chronologischen Bände ein neunter Nachtrags- und Registerband – die III. Abteilung der Historisch-kritischen Ausgabe war damit abgeschlossen. Berends für die Jean-Paul-Forschung noch immer gewichtiger Nachlass ging an das Deutsche Literaturarchiv in Marbach. Hier wurde 1987 unter Leitung von Ulrich Ott mit der Edition der noch von Berend vorbereiteten restlichen Bände des Jean Paulschen Werknachlasses begonnen, die unter Leitung von Helmut Pfotenhauer (Würzburg) weitergeführt wird.
Es fehlten die von Berend nur in Regesten aufgeführten Briefe an Jean Paul. Das Vorhaben einer wissenschaftlichen Gesamtausgabe dieser Briefe wurde 1990/91 vom Wissenschaftsrat empfohlen. Die Arbeitsstelle, die ihre Tätigkeit am 1. Januar 1992 begann, ist seit 1994 an der Berlin-Brandenburgischen Akademie der Wissenschaften angesiedelt. Die seit 2017 abgeschlossene Edition erschließt alle überlieferten Briefe an Jean Paul. Den Briefen von Jean Paul in der III. Abteilung werden die Gegenbriefe komplementär in einer IV. Abteilung zur Seite gestellt, so dass der erhaltene Briefwechsel des Autors erstmals vollständig vorliegt. Die gegen 2.300 überlieferten und 680 erschlossenen Briefe von etwa 400 Korrespondentinnen und Korrespondenten waren bis anhin erst zu etwa einem Drittel bekannt gewesen, vor allem durch Publikationen des 19. Jahrhunderts, in denen sie, stark gekürzt und redaktionell überarbeitet, oft an entlegener Stelle erschienen waren. Sie dokumentieren den Dialog des Autors mit bekannten Personen wie Friedrich Heinrich Jacobi, Caroline und Johann Gottfried Herder, Charlotte von Kalb und Johann Wilhelm Ludwig Gleim, mit der preußischen Königin Luise, Rahel Levin Varnhagen, Achim von Arnim oder E. T. A. Hoffmann und ebenso den Austausch mit Jugendfreunden, Verlegern und begeisterten Leserinnen und Lesern seiner Bücher. Die Briefe wurden in chronologischer Abfolge in acht Bänden veröffentlicht (wobei Band 3 als Doppelband erschienen ist), mit Text, Kommentar und Register. Ein 9. Band enthält Nachträge (darunter über 100 Briefe Jean Pauls) sowie ein gedrucktes Gesamtregister über die Abteilungen III und IV.
Blick nach vorne
In gedruckter und jetzt auch in digitalisierter Form ist dieses Register das Verbindungsstück zwischen den Abteilungen. Von 2016 bis 2018 wurde als erster Bestandteil der digitalen Ausgabe Eduard Berends III. Abteilung der Öffentlichkeit leicht überarbeitet im open access zur Verfügung gestellt. An diese digitale Gesamtausgabe der Briefe Jean Pauls werden die Briefe der Freunde und der Familie, die seine Briefe und die Briefe an ihn ergänzen, eingebunden. Diese verdanken sich – gewissermaßen als Nebenprodukt – den Quellenrecherchen, die für die Briefe an Jean Paul unternommen wurden; sie wurden als für die Jean-Paul-Forschung höchst aufschlussreiche, größtenteils noch unbekannte Sekundär- und Tertiärquellen frühzeitig transkribiert und erschlossen. Die Sammlung der Umfeldbriefe wird derzeit im Rahmen eines DFG-Projekts erarbeitet und; die Dokumente werden in neuartiger Weise strukturiert und an die vorhandene Korrespondenz angebunden werden.
Für die Zukunft vorgesehen ist, diese beiden Korpora durch die digitale Ausgabe der Briefe an Jean Paul zu ergänzen.
Neben den Editionstätigkeiten war die Jean Paul Edition der Berlin-Brandenburgischen Akademie der Wissenschaften beteiligt am Abschluss der Inventarisierung des Nachlasses von Jean Paul in der Staatbibliothek zu Berlin – Preußischer Kulturbesitz und verantwortete mit dieser zusammen die große Ausstellung zum Jean Paul Jahr 2013 in der Stiftung „Brandenburger Tor“ in der Berlin. Sie veranstaltet überdies Lesungen und Vorträge.
RDMO ‒ Schnellstartanleitung
(2021)
Die Anleitung richtet sich an alle Wissenschaftler und Wissenschaftlerinnen an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW), welche die BBAW-Instanz der webbasierten Software "Research Data Management Organiser" (RDMO) nutzen. RDMO unterstützt Forschende durch einen vordefinierten und an die Besonderheiten der BBAW angepassten Fragenkatalog bei der Verwaltung von Datenmanagementaufgaben über den gesamten Datenlebenszyklus hinweg. Die Initiative "Forschungsdatenmanagement" erstellt gemeinsam mit allen Projekten und Vorhaben, die mit digitalen Forschungsdaten arbeiten, einen Datenmanagementplan.
Die vorliegende Handreichung gibt einen kurzen Überblick über die Funktionen von RDMO und unterstützt die Nutzenden beim selbstständigen Einsatz des Online-Werkzeugs zur Verwaltung und Aktualisierung ihres Datenmanagementplans.
Im Jahr 2021 lädt die Initiative "Forschungsdatenmanagement" alle Mitarbeitenden der BBAW zu einer Veranstaltungsreihe mit dem Titel "Forschungsdatenmanagement kompakt" ein.
Die Präsentationsfolien der ersten Online-Veranstaltung am 11.02.2021 führen in die Grundlagen und Grundbegriffe des Forschungsdatenmanagements ein und stellen die Ziele der Initiative vor.
Die Repositoriensysteme DSpace, EPrints, Fedora Commons und Greenstone werden auf ihre Eignung für ein Personendaten-Repositorium evaluiert. Der Text ist so aufgebaut, dass die Untersuchungen der jeweiligen Systeme oder einzelner Aspekte auch unabhängig voneinander gelesen werden können. Zudem wurde eine Unterteilung in allgemeine, technische und spezifisch-projektbezogene Aspekte der Evaluation vorgenommen.