Refine
Year of publication
Document Type
- Lecture (23)
- Research data (8)
- Working Paper (4)
- Preprint (3)
- Report (3)
- Conference Proceeding (2)
- Part of a Book (1)
- Other (1)
Language
- German (36)
- Multiple languages (5)
- English (4)
Keywords
- Digital Humanities (15)
- Edition (7)
- Brief (4)
- TEI (4)
- Datenmanagement (3)
- Digitale Edition (3)
- Forschungsdaten (3)
- Geschlechterforschung (3)
- Open Access (3)
- Biographik (2)
- Datenbankverwaltung (2)
- Datenmodellierung (2)
- Digitale Editionen (2)
- Dokumentenserver (2)
- Elektronisches Publizieren (2)
- Forschungsdatenmanagement (2)
- Frauen (2)
- Gender Studies (2)
- Repository <Informatik> (2)
- Strukturierung (2)
- Text Encoding Initiative (2)
- XML (2)
- correspSearch (2)
- elektronisches Repositorium (2)
- 006.42 (1)
- 777.0285 (1)
- API (1)
- Application Programming Interface (1)
- Briefeditionen (1)
- Briefsammlung (1)
- CMIF (1)
- CVMA (1)
- Cultural Heritage (1)
- Data (1)
- Daten (1)
- Euler, Leonhard (1)
- Evaluation (1)
- Forschungssoftwareentwicklung (1)
- Gender (1)
- Geschichte (1)
- Iffland, August Wilhelm (1)
- Iffland, August Wilhelm | 1759-1814 | Dramaturg, Theaterintendant, Schriftsteller, Schauspieler, Theaterdirektor, Dramatiker (1)
- Informatik (1)
- Infrastructure (1)
- Jubiläum (1)
- KI (1)
- Kommentar (1)
- Kommentierung (1)
- Kultur (1)
- Königliches Nationaltheater (Berlin) (1)
- Königliches Nationaltheater (Berlin) | Theaterbau des Königlichen Nationaltheaters (Berlin), Berlin (1)
- Künstliche Intelligenz (1)
- Lachmannian method(criticism of) (1)
- Literatur (1)
- Markup-Theorie (1)
- Mathematik (1)
- Metadaten (1)
- Open Data (1)
- Open Science (1)
- Open Source (1)
- Parzival (1)
- Personen (1)
- Personenbezogene Daten (1)
- Persons (1)
- Publikationsstrategien (1)
- Publikationstechniken (1)
- RDMO (1)
- Repositorien (1)
- Repositories (1)
- Repository (1)
- Schnittstelle (1)
- Software (1)
- TEI-XML (1)
- Technische Infrastruktur (1)
- Text Mining (1)
- Textmodellierung (1)
- Theaterbau des Königlichen Nationaltheaters (Berlin) (1)
- User Interface (1)
- Vernetzung (1)
- Web Services (1)
- Wissenschaftliche Kooperation (1)
- Wissenschaftskollaboration (1)
- Wolfram von Eschenbach (1)
- XMP (1)
- cinemetrics (1)
- clustering (1)
- colour spaces (1)
- contrast (1)
- courtly romance (1)
- critical electronic edition (1)
- dh-kolloquium (1)
- digital editions (1)
- digital images (1)
- digital scholarly edition (1)
- elektronisches Publizieren (1)
- film analysis (1)
- itten (1)
- metadata (1)
- new philology (1)
- open access (1)
- publishing strategies (1)
- transmission of manuscripts (1)
- zombies (1)
Institute
- TELOTA - IT/Digital Humanities (45) (remove)
The computer has come to play a transformative role in the ways we model, store, process and study text. Nevertheless, we cannot yet claim to have realised the promises of the digital medium: the organisation and dissemination of scholarly knowledge through the exchange, reuse and enrichment of data sets. Despite the acclaimed interdisciplinary nature of digital humanities, current digital research takes place in a closed environment and rarely surpasses the traditional boundaries of a field. Furthermore, it is worthwhile to continue questioning the models we use and whether they are actually suitable for our scholarly needs. There’s a risk that the affordances and limitations of a prevailing model may blind us to aspects it doesn’t support.
In her talk, Elli Bleeker discusses different technologies to model data with respect to their expressive power and their potential to address the needs of the scholarly community. Within this framework, she introduces a new data model for text, Text-As-Graph (TAG), and it’s reference implementation Alexandria, a text repository system. The TAG model allows researchers to store, query, and analyse text that is encoded from different perspectives. Alexandria thus stimulates new ways of looking at textual objects, facilitates the exchange of information across disciplines, and secures textual knowledge for future endeavours. From a philosophical perspective, the TAG model and the workflow of Alexandria raise compelling questions about our notions of textuality, and prompt us to reconsider how we can best model the variety of textual dimensions.
When managing large quantities of data, it is a common solution to utilize a centralized data management software to forge a connection between metadata and the data objects themselves. In case of text-based objects without any attached metadata, it is easy for humans to contextualize these objects by recognizing patterns such as filenames, titles, authors etc. This task becomes a challenge when dealing with non-text-based objects like images in the cultural heritage domain. Without metadata or expert knowledge, it becomes difficult to estimate the creation date of a painting or tell the name of its painter. Thus, the ability to contextualize data depends on whether there is a working connection between the metadata store and the data object itself. This connection fails as soon as the file is moved on the file system without having these changes also applied in the corresponding
data base, or when the file is shared without a reference to its original location. This paper presents an approach to overcome that type of co-dependency by utilizing XMP to embed cultural heritage metadata directly into image files to ensure their location-independent long-term preservation. The “Corpus Vitrearum Medii Aevi” Germany (CVMA) project serves as an example use-case.
quoteSalute strives to make data of digital scholarly editions of letters (DSELs) accessible in a playful fashion by enabling users to integrate salutations from DSELs in their own email correspondence. The foundation of quoteSalute is a curated TEI-XML text corpus which has been created by extracting <salute>-tags from TEI-XML-encoded DSELs. For providing users with fitting salutations, we annotated the data regarding language, level of politeness and intended gender of sender and receiver.
Der Vortrag bietet eine Rückschau auf die Jahreskonferenz der Digital Humanities im deutschsprachigen Raum zu dem Thema "Kritik der digitalen Vernunft", die von 26.2. bis 2.3.2018 in Köln stattfand. Zunächst wird ein Überblick zu den Konferenzbeiträgen der Mitarbeiterinnen und Mitarbeiter der BBAW gegeben. Die Bandbreite der Beiträge aus dem Haus umfasst sowohl praxisorientierte Vorträge, in denen die Entwicklung digitaler Editionen und Korpora thematisiert wird, als auch theoretische Reflexionen. Im Anschluss formulieren die Vortragenden die wesentlichen Beobachtungen und Eindrücke zur Frage, wo die verschiedenen Bereiche der Digital Humanities (z. B. digitale Editionen, quantitative Textanalyse, Softwareentwicklung) im Moment stehen und welche Tendenzen sich für die nahe Zukunft abzeichnen.
Folien zum Vortrag "Digitale Briefeditionen und ihre Vernetzung" im Rahmen der Ringvorlesung "Transdisziplinäre Aspekte Digitaler Methodik in den Geistes- und Kulturwissenschaften" an der Johannes Gutenberg-Universität Mainz am 3. Mai 2017. Der Vortrag erläutert die aktuellen Entwicklungen digitaler Briefeditionen, u.a. werden User Interfaces und ihr Nutzen für die digitale Briefedition vorgestellt. Darüber hinaus diskutiert der Vortrag, wie mit Hilfe von Application Programming Interfaces (APIs) die digitale Briefedition umfassend vernetzt werden kann. Ein Exkurs widmet sich dabei dem Webservice "correspSearch".
Folien zu einem Vortrag im Rahmen des Digital-Humanities-Kolloquium an der BBAW am 7.7.2017. Der Vortrag erläutert, ausgehend von editionswissenschaftlichen Entwicklungen der 1980er und 1990er Jahre, wie die "Kopfdaten" eines Briefes nach den Richtlinien der Text Encoding Initiative (TEI) kodiert werden können. Insbesondere wird auf das TEI-Element correspDesc eingegangen und die Kodierung anhand eines Beispiels veranschaulicht. Darüber hinaus wird der Mehrwert von Briefmetadaten sowohl für die digitale Briefedition an sich als auch zu ihrer Vernetzung diskutiert. Dabei wird vor allem auf das Correspondence Metadata Interchange Format (CMIF) und den Webservice correspSearch eingegangen.
Das Feld der computerunterstützten Analyse von Filmen ist in den Digital Humanities noch vergleichbar neu. Ein Aspekt der dabei besondere Aufmerksamkeit erfahren hat ist die Analyse der Farblichkeit in Filmen. Die meisten Projekte greifen dabei auf den im Kontext der Farbquantifizierung gängigen K-Means Clustering Algorithmus zurück. Der Vortrag zeigt, warum dieser Ansatz für die Filminterpretation nur bedingt brauchbar ist und warum bisherige Ansätze eines Konzepts ermangeln, welches die Probleme in Zusammenhang mit K-Means zu reflektieren und zu kompensieren vermag. Er schlägt eine alternative Herangehensweise auf der Grundlage der Farbkontrasttheorie von Johannes Itten vor und zeigt, wie innerhalb dieses Konzepts computerunterstützt mit Filmen gearbeitet werden kann. Die aufgezeigten Probleme und Vorschläge werden dabei an Hand von aktuellem Filmmaterial aus dem Genre des Zombiefilms illustriert.
Die Repositoriensysteme DSpace, EPrints, Fedora Commons und Greenstone werden auf ihre Eignung für ein Personendaten-Repositorium evaluiert. Der Text ist so aufgebaut, dass die Untersuchungen der jeweiligen Systeme oder einzelner Aspekte auch unabhängig voneinander gelesen werden können. Zudem wurde eine Unterteilung in allgemeine, technische und spezifisch-projektbezogene Aspekte der Evaluation vorgenommen.