Refine
Year of publication
Document Type
- Lecture (24)
- Working Paper (4)
- Preprint (3)
- Report (3)
- Conference Proceeding (2)
- Part of a Book (1)
- Other (1)
- Research data (1)
Language
- German (34)
- English (4)
- Multiple languages (1)
Keywords
- Digital Humanities (16)
- Edition (8)
- Brief (4)
- TEI (4)
- Datenmanagement (3)
- Digitale Edition (3)
- Forschungsdaten (3)
- Geschlechterforschung (3)
- Open Access (3)
- Text Encoding Initiative (3)
- Biographik (2)
- Datenbankverwaltung (2)
- Datenmodellierung (2)
- Digitale Editionen (2)
- Dokumentenserver (2)
- Elektronisches Publizieren (2)
- Forschungsdatenmanagement (2)
- Frauen (2)
- Gender Studies (2)
- Repository <Informatik> (2)
- Strukturierung (2)
- XML (2)
- correspSearch (2)
- elektronisches Repositorium (2)
- 006.42 (1)
- 777.0285 (1)
- API (1)
- Application Programming Interface (1)
- Briefeditionen (1)
- Briefsammlung (1)
- CMIF (1)
- CVMA (1)
- Cultural Heritage (1)
- Data (1)
- Daten (1)
- Euler, Leonhard (1)
- Evaluation (1)
- Forschungssoftwareentwicklung (1)
- Gender (1)
- Informatik (1)
- Infrastructure (1)
- Jubiläum (1)
- KI (1)
- Kommentar (1)
- Kommentierung (1)
- Künstliche Intelligenz (1)
- Lachmannian method(criticism of) (1)
- Markup-Theorie (1)
- Mathematik (1)
- Metadaten (1)
- Open Data (1)
- Open Science (1)
- Open Source (1)
- Parzival (1)
- Personen (1)
- Personenbezogene Daten (1)
- Persons (1)
- Publikationsstrategien (1)
- Publikationstechniken (1)
- RDMO (1)
- Repositorien (1)
- Repositories (1)
- Repository (1)
- Schnittstelle (1)
- Software (1)
- TEI-XML (1)
- Technische Infrastruktur (1)
- Text Mining (1)
- Textmodellierung (1)
- User Interface (1)
- Vernetzung (1)
- Web Services (1)
- Wissenschaftliche Kooperation (1)
- Wissenschaftskollaboration (1)
- Wolfram von Eschenbach (1)
- XMP (1)
- cinemetrics (1)
- clustering (1)
- colour spaces (1)
- contrast (1)
- courtly romance (1)
- critical electronic edition (1)
- dh-kolloquium (1)
- digital editions (1)
- digital images (1)
- digital scholarly edition (1)
- ediarum (1)
- elektronisches Publizieren (1)
- film analysis (1)
- itten (1)
- metadata (1)
- new philology (1)
- open access (1)
- publishing strategies (1)
- transmission of manuscripts (1)
- zombies (1)
Has Fulltext
- yes (39) (remove)
Institute
- TELOTA - IT/Digital Humanities (39) (remove)
Was macht gute Software aus? Wie stellt man sicher, dass man die Bedürfnisse der Benutzer und anderen Stakeholder richtig versteht, priorisiert, kommuniziert und umsetzt? Wie definiert man Balance und Zeitablauf für Planung, Design, Architektur, und Implementierung? Was muss man modellieren und was nicht? Braucht man User Stories oder Use Cases? Und wer macht was in einem kleinen Team? Ist häufige Iteration die Lösung aller Probleme? Dieser Vortrag versucht aufzuzeigen, worauf es wirklich ankommt – in einem Spagat zwischen klassischem Requirements Engineering, agiler Softwareentwicklung und modernem Interaktionsdesign.
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.
Das Personendaten-Repositorium sammelt und bereitet biographische Daten auf, die in verschiedenen Forschungsvorhaben und unter unterschiedlichen wissenschaftlichen Perspektiven entstanden sind. Die Schwierigkeiten, die sich bei einem solchen Projekt für die Strukturierung und Organisation der Daten ergeben, rühren nicht nur daher, dass sie aus unterschiedlichen Kontexten stammen. Vielmehr werden an Hand der Quellen-Diversität grundsätzliche Probleme biographischen Arbeitens, in deren Zusammenhang die Personendaten stehen, deutlich, denen eine solche Infrastruktur Rechnung tragen muss.
Die digitalen Geisteswissenschaften beschäftigen sich mit der Erforschung von Methoden, die für die Erstellung von formalen Modellen in den Geisteswissenschaften nötig sind, sowie mit deren Anwendung auf konkrete geisteswissenschaftliche Forschungsfragen. Das Web of Data (Semantic Web) verspricht mittels formalen Modellen die Welt zu beschreiben und Forschungsdaten auf einer semantischen Ebene so zu strukturieren, dass Interoperabilität, Nachvollziehbarkeit und Nachnutzung gewährleistet sind.
Am Beispiel einer Ontologie zur virtuellen Rekonstruktion des Nachlasses von Stefan Zweig sowie eines konzeptionelles Datenmodell zur Beschreibung von Transaktionen in historischen Rechnungsunterlagen wird der Vortrag Herausforderungen und Möglichkeiten des Web of Data veranschaulichen. Die Diskussion erstreckt sich von der Forschungsfrage der jeweiligen Fachdomäne, über das Ontology Engineering bis hin zur Anwendung der Ontologie im Projektkontext und der Modellierung der Daten als Linked Open Data Ressource.
Unter dem Begriff Telota (»the electronic life of the academy«) werden sämtliche Aktivitäten zur Durchsetzung der elektronischen Arbeits- und Publikationsstrategie an der Berlin-Brandenburgischen Akademie der Wissenschaften zusammengefasst. In dem Aufsatz werden die Entstehung der Telota-Initiative skizziert, die geleisteten Arbeiten zur Durchsetzung von Open Access beschrieben und die zukünftigen Aufgaben umrissen.
Das Feld der computerunterstützten Analyse von Filmen ist in den Digital Humanities noch vergleichbar neu. Ein Aspekt der dabei besondere Aufmerksamkeit erfahren hat ist die Analyse der Farblichkeit in Filmen. Die meisten Projekte greifen dabei auf den im Kontext der Farbquantifizierung gängigen K-Means Clustering Algorithmus zurück. Der Vortrag zeigt, warum dieser Ansatz für die Filminterpretation nur bedingt brauchbar ist und warum bisherige Ansätze eines Konzepts ermangeln, welches die Probleme in Zusammenhang mit K-Means zu reflektieren und zu kompensieren vermag. Er schlägt eine alternative Herangehensweise auf der Grundlage der Farbkontrasttheorie von Johannes Itten vor und zeigt, wie innerhalb dieses Konzepts computerunterstützt mit Filmen gearbeitet werden kann. Die aufgezeigten Probleme und Vorschläge werden dabei an Hand von aktuellem Filmmaterial aus dem Genre des Zombiefilms illustriert.
TELOTA: Woher, Wohin?
(2022)
When managing large quantities of data, it is a common solution to utilize a centralized data management software to forge a connection between metadata and the data objects themselves. In case of text-based objects without any attached metadata, it is easy for humans to contextualize these objects by recognizing patterns such as filenames, titles, authors etc. This task becomes a challenge when dealing with non-text-based objects like images in the cultural heritage domain. Without metadata or expert knowledge, it becomes difficult to estimate the creation date of a painting or tell the name of its painter. Thus, the ability to contextualize data depends on whether there is a working connection between the metadata store and the data object itself. This connection fails as soon as the file is moved on the file system without having these changes also applied in the corresponding
data base, or when the file is shared without a reference to its original location. This paper presents an approach to overcome that type of co-dependency by utilizing XMP to embed cultural heritage metadata directly into image files to ensure their location-independent long-term preservation. The “Corpus Vitrearum Medii Aevi” Germany (CVMA) project serves as an example use-case.