Refine
Year of publication
Language
- German (21)
- English (2)
- Multiple languages (1)
Keywords
- Digital Humanities (24) (remove)
Has Fulltext
- yes (24)
Institute
- TELOTA - IT/Digital Humanities (16)
- Initiative Forschungsdatenmanagement (5)
- Berlin-Brandenburgische Akademie der Wissenschaften (2)
- Drittmittelprojekt CLARIN-D (2)
- Zentrum Sprache (2)
- Akademienvorhaben Alexander von Humboldt auf Reisen - Wissenschaft aus der Bewegung (1)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (1)
- Drittmittelprojekt Deutsches Textarchiv (1)
- Drittmittelprojekt OCR-D (1)
- Veröffentlichungen externer Institutionen (1)
Während die Netzwerkanalyse in den Sozialwissenschaften seit den Arbeiten Jacob Levy Morenos zu Anfang des 20. Jh.s fester Bestandteil des methodischen Repertoires ist, hat sie sich im Laufe der letzten 10 Jahren auch in anderen Wissenschaftszweigen, darunter auch Archäologie und Geschichtswissenschaften, als Methodik etabliert. Doch was beinhaltet die Analyse von Netzwerken jenseits einer rein metaphorischen Nutzung des Begriffes nun genau? Für welche Fragestellungen ist diese Methodik geeignet, und wo liegen die Grenzen der Anwendung? Wie lässt sich die Entwicklung und rege Anwendung in Fachdisziplinen wie Soziologie und Politologie mit der Erforschung (prä-)historischer Gesellschaften vereinbaren? Anhand verschiedener Beispiele aus Archäologie und Geschichte werden diese und weitere Fragen diskutiert und eine Einführung in den derzeitigen Stand der archäologisch-historischen Netzwerkforschung gegeben.
Die digitalen Geisteswissenschaften beschäftigen sich mit der Erforschung von Methoden, die für die Erstellung von formalen Modellen in den Geisteswissenschaften nötig sind, sowie mit deren Anwendung auf konkrete geisteswissenschaftliche Forschungsfragen. Das Web of Data (Semantic Web) verspricht mittels formalen Modellen die Welt zu beschreiben und Forschungsdaten auf einer semantischen Ebene so zu strukturieren, dass Interoperabilität, Nachvollziehbarkeit und Nachnutzung gewährleistet sind.
Am Beispiel einer Ontologie zur virtuellen Rekonstruktion des Nachlasses von Stefan Zweig sowie eines konzeptionelles Datenmodell zur Beschreibung von Transaktionen in historischen Rechnungsunterlagen wird der Vortrag Herausforderungen und Möglichkeiten des Web of Data veranschaulichen. Die Diskussion erstreckt sich von der Forschungsfrage der jeweiligen Fachdomäne, über das Ontology Engineering bis hin zur Anwendung der Ontologie im Projektkontext und der Modellierung der Daten als Linked Open Data Ressource.
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.
Was macht gute Software aus? Wie stellt man sicher, dass man die Bedürfnisse der Benutzer und anderen Stakeholder richtig versteht, priorisiert, kommuniziert und umsetzt? Wie definiert man Balance und Zeitablauf für Planung, Design, Architektur, und Implementierung? Was muss man modellieren und was nicht? Braucht man User Stories oder Use Cases? Und wer macht was in einem kleinen Team? Ist häufige Iteration die Lösung aller Probleme? Dieser Vortrag versucht aufzuzeigen, worauf es wirklich ankommt – in einem Spagat zwischen klassischem Requirements Engineering, agiler Softwareentwicklung und modernem Interaktionsdesign.