Lecture
Refine
Year of publication
Document Type
- Lecture (73) (remove)
Language
- German (57)
- English (10)
- Spanish (5)
- Multiple languages (1)
Keywords
- Digital Humanities (14)
- Computerunterstützte Lexikographie (9)
- Historische Lexikographie (9)
- historical lexicography (9)
- Digitalisierung (8)
- Edition (8)
- Information und Dokumentation (8)
- Bibliographie (6)
- Deutschland (6)
- Edición digital académica (5)
Has Fulltext
- yes (73)
Institute
- TELOTA - IT/Digital Humanities (23)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (17)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Drittmittelprojekt Proyecto Humboldt Digital (7)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Drittmittelprojekt CLARIN-D (3)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Drittmittelprojekt OCR-D (2)
- Zentrum Sprache (2)
Norsk Ordbok is a 12 volume academic dictionary covering Norwegian Nynorsk literature and all Norwegian dialects from 1600 to the present. The dictionary is to be completed in 2014, the year of the bicentenary of the Norwegian constitution. The collection of data started in 1930 and the editing of the dictionary started in 1946. In the 1990s the Norwegian language collections were digitized, and from 2002 onwards Norsk Ordbok has been edited on a digital platform which communicates with a system of relational databases for manuscript storage. These databases include digitized slip archives, a draft manuscript from 1940, glossaries from the period between 1600 and 1850, canonical dictionaries from the period 1870-1910, bibliography, local dictionaries, text corpus (90 mill. words) etc. The source material is linked together in a Meta dictionary (MD). The MD is an electronic index with headwords in standard spelling, and it represents the hub of the language collections, where the source material from the databases is linked to headword nodes. This MD in turn communicates with the editing system and the dictionary database. The electronic linking up of the source material with the dictionary entries secures that the interpretation of data and product of scientific research can be reproducible in a very easy way. This is important to a scholarly dictionary. Further, the MD index system enables us to set a relative dimension for each dictionary entry and to make a master plan for setting alphabet dimensions for the whole dictionary. This is important to all modern dictionary projects with limited resources. The digitized source material, the digital editing platform and the digital dictionary product also point forward to new ways of presenting the data, and they point forward to future lexicographical research. The paper will present the digital resources of the Norsk Ordbok 2014 project, developed in close cooperation with the scientific programmers at the Unit of Digital Documentation at the University of Oslo. It will focus on the Norsk Ordbok 2014 experience with working on a fully digitized editing platform for the last 10 years, and it will also comment briefly on how the developed tools and resources point forward into Norwegian lexicography in the future.
The Swedish Academy Dictionary (SAOB) is one of the big national dictionary projects started in the 19th century. SAOB is still in production – there are another two volumes out of 38 to printed before 2018. The structure inside the volumes is (of course) varied/varying. There are ten chief editors and five generations of editors involved in the project. In the 1980s the SAOB was OCR-scanned. The result was used for a webversion in the internet from 1997. The webversion is very frequently used but has a lot of shortcomings due to, among other things, a great typographic complexity and a scanning technology of the time. Now the editorial board is discussing the future: redigitalization (in China), updating of the webversion with new search tools, updating of the dictionary itself and some form of editing tool.
Während die Netzwerkanalyse in den Sozialwissenschaften seit den Arbeiten Jacob Levy Morenos zu Anfang des 20. Jh.s fester Bestandteil des methodischen Repertoires ist, hat sie sich im Laufe der letzten 10 Jahren auch in anderen Wissenschaftszweigen, darunter auch Archäologie und Geschichtswissenschaften, als Methodik etabliert. Doch was beinhaltet die Analyse von Netzwerken jenseits einer rein metaphorischen Nutzung des Begriffes nun genau? Für welche Fragestellungen ist diese Methodik geeignet, und wo liegen die Grenzen der Anwendung? Wie lässt sich die Entwicklung und rege Anwendung in Fachdisziplinen wie Soziologie und Politologie mit der Erforschung (prä-)historischer Gesellschaften vereinbaren? Anhand verschiedener Beispiele aus Archäologie und Geschichte werden diese und weitere Fragen diskutiert und eine Einführung in den derzeitigen Stand der archäologisch-historischen Netzwerkforschung gegeben.
Die Benutzung von Onlinewörterbüchern ist bislang wenig erforscht. Am Institut für Deutsche Sprache in Mannheim wurde versucht, diese Forschungslücke mit einem Projekt zur Benutzungsforschung zumindest zum Teil schließen (s. www.benutzungsforschung.de). Die empirischen Studien wurden methodisch sowohl in Form von Onlinefragebögen, die neben befragenden auch experimentelle Elemente enthielten, als auch anhand eines Labortests (mit Eyetracking-Verfahren) durchgeführt. Die erste Studie untersuchte generell die Anlässe und sozialen Situationen der Verwendung von Onlinewörterbüchern sowie die Ansprüche, die Nutzer an Onlinewörterbücher stellen. An der zweisprachigen Onlinestudie (deutsch/englisch) nahmen international fast 700 Probanden teil. Durch die hohe Resonanz auf die erste Studie und den daraus folgenden Wunsch, die gewonnenen Informationen empirisch zu vertiefen, richtet sich auch die die zweite Studie an ein internationales Publikum und schloss inhaltlich an die erste Studie an. Später konzentrierten sich die Studien auf monolinguale deutsche Onlinewörterbücher wie elexiko (Studien 3 und 4), sowie auf das Wörterbuchportal OWID (Studie 5). Im Vortrag werden ausgewählte Ergebnisse der verschiedenen Studien vorgestellt.
Die digitalen Geisteswissenschaften beschäftigen sich mit der Erforschung von Methoden, die für die Erstellung von formalen Modellen in den Geisteswissenschaften nötig sind, sowie mit deren Anwendung auf konkrete geisteswissenschaftliche Forschungsfragen. Das Web of Data (Semantic Web) verspricht mittels formalen Modellen die Welt zu beschreiben und Forschungsdaten auf einer semantischen Ebene so zu strukturieren, dass Interoperabilität, Nachvollziehbarkeit und Nachnutzung gewährleistet sind.
Am Beispiel einer Ontologie zur virtuellen Rekonstruktion des Nachlasses von Stefan Zweig sowie eines konzeptionelles Datenmodell zur Beschreibung von Transaktionen in historischen Rechnungsunterlagen wird der Vortrag Herausforderungen und Möglichkeiten des Web of Data veranschaulichen. Die Diskussion erstreckt sich von der Forschungsfrage der jeweiligen Fachdomäne, über das Ontology Engineering bis hin zur Anwendung der Ontologie im Projektkontext und der Modellierung der Daten als Linked Open Data Ressource.
Überlappungen zwischen Grammatik und Wörterbuch sind kaum vermeidbar und gelten im Allgemeinen auch als wünschenswert und für den Nutzer als praktisch sinnvoll. Wörterbücher enthalten in der Regel grammatische Zusatzinformationen (z.B. zur Wortart und Flexion) in unterschiedlichem Umfang und auch in unterschiedlicher Darstellungsweise bzw. unter Verwendung unterschiedlicher Terminologien. Digitale Wörterbücher müssen hier im Gegensatz zu ‚klassischen‘ gedruckten Werken nicht auf kondensierte und mit Abkürzungen verknappte Informationen setzen, sondern können im Prinzip zu jedem Lemma eine umfassende Darstellung bieten. Es soll anhand von Beispielen der Frage nachgegangen werden, wie existierende digitale Wörterbücher mit der Integration grammatischer Informationen verfahren und welche Darstellungsmöglichkeiten sie dabei nutzen. Zudem wird gefragt, wie diese Inhalte für verschiedene Nutzertypen innerhalb eines Online-Wörterbuches dargeboten werden könnten.
Das Personendaten-Repositorium sammelt und bereitet biographische Daten auf, die in verschiedenen Forschungsvorhaben und unter unterschiedlichen wissenschaftlichen Perspektiven entstanden sind. Die Schwierigkeiten, die sich bei einem solchen Projekt für die Strukturierung und Organisation der Daten ergeben, rühren nicht nur daher, dass sie aus unterschiedlichen Kontexten stammen. Vielmehr werden an Hand der Quellen-Diversität grundsätzliche Probleme biographischen Arbeitens, in deren Zusammenhang die Personendaten stehen, deutlich, denen eine solche Infrastruktur Rechnung tragen muss.
Wie jedes Wörterbuch steht auch die Neubearbeitung des Grimm vor der Schwierigkeit dem Lexikonparameter der Akkuratheit der Information Genüge zu tun und gleichzeitig die Informationsdarstellung und Textorganisation aus ökonomischen Gründen so knapp wie möglich zu halten. Die sich daraus ergebenden Darstellungs- und Ausdrucksformen (unterschiedliche Schrifttypen und Schriftneigungen, Kapitälchen, Abkürzungen, runde, eckige oder spitze Klammern, Absätze, Gliederungsmarken und vieles andere mehr) helfen, die Artikelkonstituenten zu definieren und Informationstypen zu unterscheiden. Aus persönlicher Erfahrung weiß ich, daß selbst erfahrene Nutzer des Deutschen Wörterbuchs nicht alle angebotenen Informationen erkennen oder die verschiedenen Ausdrucksformen richtig zu deuten wissen. An ausgewählten Beispielen aus der Neubearbeitung soll das z. T. diffizile und komplexe System der Darstellungs- und Ausdrucksformen, das auch als Reaktion auf den etwas sorglosen Umgang der Brüder Grimm in den ersten Bänden der Erstauflage entstanden ist, vorgestellt werden, das sich zwar um äußerste Genauigkeit bemüht, für den Nutzer aber auch manchmal schwer zu durchschauen ist. Der Ausblick auf die Möglichkeiten, die ein elektronisch-lexikographisches System in dieser Hinsicht bieten könnte, schließt den Vortrag ab.
Friedrich Schleiermachers Vorlesungen über die Ästhetik (1819, 1825, 1832/33) sind bislang in verschiedenen Ausgaben erschienen. In diesem Beitrag wird aufgrund einer kurzen Editions- und Rezeptionsgeschichte dieser Vorlesungen untersucht, inwiefern die kanonische Bedeutung eines philosophischen Werks von den technischen und konzeptionellen Bedingungen seiner Edition einerseits und von der fachlich qualifizierten Rezeption andererseits abhängt. Dabei wird insbesondere auf die kanon-wirksamen Potenziale der digitalen Edition eingegangen.
In der Anwendung von Linked Data und Semantic Web Technologien ist eine Entwicklung von der Verlinkung und Publikation, hin zu Werkzeugen der Datenanalyse erkennbar. Historische Rechnungsunterlagen liefern eine reichhaltige quantitative und qualitative Datengrundlage, die sich aus der Struktur der Transaktion, also dem Fluss von Wirtschaftsobjekten zwischen Wirtschaftssubjekten, ergibt. Die Bookkeeping-Ontology formalisiert diese und ermöglicht die semantische Interoperabilität über historische Quellen hinweg. Im Projekt Digital Edition Publishing Cooperative for Historical Accounts (DEPCHA) wird nicht nur an der Veröffentlichung von digitalen Editionen bzw. Datensätzen historischer Rechnungsunterlagen gearbeitet, sondern auch an Funktionalitäten der Exploration, Selbstorganisation und Visualisierung. Um dies zu ermöglichen, soll ein interaktives Dashboard als Webinterface angeboten werden.
Im Referenzmodell der Informationsvisualisierung nach Card et. al. sind konkrete Anwendungsszenarien, die durch die Visualisierung bearbeitbar gemacht werden sollen, zentral. Somit entsteht ein Spannungsfeld zwischen generischen und Use Case zentrierten Visualisierungen, die sich unmittelbar an die Anforderungen von Historiker*innen richtet. Der Vortrag versucht der Frage nachzugehen, inwieweit die semantischen Strukturen von Transaktion, formalisiert durch die Bookkeeping-Ontology und eingebettet in eine Knowledge Base, genutzt werden können, um anforderungsspezifische, aber dennoch (möglichst) generische Visualisierungen zu erzeugen, aus denen sich ein Dashboard für genannten Quellentypus ableiten und umsetzen lässt.
Was macht gute Software aus? Wie stellt man sicher, dass man die Bedürfnisse der Benutzer und anderen Stakeholder richtig versteht, priorisiert, kommuniziert und umsetzt? Wie definiert man Balance und Zeitablauf für Planung, Design, Architektur, und Implementierung? Was muss man modellieren und was nicht? Braucht man User Stories oder Use Cases? Und wer macht was in einem kleinen Team? Ist häufige Iteration die Lösung aller Probleme? Dieser Vortrag versucht aufzuzeigen, worauf es wirklich ankommt – in einem Spagat zwischen klassischem Requirements Engineering, agiler Softwareentwicklung und modernem Interaktionsdesign.