Lecture
Refine
Year of publication
Document Type
- Lecture (58) (remove)
Language
- German (58) (remove)
Keywords
Has Fulltext
- yes (58)
Institute
- TELOTA - IT/Digital Humanities (21)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (11)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt CLARIN-D (2)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Akademienvorhaben Anpassungsstrategien der späten mitteleuropäischen Monarchie am preußischen Beispiel 1786 bis 1918 (1)
- Akademienvorhaben Die Griechischen Christlichen Schriftsteller (1)
- Akademienvorhaben Turfanforschung (1)
Vortrag "ediarum-Funktionen 'sex' & 'gender'" beim BBAW-internen Workshop "Gender&Data in DH-Projekten" am 21.03.2024 über die neu entwickelten ediarum-Funktionen "biologisches Geschlecht (sex)" und "Geschlechtsidentität (gender)". Beschreibt die Vorüberlegungen und Anforderungen sowie die Umsetzung im Datenmodell und den ediarum-Aktionen. Abschließend Ausblick auf mögliche Weiterentwicklungen.
Das Schweizerische Idiotikon dokumentiert die deutsche Sprache in der Schweiz vom Jahr 1300 bis heute. Es ist mit bisher 16 Bänden (Wortstrecke A – W) das grösste Regionalwörterbuch des Deutschen. An ihm wird seit genau 150 Jahren kontinuierlich gearbeitet, in ca. 12 Jahren soll der 17. und letzte Band abgeschlossen sein. Zur einfacheren Benutzung und zur grösseren Verbreitung des gedruckten Werkes sowohl in der wissenschaftlichen Gemeinschaft wie auch in der interessierten weiteren Öffentlichkeit wurde vor 3 Jahren mit der Digitalisierung begonnen. Die komplexe Mikrostruktur der Wörterbuchartikel sowie die beschränkten personellen Ressourcen, die in erster Linie für die Weiterarbeit am letzten Band eingesetzt werden müssen, liess eine Volltextdigitalisierung mit ausgebautem TEI-Tagging als zu langwierig und zu ambitiös erscheinen. Daher wurde die Digitalisierung schrittweise angegangen, indem zuerst die Zugriffstrukturen über mit vielen Schreib- und Aussprachevarianten versehene digitale Register ausgebaut wurden. In einem zweiten Schritt wurden die Register mit den digitalisierten Abbildern der gedruckten Buchseiten verbunden, und in einem dritten, gegenwärtig realisierten Schritt wird die Suche über einen mittels OCR erstellten Volltext implementiert.
Der Vortrag bietet eine Rückschau auf die Jahreskonferenz der Digital Humanities im deutschsprachigen Raum zu dem Thema "Kritik der digitalen Vernunft", die von 26.2. bis 2.3.2018 in Köln stattfand. Zunächst wird ein Überblick zu den Konferenzbeiträgen der Mitarbeiterinnen und Mitarbeiter der BBAW gegeben. Die Bandbreite der Beiträge aus dem Haus umfasst sowohl praxisorientierte Vorträge, in denen die Entwicklung digitaler Editionen und Korpora thematisiert wird, als auch theoretische Reflexionen. Im Anschluss formulieren die Vortragenden die wesentlichen Beobachtungen und Eindrücke zur Frage, wo die verschiedenen Bereiche der Digital Humanities (z. B. digitale Editionen, quantitative Textanalyse, Softwareentwicklung) im Moment stehen und welche Tendenzen sich für die nahe Zukunft abzeichnen.
Der Band dokumentiert die "Posterstraße", die im Rahmen der Festveranstaltung zum 20-jährigen Jubiläum von TELOTA am 22. Juni 2022 stattfand. Die über 30 Poster stellen die vielfältigen Arbeitsbereiche, Tätigkeitsfelder, Projekte und Kooperationen von TELOTA vor. Sie sind - wie auf der Veranstaltung - in sieben thematische Bereiche gegliedert, die die Arbeit von TELOTA beschreiben: Forschungssoftware, Text & Edition, Visualisierung & Datenanalyse, Infrastruktur, Vernetzung & Kooperationen sowie DH-Community & Lehre.
Während die Netzwerkanalyse in den Sozialwissenschaften seit den Arbeiten Jacob Levy Morenos zu Anfang des 20. Jh.s fester Bestandteil des methodischen Repertoires ist, hat sie sich im Laufe der letzten 10 Jahren auch in anderen Wissenschaftszweigen, darunter auch Archäologie und Geschichtswissenschaften, als Methodik etabliert. Doch was beinhaltet die Analyse von Netzwerken jenseits einer rein metaphorischen Nutzung des Begriffes nun genau? Für welche Fragestellungen ist diese Methodik geeignet, und wo liegen die Grenzen der Anwendung? Wie lässt sich die Entwicklung und rege Anwendung in Fachdisziplinen wie Soziologie und Politologie mit der Erforschung (prä-)historischer Gesellschaften vereinbaren? Anhand verschiedener Beispiele aus Archäologie und Geschichte werden diese und weitere Fragen diskutiert und eine Einführung in den derzeitigen Stand der archäologisch-historischen Netzwerkforschung gegeben.
Digitale Technologien und Formate eröffnen Museen neue Formate der Interaktion, Interpretation und Kommunikation. Im Vergleich zu objektbezogener Forschung im Museum, die durch den Einsatz digitaler Erschließungssysteme, der Nutzung und Publikation von digitalen Reproduktionen und der Integration von digital gestützten Untersuchungsmethoden eine methodische Erweiterung erfährt, wird die Entwicklung digitaler Kommunikations- und Vermittlungsformate bisher eher selten als transdisziplinärer Forschungsauftrag im Museum verstanden. Mit museum4punkt0 wurde 2017 erstmals in Deutschland ein museales Forschungsprojekt initiiert, welches Kulturinstitutionen verschiedener Sparten, Größen und institutionellen Strukturen mit dem Ziel der Entwicklung und Beforschung digitaler Anwendungen in einem Verbund vereint. Zentrales Merkmal des Verbundes ist die Vernetzung und gegenseitige Unterstützung der beteiligten Institutionen bei der Entwicklung und Evaluation von digitalen Vermittlungs- und Kommunikationsangeboten. Untersucht wird, wie neueste digitale Technologien effektiv für die Aufgaben von Museen, insbesondere in der Wissensvermittlung, nutzbar gemacht werden können.
Schon vor zehn Jahren konstatierte Patrick Sahle, dass die digitale Edition «von ihren konzeptionellen und technischen Bedingungen her ‹entgrenzt›» ist (Sahle 2013, Bd. 2, S. 219). Er skizzierte fünf «Dimensionen der Offenheit». Dazu gehören erstens die Auswahl der Editionsinhalte, zweitens die Kodierungstiefe, drittens die Unabgeschlossenheit, viertens die Vernetzung mit externen Inhalten und Webservices sowie fünftens die variablen Präsentationsformen der digitalen Edition. Es sind diese Dimensionen, die die digitale Edition dezidiert als eine «offene» charakterisieren. Doch was heisst das konkret: Wie manifestieren sich die genannten Dimensionen in digitalen Editionen? Welche Möglichkeiten bietet die offene Edition – und werden sie alle überhaupt schon genutzt? Welche Herausforderungen stellt die offene Edition an die digitale Methodik und die Editionswissenschaft? Diese Fragen versuchte der Vortrag anhand einiger Beispiele von Editionen neuzeitlicher Texte zu beantworten.
Folien des Abendvortrags im Rahmen der Summer School „Einführung in die digitale Editorik. Briefe mit TEI codieren und publizieren.“ Zürich, 30.08.2023.
Folien zum Vortrag "Digitale Briefeditionen und ihre Vernetzung" im Rahmen der Ringvorlesung "Transdisziplinäre Aspekte Digitaler Methodik in den Geistes- und Kulturwissenschaften" an der Johannes Gutenberg-Universität Mainz am 3. Mai 2017. Der Vortrag erläutert die aktuellen Entwicklungen digitaler Briefeditionen, u.a. werden User Interfaces und ihr Nutzen für die digitale Briefedition vorgestellt. Darüber hinaus diskutiert der Vortrag, wie mit Hilfe von Application Programming Interfaces (APIs) die digitale Briefedition umfassend vernetzt werden kann. Ein Exkurs widmet sich dabei dem Webservice "correspSearch".
Folien zu einem Vortrag im Rahmen des Digital-Humanities-Kolloquium an der BBAW am 7.7.2017. Der Vortrag erläutert, ausgehend von editionswissenschaftlichen Entwicklungen der 1980er und 1990er Jahre, wie die "Kopfdaten" eines Briefes nach den Richtlinien der Text Encoding Initiative (TEI) kodiert werden können. Insbesondere wird auf das TEI-Element correspDesc eingegangen und die Kodierung anhand eines Beispiels veranschaulicht. Darüber hinaus wird der Mehrwert von Briefmetadaten sowohl für die digitale Briefedition an sich als auch zu ihrer Vernetzung diskutiert. Dabei wird vor allem auf das Correspondence Metadata Interchange Format (CMIF) und den Webservice correspSearch eingegangen.
Folien zum Kurzvortrag "Gender & Data in correspSearch", der im Rahmen eines Workshops zu Gender & Data am 23.03.2023 an der BBAW gehalten wurden. Der Kurzvortrag gibt einen Überblick darüber, wieviel Briefe von/an Frauen in correspSearch vorhanden sind und wie der Webservice mit Hilfe der Gemeinsamen Normdatei Briefe nach Geschlecht durchsuchbar macht - und mit welchen Limitationen.
Darstellung eines Besuchs bei einer uzebkisch-italienischen archäologischen Mission in Samarkand (Uzbekistan) sowie einer Reise nach Tadschikistan mit Bezug auf die Archäologie der Sogdiana, der Erforschung des Sogdischen und des Yaghnobi. Folgende archäologischen Stätte wurden besichtigt: Kafir Kala, Sarazm, Panjikand, Mug, Afrasiab, Jar-tepe und Urgut. Dabei ergab sich die Möglichkeit, die Arbeit dreier jungen itaienischen Archäologen zu verfolgen: F. Franceschini (Nomadengräber in Sazagan), Simone Mantellini (Ausgrabung in Kafir Kala, Vermessungen in Mug) und Bernardo Rondelli (Kartographierung des mittleren Zarafschan-Tals). Diese Arbeiten werfen einige Fragen an das iranische Textmaterial (awestisch und sogdisch) bezüglich Wassermanagement usw. auf. In Tadschikistan ergab sich auch die Kontaktaufnahme mit Dr. S. Mirzoev, der an der tadschikischen Akademie das Yaghnobi, eine noch lebende dem Sogdischen sehr nahstehende Sprache, betreut und ein Wörterbuch vorgelegt hat. Die Möglichkeit von Neufunden sogdischen Textmaterials in der von den Uzbeken und Italienern betriebenen Ausgrabung in Kafir Kala wird erörtert und eine Sigel aus Kafir Kala als die des 'Herrschers von Revdad' neuinterpretiert.
Nach Beendigung der Neubearbeitung des Deutschen Wörterbuchs werden die lexikographischen Arbeiten im Rahmen eines digitalen lexikalischen Systems fortgeführt. Welche Perspektiven sich insbesondere für die historische Lexikographie durch die neuen Arbeitsbedingungen eröffnen, ist Thema eines Workshops, den die Arbeitsstelle „Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm - Neubearbeitung” veranstaltet. Die Vorträge beleuchten das Thema unter verschiedenen Aspekten. So soll der spezifische Informationsgehalt von Artikeln in historischen Wörterbüchern illustriert und mit Angaben in gegenwartssprachlichen Wörterbüchern verglichen werden. Darüber hinaus werden Überlegungen zur Erschließung und Nutzung von Quellen sowie zur Erarbeitung und Präsentation lexikographischer Informationen im digitalen Zeitalter vorgestellt. Dazu gehört auch ein Überblick über bereits vorhandene elektronische Redaktionssysteme. Ein Vortrag, in dem es um Desiderata nach dem Ende der DWB-Neubearbeitung gehen soll, beschließt die Veranstaltung.
Das Großwörterbuch des Ungarischen (GWU) ist grundsätzlich ein Bedeutungswörterbuch, das auch eine historische Dimension hat. Einerseits sind im Wörterbuch auch zahlreiche Stichwörter zu finden, die im Sprachgebrauch der früheren Jahrzehnte der bearbeiteten Periode (von 1772 bis zunächst 2000) wichtig gewesen sind. Andererseits kann die Bedeutungsstruktur vieler auch heute gebrauchter Wörter um Bedeutungen ergänzt werden, die nur aufgrund älterer Textstellen des Corpus erschlossen werden können. Diese Veränderungen im lexikalischen Bestand und in der Wortsemantik weisen natürlich auch auf aussersprachliche Umstände hin, aber auch auf das Verhältnis zwischen Innovation und Entlehnung als Möglichkeiten zur Erweiterung des Wortschatzes. Die lexikologische Markierung, d. h. die Bezeichnung der sprachlichen Verwendungsmöglichkeiten (Stile) und Fachbezogenheit der einzelnen Wörter (Bedeutungen) in einem historisch geprägten Bedeutungswörterbuch ist oft recht problematisch. Dem Lexikographen fehlt nämlich die persönliche Erfahrung des Sprachgebrauches einer früheren Synchronie, so ist er gezwungen, mit einer „zusätzlichen, erweiterten“ Kompetenz diese wichtigen Züge der behandelten Lexeme zu beschreiben. Anführungen zu unterschiedlichen grammatischen Merkmalen der Stichwörter können einem Wörterbuch nicht fehlen. Die Art und der Umfang dieser Verweise können die richtige Einschätzung der Verwendungsmöglichkeiten eines Wortes auch für ältere Perioden ziemlich gut fördern. Darüber hinaus können mit Hilfe der Wörterbuchgrammatik ggf. auch Veränderungen im grammatischen System dargestellt werden.
Der Vortrag über den im Titel „Naturwissenschaft und Menschenbild“ umschriebenen Problemkreis, der natur- und kulturwissenschaftliche Aspekte betrifft, bildete den Abschluss des Symposiums über das Thema „Wie entstehen neue Qualitäten in komplexen Systemen“ am 18. Dezember 1998 in Berlin zum 50-jährigen Gründungsjubiläum der Max-Planck-Gesellschaft. Schwerpunkte sind Reichweite und Grenzen naturwissenschaftlicher Erklärung von Bewusstsein, evolutionsbiologische Grundlagen von Kooperativität und Empathie, sowie die kulturellen Verallgemeinerungs- und Gestaltungsmöglichkeiten biologisch angelegter Fähigkeiten, insbesondere was die Aktivierung der fragilen und begrenzten, aber durchaus realen und wichtigen Ressource „Gemeinsinn“ angeht.
TELOTA: Woher, Wohin?
(2022)
Im Vortrag wurde ausführlich der Grundgedanke hinter dem DTA-Basisformat, d. h. die Etablierung eines reduzierten, zugleich vollständig TEI-konformen XML-Markups für historische Textressourcen, erläutert. ‚Reduziert‛ bedeutet in diesem Zusammenhang, dass immer dort, wo die P5-Richtlinien der TEI mehrere Möglichkeiten zur Annotation gleichartiger Phänomene bieten, innerhalb des DTABf nur genau eine dieser Varianten gewählt werden kann. Ziele dieser Restriktion sind zum einen die Gewährleistung gleichartiger Annotationsweisen innerhalb des DTA-Korpus sowie zum anderen die Erhöhung der Interoperabilität verschiedener TEI-XML-kodierter Textkorpora.
Neben dem DTABf für historische Drucke erwähnte Susanne Haaf in ihrem Vortrag auch die verschiedenen Spezialtagsets innerhalb des DTABf, die beispielsweise für die Annotation von (historischen) Zeitungen, Funeralschriften und seit einiger Zeit auch für die Auszeichnung (neuzeitlicher) Manuskripte entwickelt wurden. Dabei wurde das immer noch sehr breite Spektrum der Phänomene erkennbar, die sich mit dem DTABf standardkonform auszeichnen lassen, wobei die ausführliche und reich illustrierte Dokumentation des DTABf eine zuverlässige Orientierungshilfe bietet. In technischer Hinsicht wurde die Erstellung der umfangreichen DTABf-Dokumentation mit dem Dokumentenformat DITA (Darwin Information Typing Architecture) erläutert, das deren Handhabung und Modularisierung (auch durch Nachnutzende) enorm vereinfacht. Als weitere technische Komponenten stellte Haaf das mit dem Chaining-ODDs-Mechanismus modularisierte ODD, auf dem das DTABf beruht, das RNG-Schema sowie die weitere Spezifikation der Annotationspraxis durch einen Schematron-Regelsatz vor. [2]
Alle Komponenten des DTABf werden mittlerweile über die DTA-Präsenz auf der Entwicklungsplattform GitHub verwaltet und versioniert. Sie können dadurch auch von externen Nutzerinnen und Nutzern kommentiert, heruntergeladen und ggf. auf deren eigene Bedürfnisse hin modifiziert werden. Als weiterer Schritt zur stärkeren Einbindung der wachsenden Nutzer-Community des DTABf ist die Einrichtung einer Steuerungsgruppe mit externen Beteiligten geplant, die über zukünftige Modifikationen und Erweiterungen des Formats entscheiden wird. Darüber hinaus wurde in diesem Zusammenhang die geplante Übersetzung der DTABf-Dokumentation ins Englische, die im Rahmen des EU-Projekts PARTHENOS vorgesehen ist, erwähnt. [3]
Die anschließende Diskussion widmete sich u.a. den Implikationen der zunehmenden Verbreitung des DTABf, das mittlerweile von mehr als 25 externen Projekten genutzt und sowohl vom EU-weiten Infrastrukturprojekt CLARIN als auch von der Deutschen Forschungsgemeinschaft (DFG) empfohlen wird, was einen wichtigen Schritt in Richtung Standardisierung bzw. Etablierung von Best Practices innerhalb der Historischen Linguistik sowie allgemein der textbasiert arbeitenden Philologien, Geschichts- und Kulturwissenschaften darstellt. Das DTABf wurde zwar ursprünglich für die Auszeichnung des primär deutschsprachigen Korpus des Deutschen Textarchivs entwickelt, eignet sich aber ebenso zur Annotation von Textressourcen, die in anderen Sprachen (oder anderen Sprachstufen des Deutschen) verfasst wurden.