Vortrag, Vorlesung, Präsentation
Filtern
Erscheinungsjahr
Dokumenttyp
- Vortrag, Vorlesung, Präsentation (58) (entfernen)
Sprache
- Deutsch (58) (entfernen)
Schlagworte
- Digital Humanities (12)
- Edition (8)
- Information und Dokumentation (8)
- Bibliographie (6)
- Computerunterstützte Lexikographie (6)
- Deutschland (6)
- Geschichtswissenschaft (5)
- Historische Lexikographie (5)
- historical lexicography (5)
- Text Encoding Initiative (4)
- Brief (3)
- Datenmanagement (3)
- Digitalisierung (3)
- Forschungsdaten (3)
- TEI (3)
- online dictionary (3)
- Benutzerforschung (2)
- Biographik (2)
- Datenbankverwaltung (2)
- Datenmodellierung (2)
- Deutsches Wörterbuch <Grimm> (2)
- Digitale Edition (2)
- Forschungsdatenmanagement (2)
- Geisteswissenschaften (2)
- Grammatik (2)
- Grammatik im Wörterbuch (2)
- Lexikographie (2)
- Metadaten (2)
- Patristik (2)
- Schnittstelle (2)
- Strukturierung (2)
- XML (2)
- correspSearch (2)
- dictionary (2)
- digital lexicography (2)
- e-lexicography (2)
- elektronisches Repositorium (2)
- user feedback (2)
- 100 (1)
- Afrasiab (1)
- Altertumswissenschaft (1)
- Altägyptisch (1)
- Antikes Christentum (1)
- Application Programming Interface (1)
- Bedeutung (1)
- Bedeutungsbeschreibung (1)
- Benutzerfreundlichkeit (1)
- Bewusstsein (1)
- Briefsammlung (1)
- CMIF (1)
- Christentum (1)
- Daten (1)
- Datensicherung (1)
- Editionsgeschichte (1)
- Einsprachiges Wörterbuch (1)
- Empathie (1)
- Europäische Lexikographie (1)
- Eusebius, Caesariensis (1)
- Evolution (1)
- Exegese (1)
- Gehirn-Geist-Beziehung (1)
- Gemeinsinn (1)
- Gender (1)
- German loans (1)
- Geschlechterforschung (1)
- Grammatik und Semantik (1)
- Graphdatenbank (1)
- Graphentechnologien (1)
- Historische Sprachwissenschaft (1)
- Homo sapiens (1)
- Hungarian (1)
- Informatik (1)
- Informationskompetenz (1)
- Infrastructure (1)
- Internetwörterbuch (1)
- Juden (1)
- Kafir Kala (1)
- Katene (1)
- Kommentar (1)
- Korpus <Linguistik> (1)
- Künstliche Intelligenz (1)
- Lachmannian method(criticism of) (1)
- Landesbibliographie (1)
- Lehndorff (1)
- Lehndorff (Familie) (1)
- Lehnwort (1)
- Lehnwörterbuch (1)
- Mug (1)
- Netzwerkforschung (1)
- Nordrhein-Westfalen (1)
- Normdatei (1)
- OWID (1)
- Old Egyptian (1)
- Online-Publikation (1)
- Online-Wörterbuch (1)
- Open Science (1)
- Origenes (1)
- Ostpreußen (1)
- Parzival (1)
- Philosophiegeschichte (1)
- Pseudo-Athanasius (1)
- Regesta Imperii (1)
- Regesten (1)
- Regionalbibliographie (1)
- Repository (1)
- Repository <Informatik> (1)
- Retrodigitalisierung (1)
- Schleiermacher (1)
- Schleiermacher, Friedrich (1)
- Schweizerisches Idiotikon (1)
- Semantik (1)
- Semantische Analyse (1)
- Septuaginta (1)
- Slavic languages (1)
- Slawische Sprachen (1)
- Sogdiana (1)
- Sogdisch (1)
- Sprachen in Europa (1)
- Steinort (1)
- Swiss German (1)
- Sztynort (1)
- Technische Infrastruktur (1)
- Text Mining (1)
- Textkritik (1)
- Theorie und Methoden der Sprachwissenschaft (1)
- Ungarisch (1)
- User Interface (1)
- Vernetzung (1)
- Web Services (1)
- Wissenschaftliche Bibliothek (1)
- Wissenschaftliche Kooperation (1)
- Wissenschaftskollaboration (1)
- Wolfram von Eschenbach (1)
- Wörterbuch (1)
- Wörterbuch und Nutzer (1)
- Wörterbuchbenutzung (1)
- Yaghnobi (1)
- Zarafschan-Tal (1)
- Zugriffsstruktur (1)
- antike Philosophie (1)
- corpus (1)
- courtly romance (1)
- critical electronic edition (1)
- deutsche Lehnwörter (1)
- dh-kolloquium (1)
- diachronic dictionary (1)
- digitales Wörterbuch (1)
- digitalisation (1)
- ediarum (1)
- elexiko (1)
- grammar (1)
- italouzbekische archäologische Mission in Samarkand (1)
- lexicography in Europe (1)
- lexikographischer Prozess (1)
- meaning (1)
- new philology (1)
- retro-digitisation (1)
- transmission of manuscripts (1)
- usability (1)
- Ästhetik (1)
Volltext vorhanden
- ja (58) (entfernen)
Institut
- TELOTA - IT/Digital Humanities (21)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (11)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt CLARIN-D (2)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Akademienvorhaben Anpassungsstrategien der späten mitteleuropäischen Monarchie am preußischen Beispiel 1786 bis 1918 (1)
- Akademienvorhaben Die Griechischen Christlichen Schriftsteller (1)
- Akademienvorhaben Turfanforschung (1)
(Open-Source-)OCR-Workflows
(2017)
Slides for the OCR-D talk at the Digital Humanities Kolloquium at the Berlin-Brandenburg Academy of Sciences and Humanities (4th August 2017).
Der Band dokumentiert die "Posterstraße", die im Rahmen der Festveranstaltung zum 20-jährigen Jubiläum von TELOTA am 22. Juni 2022 stattfand. Die über 30 Poster stellen die vielfältigen Arbeitsbereiche, Tätigkeitsfelder, Projekte und Kooperationen von TELOTA vor. Sie sind - wie auf der Veranstaltung - in sieben thematische Bereiche gegliedert, die die Arbeit von TELOTA beschreiben: Forschungssoftware, Text & Edition, Visualisierung & Datenanalyse, Infrastruktur, Vernetzung & Kooperationen sowie DH-Community & Lehre.
Um die Möglichkeiten und Risiken, die sich durch virtuelle Forschungsplattformen ergeben, besser einschätzen zu können, erscheint es sinnvoll, ihre Stellung in Zusammenhang mit der gesamten virtuellen Infrastruktur in der Forschungs- und Wissenschaftslandschaft zu denken. Hierbei wird deutlich, dass ihre Aufgabe nicht so sehr darin bestehen kann, neue Funktionalitäten zu erfinden oder neue Ressourcen verfügbar zu machen, sondern eher darin gesehen werden muss, bestehende Anwendungen und Quellsysteme auf eine Art zu organisieren, bei der sich der Mehrwert für den Benutzer durch die Integration und das In-Beziehung-Setzen derselben ergibt. Dies gilt insbesondere für die Organisation von Wissen. Erfolgreich haben Initiativen wie Open Access auf der politischen und DINI (Deutsche Initiative für Netzwerkinformation) auf der technischen Seite dazu beigetragen, dass die Ergebnisse von Forschung zunehmend in digitaler Form vorliegen und zumeist innerhalb von Repositorien, deren Zahl - wie z.B. auf OpenDOAR zu sehen - unaufhaltsam wächst, verfügbar sind. Eine Herausforderung stellt daher immer mehr die Integration und Nutzbarmachung von Wissen dar. Als Ergebniseintrag 21 im Repositorium eines Universitäts-Instituts ist der Titel eines Aufsatzes eine isolierte Information. In Beziehung gesetzt zu anderen Ressourcen und statistisch und semantisch kontextualisiert in Verbindung mit anderen Systemen wird er zu anschlussfähigem Wissen. Unter Anderem für diese Aufgabe soll mit dem Wissensspeicher der BBAW, der zur Zeit entwickelt wird, eine Lösung gefunden werden. Er versteht sich als eine Plattform, in der die Vielgestaltigkeit der Akademie, die sich durch ihre vielfältigen Forschungsvorhaben ergibt und die sich in verschiedenen Interessenszusammenhängen, Ressourcen und Ressourcensystemen ausdrückt, integriert wird, und die sich ihrerseits wiederum die Aufgabe setzt, sich in bestehende Services einzubringen und diese in dem durch die Plattform neu geschaffenen Kontext zu nutzen. Eine virtuelle Forschungsplattform kann daher auch als Ort angesehen werden, an dem sich inhaltliche, technische und strukturelle Heterogenität sowohl intern als auch extern harmonisieren und zusammenführen lässt und damit einen fruchtbaren Umgang mit Wissen in der digitalen Welt überhaupt erst möglich macht.
Der Beitrag informiert über Kollationsverfahren und Formen der Textpräsentation, die im Rahmen des Parzival-Projekts praktiziert und erprobt werden. Der 'Parzival'-Roman Wolframs von Eschenbach gerät dabei von seiner Überlieferung her in den Blick: Zur Darstellung gelangen handschriftliche Erscheinungsweisen und die Varianten einzelner Textfassungen. Durch die Nutzung von Datenbanken können dynamische Präsentationsformen erzeugt werden, in denen die Betrachter selbständig eine Synopse von Textzeugen bzw. Fassungen zusammenstellen. Die konzeptionellen und technischen Grundlagen dieses Verfahrens werden im Rahmen des Beitrags erläutert. Die angegebene URL führt zur Testedition.
Im Vortrag wurde ausführlich der Grundgedanke hinter dem DTA-Basisformat, d. h. die Etablierung eines reduzierten, zugleich vollständig TEI-konformen XML-Markups für historische Textressourcen, erläutert. ‚Reduziert‛ bedeutet in diesem Zusammenhang, dass immer dort, wo die P5-Richtlinien der TEI mehrere Möglichkeiten zur Annotation gleichartiger Phänomene bieten, innerhalb des DTABf nur genau eine dieser Varianten gewählt werden kann. Ziele dieser Restriktion sind zum einen die Gewährleistung gleichartiger Annotationsweisen innerhalb des DTA-Korpus sowie zum anderen die Erhöhung der Interoperabilität verschiedener TEI-XML-kodierter Textkorpora.
Neben dem DTABf für historische Drucke erwähnte Susanne Haaf in ihrem Vortrag auch die verschiedenen Spezialtagsets innerhalb des DTABf, die beispielsweise für die Annotation von (historischen) Zeitungen, Funeralschriften und seit einiger Zeit auch für die Auszeichnung (neuzeitlicher) Manuskripte entwickelt wurden. Dabei wurde das immer noch sehr breite Spektrum der Phänomene erkennbar, die sich mit dem DTABf standardkonform auszeichnen lassen, wobei die ausführliche und reich illustrierte Dokumentation des DTABf eine zuverlässige Orientierungshilfe bietet. In technischer Hinsicht wurde die Erstellung der umfangreichen DTABf-Dokumentation mit dem Dokumentenformat DITA (Darwin Information Typing Architecture) erläutert, das deren Handhabung und Modularisierung (auch durch Nachnutzende) enorm vereinfacht. Als weitere technische Komponenten stellte Haaf das mit dem Chaining-ODDs-Mechanismus modularisierte ODD, auf dem das DTABf beruht, das RNG-Schema sowie die weitere Spezifikation der Annotationspraxis durch einen Schematron-Regelsatz vor. [2]
Alle Komponenten des DTABf werden mittlerweile über die DTA-Präsenz auf der Entwicklungsplattform GitHub verwaltet und versioniert. Sie können dadurch auch von externen Nutzerinnen und Nutzern kommentiert, heruntergeladen und ggf. auf deren eigene Bedürfnisse hin modifiziert werden. Als weiterer Schritt zur stärkeren Einbindung der wachsenden Nutzer-Community des DTABf ist die Einrichtung einer Steuerungsgruppe mit externen Beteiligten geplant, die über zukünftige Modifikationen und Erweiterungen des Formats entscheiden wird. Darüber hinaus wurde in diesem Zusammenhang die geplante Übersetzung der DTABf-Dokumentation ins Englische, die im Rahmen des EU-Projekts PARTHENOS vorgesehen ist, erwähnt. [3]
Die anschließende Diskussion widmete sich u.a. den Implikationen der zunehmenden Verbreitung des DTABf, das mittlerweile von mehr als 25 externen Projekten genutzt und sowohl vom EU-weiten Infrastrukturprojekt CLARIN als auch von der Deutschen Forschungsgemeinschaft (DFG) empfohlen wird, was einen wichtigen Schritt in Richtung Standardisierung bzw. Etablierung von Best Practices innerhalb der Historischen Linguistik sowie allgemein der textbasiert arbeitenden Philologien, Geschichts- und Kulturwissenschaften darstellt. Das DTABf wurde zwar ursprünglich für die Auszeichnung des primär deutschsprachigen Korpus des Deutschen Textarchivs entwickelt, eignet sich aber ebenso zur Annotation von Textressourcen, die in anderen Sprachen (oder anderen Sprachstufen des Deutschen) verfasst wurden.
Das Schweizerische Idiotikon dokumentiert die deutsche Sprache in der Schweiz vom Jahr 1300 bis heute. Es ist mit bisher 16 Bänden (Wortstrecke A – W) das grösste Regionalwörterbuch des Deutschen. An ihm wird seit genau 150 Jahren kontinuierlich gearbeitet, in ca. 12 Jahren soll der 17. und letzte Band abgeschlossen sein. Zur einfacheren Benutzung und zur grösseren Verbreitung des gedruckten Werkes sowohl in der wissenschaftlichen Gemeinschaft wie auch in der interessierten weiteren Öffentlichkeit wurde vor 3 Jahren mit der Digitalisierung begonnen. Die komplexe Mikrostruktur der Wörterbuchartikel sowie die beschränkten personellen Ressourcen, die in erster Linie für die Weiterarbeit am letzten Band eingesetzt werden müssen, liess eine Volltextdigitalisierung mit ausgebautem TEI-Tagging als zu langwierig und zu ambitiös erscheinen. Daher wurde die Digitalisierung schrittweise angegangen, indem zuerst die Zugriffstrukturen über mit vielen Schreib- und Aussprachevarianten versehene digitale Register ausgebaut wurden. In einem zweiten Schritt wurden die Register mit den digitalisierten Abbildern der gedruckten Buchseiten verbunden, und in einem dritten, gegenwärtig realisierten Schritt wird die Suche über einen mittels OCR erstellten Volltext implementiert.
Schon vor zehn Jahren konstatierte Patrick Sahle, dass die digitale Edition «von ihren konzeptionellen und technischen Bedingungen her ‹entgrenzt›» ist (Sahle 2013, Bd. 2, S. 219). Er skizzierte fünf «Dimensionen der Offenheit». Dazu gehören erstens die Auswahl der Editionsinhalte, zweitens die Kodierungstiefe, drittens die Unabgeschlossenheit, viertens die Vernetzung mit externen Inhalten und Webservices sowie fünftens die variablen Präsentationsformen der digitalen Edition. Es sind diese Dimensionen, die die digitale Edition dezidiert als eine «offene» charakterisieren. Doch was heisst das konkret: Wie manifestieren sich die genannten Dimensionen in digitalen Editionen? Welche Möglichkeiten bietet die offene Edition – und werden sie alle überhaupt schon genutzt? Welche Herausforderungen stellt die offene Edition an die digitale Methodik und die Editionswissenschaft? Diese Fragen versuchte der Vortrag anhand einiger Beispiele von Editionen neuzeitlicher Texte zu beantworten.
Folien des Abendvortrags im Rahmen der Summer School „Einführung in die digitale Editorik. Briefe mit TEI codieren und publizieren.“ Zürich, 30.08.2023.
Folien zum Vortrag "Digitale Briefeditionen und ihre Vernetzung" im Rahmen der Ringvorlesung "Transdisziplinäre Aspekte Digitaler Methodik in den Geistes- und Kulturwissenschaften" an der Johannes Gutenberg-Universität Mainz am 3. Mai 2017. Der Vortrag erläutert die aktuellen Entwicklungen digitaler Briefeditionen, u.a. werden User Interfaces und ihr Nutzen für die digitale Briefedition vorgestellt. Darüber hinaus diskutiert der Vortrag, wie mit Hilfe von Application Programming Interfaces (APIs) die digitale Briefedition umfassend vernetzt werden kann. Ein Exkurs widmet sich dabei dem Webservice "correspSearch".
Digitale Technologien und Formate eröffnen Museen neue Formate der Interaktion, Interpretation und Kommunikation. Im Vergleich zu objektbezogener Forschung im Museum, die durch den Einsatz digitaler Erschließungssysteme, der Nutzung und Publikation von digitalen Reproduktionen und der Integration von digital gestützten Untersuchungsmethoden eine methodische Erweiterung erfährt, wird die Entwicklung digitaler Kommunikations- und Vermittlungsformate bisher eher selten als transdisziplinärer Forschungsauftrag im Museum verstanden. Mit museum4punkt0 wurde 2017 erstmals in Deutschland ein museales Forschungsprojekt initiiert, welches Kulturinstitutionen verschiedener Sparten, Größen und institutionellen Strukturen mit dem Ziel der Entwicklung und Beforschung digitaler Anwendungen in einem Verbund vereint. Zentrales Merkmal des Verbundes ist die Vernetzung und gegenseitige Unterstützung der beteiligten Institutionen bei der Entwicklung und Evaluation von digitalen Vermittlungs- und Kommunikationsangeboten. Untersucht wird, wie neueste digitale Technologien effektiv für die Aufgaben von Museen, insbesondere in der Wissensvermittlung, nutzbar gemacht werden können.
Vortrag "ediarum-Funktionen 'sex' & 'gender'" beim BBAW-internen Workshop "Gender&Data in DH-Projekten" am 21.03.2024 über die neu entwickelten ediarum-Funktionen "biologisches Geschlecht (sex)" und "Geschlechtsidentität (gender)". Beschreibt die Vorüberlegungen und Anforderungen sowie die Umsetzung im Datenmodell und den ediarum-Aktionen. Abschließend Ausblick auf mögliche Weiterentwicklungen.
Das Wörterbuch der ägyptischen Sprache (belegt vom 3. JT. v. Chr. bis 3. JH. n. Chr.), das von 1926-1931 publiziert wurde, baut auf einem großen Belegarchiv mit über 1,2 Millionen Belegzetteln auf. Nur ein kleiner Bruchteil der Belegstellen konnte zwischen 1935 und 1953 publiziert werden. Mit dem Aufbau eines neuen und nunmehr elektronischen Textcorpus kann in dem lexikographischen Nachfolgeprojekt an der BBAW diesem Ansatz folgend ein nun ebenfalls elektronisches und vollständig corpusbasiertes Lexikon geschaffen werden. In dem Corpus sind neben den facettenreichen Gebrauchsweisen von Wörtern auch semantische und lexikalische Strukturen des Wortschatzes neu recherchier- und analysierbar. Die Polysemie von einzelnen Lemmata kann durch selektive Belegszuweisungen aus den vollständig erfassten Quellentexten nachvollziehbar gemacht werden. Daneben können Kollokationsanalysen und andere lexikalisch-statistische Verfahren im Gesamtcorpus das komplexe Zusammenspiel von Wort- und Textstrukturen verdeutlichen. Durch die Publikationsplattform „Thesaurus Linguae Aegyptiae“ stehen das elektronische Wörterbuch und das Corpus der ägyptischen Texte im Internet für komplexe Abfragen zur Verfügung (http://www.bba.de/tla/).
Einführung Textkritik
(2017)
Der Beitrag geht von einer kritischen Bestandaufnahme digitalisierter Lexikografie der Gegenwart aus. Daran anknüpfend sollen pointierte Thesen bzw. Ideen formuliert werden, die auf Erkenntnisse über das Netzwerk europäischer Nachschlagewerke vergangener Jahrhunderte zurückgreifen. Die Thesen werden in zwei Richtungen entfaltet: In eine europäisch-globale Perspektive und in die Perspektive des Wunsches, Nutzerfreundlichkeit und wissenschaftliche Qualität mit einander zu verbinden.
Da einerseits die informelle Partizipation an der Kultur des Internet durch Digital Natives nicht unmittelbar auf das Erlernen komplexer wissenschaftlicher Informations- und Medienkompetenz übertragbar ist, andererseits im geschichtswissenschaftlichen akademischen Unterricht die Komplexität digitaler und/oder virtueller geschichtswissenschaftlicher Ressourcen kaum zu vermitteln ist, müssen Bibliotheken gemeinsam mit den Fachbereichen effiziente Strategien entwerfen, Studierenden geschichtswissenschaftliche Informationskompetenz nachhaltig zu vermitteln, die ein erfolgreiches Studium ermöglichen. Hierfür bietet das Modell der Teaching Library ein flexibel zu handhabendes Instrument. Die traditionelle produktorientierte "Datenbankschulung" wird ersetzt durch den kompetenzorientierten Umgang mit Fachressourcen im geschichtswissenschaftlichen Arbeitsprozess. Zu den traditionellen geschichtswissenschaftlichen Fachbibliographien treten immer komplexere Quellendatenbanken, die schon heute eine ganz neue Qualität quellenbasierten historischen Arbeitens ermöglichen. In diesem Sinne wird die geschichtswissenschaftliche Fachbibliographie der Zukunft im Verständnis eines erweiterten Bibliographiebegriffs eine Scharnierfunktion zwischen unterschiedlichen Quellendatenbanken, Virtuellen Fachbibliotheken, Virtuellen Forschungsumgebungen und Kulturportalen einnehmen.
Im Jahr 2021 lädt die Initiative "Forschungsdatenmanagement" alle Mitarbeitenden der BBAW zu einer Veranstaltungsreihe mit dem Titel "Forschungsdatenmanagement kompakt" ein.
Die Präsentationsfolien der ersten Online-Veranstaltung am 11.02.2021 führen in die Grundlagen und Grundbegriffe des Forschungsdatenmanagements ein und stellen die Ziele der Initiative vor.
Folien zum Kurzvortrag "Gender & Data in correspSearch", der im Rahmen eines Workshops zu Gender & Data am 23.03.2023 an der BBAW gehalten wurden. Der Kurzvortrag gibt einen Überblick darüber, wieviel Briefe von/an Frauen in correspSearch vorhanden sind und wie der Webservice mit Hilfe der Gemeinsamen Normdatei Briefe nach Geschlecht durchsuchbar macht - und mit welchen Limitationen.
Das Großwörterbuch des Ungarischen (GWU) ist grundsätzlich ein Bedeutungswörterbuch, das auch eine historische Dimension hat. Einerseits sind im Wörterbuch auch zahlreiche Stichwörter zu finden, die im Sprachgebrauch der früheren Jahrzehnte der bearbeiteten Periode (von 1772 bis zunächst 2000) wichtig gewesen sind. Andererseits kann die Bedeutungsstruktur vieler auch heute gebrauchter Wörter um Bedeutungen ergänzt werden, die nur aufgrund älterer Textstellen des Corpus erschlossen werden können. Diese Veränderungen im lexikalischen Bestand und in der Wortsemantik weisen natürlich auch auf aussersprachliche Umstände hin, aber auch auf das Verhältnis zwischen Innovation und Entlehnung als Möglichkeiten zur Erweiterung des Wortschatzes. Die lexikologische Markierung, d. h. die Bezeichnung der sprachlichen Verwendungsmöglichkeiten (Stile) und Fachbezogenheit der einzelnen Wörter (Bedeutungen) in einem historisch geprägten Bedeutungswörterbuch ist oft recht problematisch. Dem Lexikographen fehlt nämlich die persönliche Erfahrung des Sprachgebrauches einer früheren Synchronie, so ist er gezwungen, mit einer „zusätzlichen, erweiterten“ Kompetenz diese wichtigen Züge der behandelten Lexeme zu beschreiben. Anführungen zu unterschiedlichen grammatischen Merkmalen der Stichwörter können einem Wörterbuch nicht fehlen. Die Art und der Umfang dieser Verweise können die richtige Einschätzung der Verwendungsmöglichkeiten eines Wortes auch für ältere Perioden ziemlich gut fördern. Darüber hinaus können mit Hilfe der Wörterbuchgrammatik ggf. auch Veränderungen im grammatischen System dargestellt werden.
Graphentechnologien in den Digitalen Geisteswissenschaften. Die RI als Netzwerk von Entitäten
(2017)
Folien des Vortrags „Graphentechnologien in den digitalen Geisteswissenschaften“ von Dr. Andreas Kuczera im Rahmen des DH-Kolloquiums an der BBAW am 1.12.2017. Anhand verschiedener Beispiele aus den Projekten Regesta Imperii und Nomen et Gens zeigt der Vortrag wie Graphentechnologien für geisteswissenschaftliche Fragestellungen verwendet werden könnten.
Der Vortrag gibt zunächst einen Einblick in die Erstellung TEI-XML-basierter Text-Editionen mit einem Fokus auf Handschriften des 19. Jahrhunderts (am Beispiel der Nachschriften zu Humboldts Kosmos-Vorlesungen 1827/28 in Berlin). Anhand dessen wird erläutert, inwiefern sich die Repräsentation historischer Textzeugen im Zuge des Medien- bzw. Paradigmenwechsels von printorientierten Formaten hin zu genuin digitalen Editionsformen verändert. Dies hat zum einen Auswirkungen auf Produktionsseite, d.h. auf die editorische Praxis, vor allem aber – und hierauf wird der Schwerpunkt des Vortrags liegen – auf die Rezeptionsseite: Digitale Edition müssen nicht nur anders konzipiert und produziert, sondern auch anders gelesen werden, will man das Potential der (in der germanistischen Editionsphilologie teilweise immer noch:) ‘neuen’ Medien ausschöpfen. Die Editionspraxis schreitet von der linearen Auszeichnung textoberflächlicher Phänomene bzw. deren an- oder nachgelagerter diskursiver, spezifischer Beschreibung weiter in Richtung standardisierter, formalisierter Annotation, die in die mehrdimensionale, vielschichtige Tiefe des Textzeugen führt.
Folien zu einem Vortrag im Rahmen des Digital-Humanities-Kolloquium an der BBAW am 7.7.2017. Der Vortrag erläutert, ausgehend von editionswissenschaftlichen Entwicklungen der 1980er und 1990er Jahre, wie die "Kopfdaten" eines Briefes nach den Richtlinien der Text Encoding Initiative (TEI) kodiert werden können. Insbesondere wird auf das TEI-Element correspDesc eingegangen und die Kodierung anhand eines Beispiels veranschaulicht. Darüber hinaus wird der Mehrwert von Briefmetadaten sowohl für die digitale Briefedition an sich als auch zu ihrer Vernetzung diskutiert. Dabei wird vor allem auf das Correspondence Metadata Interchange Format (CMIF) und den Webservice correspSearch eingegangen.
Das DFG-Projekt „Personendaten-Repositorium“ baut auf Kooperationen mit nationalen und internationalen Forschungseinrichtungen und Forschungsvorhaben auf: Es werden keine eigenen Inhalte erschlossen, sondern die bereits vorhandenen Datenbestände auf technischer sowie semantischer Ebene miteinander verbunden. Der Kurzvortrag behandelt die möglichen Vernetzungsmodelle und Vorteile für die Forschung und demonstriert diese anhand bereits bestehender Kooperationen.
Love your data!
(2022)
Im Rahmen der Akademievorträge an brandenburgischen Schulen 2021/22 bot die Initiative "Forschungsdatenmanagement" den Schülerinnen und Schülern einen Einblick in die Themen Datenorganisation und -sicherung.
Denn die Menge an digitalen Daten auf dieser Erde wächst täglich. Umso wichtiger ist das Management der eigenen Daten, um den Überblick zu behalten – privat, aber auch im Studium oder Berufsleben. In der Wissenschaftswelt geben die „Leitlinien zur Sicherung guter wissenschaftlicher Praxis“ den sorgsamen Umgang mit den sogenannten „Forschungsdaten“ sogar vor. In den Geistes- und Kulturwissenschaften versteht man unter dem Begriff alle Quellen/Materialien und Ergebnisse, die im Zusammenhang einer Forschungsfrage gesammelt, erzeugt, beschrieben und/oder ausgewertet werden. Wie geht man mit diesen Daten am besten um und welche Tipps und Tricks kann man sich hier für seine private Datenorganisation abschauen? Der Vortrag sensibilisiert für die Relevanz von Datenmanagement und gibt einen datenzentrierten Einblick in (geistes-)wissenschaftliche Forschungsprozesse.
Der Vortrag über den im Titel „Naturwissenschaft und Menschenbild“ umschriebenen Problemkreis, der natur- und kulturwissenschaftliche Aspekte betrifft, bildete den Abschluss des Symposiums über das Thema „Wie entstehen neue Qualitäten in komplexen Systemen“ am 18. Dezember 1998 in Berlin zum 50-jährigen Gründungsjubiläum der Max-Planck-Gesellschaft. Schwerpunkte sind Reichweite und Grenzen naturwissenschaftlicher Erklärung von Bewusstsein, evolutionsbiologische Grundlagen von Kooperativität und Empathie, sowie die kulturellen Verallgemeinerungs- und Gestaltungsmöglichkeiten biologisch angelegter Fähigkeiten, insbesondere was die Aktivierung der fragilen und begrenzten, aber durchaus realen und wichtigen Ressource „Gemeinsinn“ angeht.
In aktuellen Internetwörterbüchern werden die Wörterbuchnutzer mithilfe eines breiten Spektrums an Möglichkeiten in die lexikographische Arbeit einbezogen (z. B. Fehlermeldungen, eigene Einträge) bzw. mithilfe verschiedener Mittel an das Wörterbuch gebunden (z. B. Newsletter, Blogs). Zwischen wirklicher Bottom-up-Lexikographie und Methoden der Nutzerbindung bei kommerziellen Onlinewörterbüchern bewegen sich also die vielfältigen Möglichkeiten des Nutzerfeedbacks, das in vielen Fällen auf den Entstehungsprozess des jeweiligen Wörterbuchs Einfluss nimmt. In diesem Vortrag wird vorgestellt, an welchen Stellen des lexikographischen Prozesses von Internetwörterbüchern sich „die Öffentlichkeit“ einbringen kann und wie sich dieses Feedback auf den Prozess der Erarbeitung solcher Wörterbücher auswirkt. Dabei werden zugleich die verschiedenen Phasen des lexikographischen Prozesses von Internwörterbüchern vorgestellt und die für Wörterbücher in diesem Medium spezifischen Herstellungsbedingungen diskutiert.
Nach Beendigung der Neubearbeitung des Deutschen Wörterbuchs werden die lexikographischen Arbeiten im Rahmen eines digitalen lexikalischen Systems fortgeführt. Welche Perspektiven sich insbesondere für die historische Lexikographie durch die neuen Arbeitsbedingungen eröffnen, ist Thema eines Workshops, den die Arbeitsstelle „Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm - Neubearbeitung” veranstaltet. Die Vorträge beleuchten das Thema unter verschiedenen Aspekten. So soll der spezifische Informationsgehalt von Artikeln in historischen Wörterbüchern illustriert und mit Angaben in gegenwartssprachlichen Wörterbüchern verglichen werden. Darüber hinaus werden Überlegungen zur Erschließung und Nutzung von Quellen sowie zur Erarbeitung und Präsentation lexikographischer Informationen im digitalen Zeitalter vorgestellt. Dazu gehört auch ein Überblick über bereits vorhandene elektronische Redaktionssysteme. Ein Vortrag, in dem es um Desiderata nach dem Ende der DWB-Neubearbeitung gehen soll, beschließt die Veranstaltung.
Vor allem in älteren Wörterbüchern mit philologischer Ausrichtung ist die Mikrostruktur der Artikel häufig diskursiv und unsystematisch. Eine automatisierte Digitalisierung solcher Wörterbücher mit dem Ziel, ihre logische Struktur zu kodieren, ist nicht möglich; in vielen Fällen ist schon ein Parser für ein manuell nachzubearbeitendes Rohdigitalisat kein realistisches Ziel, weil die Angabetypen des Wörterbuchs nicht klar voneinander abgrenzbar und in den Einzelartikeln nicht eindeutig identifizierbar sind. In solchen Fällen wirft auch eine nachträgliche manuelle Formalisierung der Mikrostruktur große lexikografische Probleme auf. Für komplexere Anwendungsszenarien wie etwa Abfragen in Webanwendungen kann es dennoch unumgänglich sein, wenigstens sämtliche relevanten in den Artikeln diskutierten Wortformen mit grundsätzlichen diasystematischen und morphologischen Informationen sowie ihren Relationen zueinander in einem maschinell lesbaren Format strukturiert zu repräsentieren, etwa durch datenzentrierte XML-Dokumente. Der Vortrag versucht, die lexikografischen und technischen Möglichkeiten und Grenzen einer solchen teilweisen und manuellen Retrodigitalisierung am Beispiel von Erfahrungen mit einem älteren Wörterbuch deutscher Lehnwörter im Slovenischen (Striedter-Temps 1963) auszuloten. Das Wörterbuch soll in ein Portal von Lehnwörterbüchern mit Deutsch als gemeinsamer Gebersprache eingebunden werden. Die Einzelartikel werden dem Benutzer als Bilddigitalisate zur Verfügung gestellt; die zusätzliche textuelle Retrodigitalisierung ist jedoch für komplexere, insbesondere auch für wörterbuchübergreifende und portalweite, Suchabfragen erforderlich.
Der Vortrag bietet eine Rückschau auf die Jahreskonferenz der Digital Humanities im deutschsprachigen Raum zu dem Thema "Kritik der digitalen Vernunft", die von 26.2. bis 2.3.2018 in Köln stattfand. Zunächst wird ein Überblick zu den Konferenzbeiträgen der Mitarbeiterinnen und Mitarbeiter der BBAW gegeben. Die Bandbreite der Beiträge aus dem Haus umfasst sowohl praxisorientierte Vorträge, in denen die Entwicklung digitaler Editionen und Korpora thematisiert wird, als auch theoretische Reflexionen. Im Anschluss formulieren die Vortragenden die wesentlichen Beobachtungen und Eindrücke zur Frage, wo die verschiedenen Bereiche der Digital Humanities (z. B. digitale Editionen, quantitative Textanalyse, Softwareentwicklung) im Moment stehen und welche Tendenzen sich für die nahe Zukunft abzeichnen.
Darstellung eines Besuchs bei einer uzebkisch-italienischen archäologischen Mission in Samarkand (Uzbekistan) sowie einer Reise nach Tadschikistan mit Bezug auf die Archäologie der Sogdiana, der Erforschung des Sogdischen und des Yaghnobi. Folgende archäologischen Stätte wurden besichtigt: Kafir Kala, Sarazm, Panjikand, Mug, Afrasiab, Jar-tepe und Urgut. Dabei ergab sich die Möglichkeit, die Arbeit dreier jungen itaienischen Archäologen zu verfolgen: F. Franceschini (Nomadengräber in Sazagan), Simone Mantellini (Ausgrabung in Kafir Kala, Vermessungen in Mug) und Bernardo Rondelli (Kartographierung des mittleren Zarafschan-Tals). Diese Arbeiten werfen einige Fragen an das iranische Textmaterial (awestisch und sogdisch) bezüglich Wassermanagement usw. auf. In Tadschikistan ergab sich auch die Kontaktaufnahme mit Dr. S. Mirzoev, der an der tadschikischen Akademie das Yaghnobi, eine noch lebende dem Sogdischen sehr nahstehende Sprache, betreut und ein Wörterbuch vorgelegt hat. Die Möglichkeit von Neufunden sogdischen Textmaterials in der von den Uzbeken und Italienern betriebenen Ausgrabung in Kafir Kala wird erörtert und eine Sigel aus Kafir Kala als die des 'Herrschers von Revdad' neuinterpretiert.
Die deutschen Geschichtsbibliographien stehen aktuell vor einigen Herausforderungen: Sie sind von einer großen Heterogenität hinsichtlich ihrer Sammelprofile geprägt, kaum mit dem Bibliothekswesen vernetzt und müssen sich gegenüber anderen Recherchemitteln behaupten. Die Erkenntnis, dass dieser Situation gemeinsam besser begegnet werden kann, hat die beiden großen deutschen Bibliographien der Geschichtswissenschaft, die Historische Bibliographie und die Jahresberichte für Deutsche Geschichte, dazu bewogen, sich mit einer epochalen Spezialbibliographie, der Bibliographie zur Zeitgeschichte, und der Bayerischen Staatsbibliothek als Sondersammelgebietsbibliothek für Geschichte zusammenzutun. In einem gemeinsamen DFG-Projekt werden derzeit die organisatorischen und konzeptionellen Grundsteine für eine künftig engere Zusammenarbeit sowie eine noch zu schaffende "Deutsche Historische Bibliographie" gelegt. Während der ersten zwei Projektjahre konnten sich die Partner bereits darauf einigen, gemeinsam in einem Bibliotheksverbund zu katalogisieren und arbeitsteilig Zeitschriften auszuwerten, außerdem wurde eine gemeinsame Fachsystematik konzipiert, die einzelnen Bibliographien wurden an verschiedenen Stellen optimiert und ihre Datenbestände mit Suchmaschinentechnologie indiziert und in Fachportale eingebunden. In der zweiten Projektphase sollen diese Arbeiten fortgeführt und die Etablierung einer "Deutschen Historischen Bibliographie" vorbereitet werden. Es ist dabei das Ziel, ein so funktionales wie benutzerfreundliches Serviceangebot der historisch-bibliographischen Fachinformation zu schaffen. In der Präsentation wird ein breites, den state-of-the-art moderner Informationstechnologien berücksichtigendes Feature-Spektrum vorgestellt, das einer "geschichtswissenschaftlichen Fachbibliographie der Zukunft" gerecht werden soll. In welchem Umfang dies tatsächlich realisiert werden kann, wird jedoch noch intensiv zu prüfen sein.
Die Bedeutungsbeschreibung wird auch in künftigen historischen Wörterbüchern eine wesentliche Rolle spielen. Daher ist zu überlegen, welche Standards aus der Ära des Printwörterbuchs zu übernehmen sind und wie die neuen Möglichkeiten, die das elektronische Medium bietet, am besten genutzt werden können. Es wird dafür plädiert, dass online-Bedeutungswörterbücher stärker durch interne Informationsvernetzungen strukturiert sein sollten, als gegenwärtig üblich ist, da nur so das Potential der digitalen Lexikographie optimal ausgeschöpft werden kann. Dazu wird ein System von semantischen Annotierungen skizziert, welche die Artikel eines Wörterbuchs und besonders auch einzelne Lesarten miteinander verknüpfen und auf diese Weise eine Beschreibung des Wortschatzes als strukturiertes Gebilde ermöglichen. Weiterhin wird nach dem Verhältnis der Bedeutungsbeschreibung zu Korpusdaten sowie anderen lexikographischen Informationstypen gefragt. In diesem Zusammenhang wird die These aufgestellt, dass die lexikographische Bedeutungsbeschreibung der Zukunft nicht, wie in aktuellen online-Angeboten gelegentlich der Fall, als ein Modul unter vielen erscheinen, sondern vielmehr ihre zentrale Position innerhalb des lexikographischen Informationsangebots behalten sollte.
TELOTA: Woher, Wohin?
(2022)
Während die Netzwerkanalyse in den Sozialwissenschaften seit den Arbeiten Jacob Levy Morenos zu Anfang des 20. Jh.s fester Bestandteil des methodischen Repertoires ist, hat sie sich im Laufe der letzten 10 Jahren auch in anderen Wissenschaftszweigen, darunter auch Archäologie und Geschichtswissenschaften, als Methodik etabliert. Doch was beinhaltet die Analyse von Netzwerken jenseits einer rein metaphorischen Nutzung des Begriffes nun genau? Für welche Fragestellungen ist diese Methodik geeignet, und wo liegen die Grenzen der Anwendung? Wie lässt sich die Entwicklung und rege Anwendung in Fachdisziplinen wie Soziologie und Politologie mit der Erforschung (prä-)historischer Gesellschaften vereinbaren? Anhand verschiedener Beispiele aus Archäologie und Geschichte werden diese und weitere Fragen diskutiert und eine Einführung in den derzeitigen Stand der archäologisch-historischen Netzwerkforschung gegeben.
Die Benutzung von Onlinewörterbüchern ist bislang wenig erforscht. Am Institut für Deutsche Sprache in Mannheim wurde versucht, diese Forschungslücke mit einem Projekt zur Benutzungsforschung zumindest zum Teil schließen (s. www.benutzungsforschung.de). Die empirischen Studien wurden methodisch sowohl in Form von Onlinefragebögen, die neben befragenden auch experimentelle Elemente enthielten, als auch anhand eines Labortests (mit Eyetracking-Verfahren) durchgeführt. Die erste Studie untersuchte generell die Anlässe und sozialen Situationen der Verwendung von Onlinewörterbüchern sowie die Ansprüche, die Nutzer an Onlinewörterbücher stellen. An der zweisprachigen Onlinestudie (deutsch/englisch) nahmen international fast 700 Probanden teil. Durch die hohe Resonanz auf die erste Studie und den daraus folgenden Wunsch, die gewonnenen Informationen empirisch zu vertiefen, richtet sich auch die die zweite Studie an ein internationales Publikum und schloss inhaltlich an die erste Studie an. Später konzentrierten sich die Studien auf monolinguale deutsche Onlinewörterbücher wie elexiko (Studien 3 und 4), sowie auf das Wörterbuchportal OWID (Studie 5). Im Vortrag werden ausgewählte Ergebnisse der verschiedenen Studien vorgestellt.