Lecture
Refine
Year of publication
Document Type
- Lecture (74) (remove)
Language
- German (58)
- English (10)
- Spanish (5)
- Multiple languages (1)
Keywords
- Digital Humanities (15)
- Computerunterstützte Lexikographie (9)
- Edition (9)
- Historische Lexikographie (9)
- historical lexicography (9)
- Digitalisierung (8)
- Information und Dokumentation (8)
- Bibliographie (6)
- Deutschland (6)
- Edición digital académica (5)
Has Fulltext
- yes (74)
Institute
- TELOTA - IT/Digital Humanities (24)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (17)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Drittmittelprojekt Proyecto Humboldt Digital (7)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Drittmittelprojekt CLARIN-D (3)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Drittmittelprojekt OCR-D (2)
- Zentrum Sprache (2)
Der Vortrag über den im Titel „Naturwissenschaft und Menschenbild“ umschriebenen Problemkreis, der natur- und kulturwissenschaftliche Aspekte betrifft, bildete den Abschluss des Symposiums über das Thema „Wie entstehen neue Qualitäten in komplexen Systemen“ am 18. Dezember 1998 in Berlin zum 50-jährigen Gründungsjubiläum der Max-Planck-Gesellschaft. Schwerpunkte sind Reichweite und Grenzen naturwissenschaftlicher Erklärung von Bewusstsein, evolutionsbiologische Grundlagen von Kooperativität und Empathie, sowie die kulturellen Verallgemeinerungs- und Gestaltungsmöglichkeiten biologisch angelegter Fähigkeiten, insbesondere was die Aktivierung der fragilen und begrenzten, aber durchaus realen und wichtigen Ressource „Gemeinsinn“ angeht.
Darstellung eines Besuchs bei einer uzebkisch-italienischen archäologischen Mission in Samarkand (Uzbekistan) sowie einer Reise nach Tadschikistan mit Bezug auf die Archäologie der Sogdiana, der Erforschung des Sogdischen und des Yaghnobi. Folgende archäologischen Stätte wurden besichtigt: Kafir Kala, Sarazm, Panjikand, Mug, Afrasiab, Jar-tepe und Urgut. Dabei ergab sich die Möglichkeit, die Arbeit dreier jungen itaienischen Archäologen zu verfolgen: F. Franceschini (Nomadengräber in Sazagan), Simone Mantellini (Ausgrabung in Kafir Kala, Vermessungen in Mug) und Bernardo Rondelli (Kartographierung des mittleren Zarafschan-Tals). Diese Arbeiten werfen einige Fragen an das iranische Textmaterial (awestisch und sogdisch) bezüglich Wassermanagement usw. auf. In Tadschikistan ergab sich auch die Kontaktaufnahme mit Dr. S. Mirzoev, der an der tadschikischen Akademie das Yaghnobi, eine noch lebende dem Sogdischen sehr nahstehende Sprache, betreut und ein Wörterbuch vorgelegt hat. Die Möglichkeit von Neufunden sogdischen Textmaterials in der von den Uzbeken und Italienern betriebenen Ausgrabung in Kafir Kala wird erörtert und eine Sigel aus Kafir Kala als die des 'Herrschers von Revdad' neuinterpretiert.
Der Beitrag informiert über Kollationsverfahren und Formen der Textpräsentation, die im Rahmen des Parzival-Projekts praktiziert und erprobt werden. Der 'Parzival'-Roman Wolframs von Eschenbach gerät dabei von seiner Überlieferung her in den Blick: Zur Darstellung gelangen handschriftliche Erscheinungsweisen und die Varianten einzelner Textfassungen. Durch die Nutzung von Datenbanken können dynamische Präsentationsformen erzeugt werden, in denen die Betrachter selbständig eine Synopse von Textzeugen bzw. Fassungen zusammenstellen. Die konzeptionellen und technischen Grundlagen dieses Verfahrens werden im Rahmen des Beitrags erläutert. Die angegebene URL führt zur Testedition.
Das Personendaten-Repositorium sammelt und bereitet biographische Daten auf, die in verschiedenen Forschungsvorhaben und unter unterschiedlichen wissenschaftlichen Perspektiven entstanden sind. Die Schwierigkeiten, die sich bei einem solchen Projekt für die Strukturierung und Organisation der Daten ergeben, rühren nicht nur daher, dass sie aus unterschiedlichen Kontexten stammen. Vielmehr werden an Hand der Quellen-Diversität grundsätzliche Probleme biographischen Arbeitens, in deren Zusammenhang die Personendaten stehen, deutlich, denen eine solche Infrastruktur Rechnung tragen muss.
Um die Möglichkeiten und Risiken, die sich durch virtuelle Forschungsplattformen ergeben, besser einschätzen zu können, erscheint es sinnvoll, ihre Stellung in Zusammenhang mit der gesamten virtuellen Infrastruktur in der Forschungs- und Wissenschaftslandschaft zu denken. Hierbei wird deutlich, dass ihre Aufgabe nicht so sehr darin bestehen kann, neue Funktionalitäten zu erfinden oder neue Ressourcen verfügbar zu machen, sondern eher darin gesehen werden muss, bestehende Anwendungen und Quellsysteme auf eine Art zu organisieren, bei der sich der Mehrwert für den Benutzer durch die Integration und das In-Beziehung-Setzen derselben ergibt. Dies gilt insbesondere für die Organisation von Wissen. Erfolgreich haben Initiativen wie Open Access auf der politischen und DINI (Deutsche Initiative für Netzwerkinformation) auf der technischen Seite dazu beigetragen, dass die Ergebnisse von Forschung zunehmend in digitaler Form vorliegen und zumeist innerhalb von Repositorien, deren Zahl - wie z.B. auf OpenDOAR zu sehen - unaufhaltsam wächst, verfügbar sind. Eine Herausforderung stellt daher immer mehr die Integration und Nutzbarmachung von Wissen dar. Als Ergebniseintrag 21 im Repositorium eines Universitäts-Instituts ist der Titel eines Aufsatzes eine isolierte Information. In Beziehung gesetzt zu anderen Ressourcen und statistisch und semantisch kontextualisiert in Verbindung mit anderen Systemen wird er zu anschlussfähigem Wissen. Unter Anderem für diese Aufgabe soll mit dem Wissensspeicher der BBAW, der zur Zeit entwickelt wird, eine Lösung gefunden werden. Er versteht sich als eine Plattform, in der die Vielgestaltigkeit der Akademie, die sich durch ihre vielfältigen Forschungsvorhaben ergibt und die sich in verschiedenen Interessenszusammenhängen, Ressourcen und Ressourcensystemen ausdrückt, integriert wird, und die sich ihrerseits wiederum die Aufgabe setzt, sich in bestehende Services einzubringen und diese in dem durch die Plattform neu geschaffenen Kontext zu nutzen. Eine virtuelle Forschungsplattform kann daher auch als Ort angesehen werden, an dem sich inhaltliche, technische und strukturelle Heterogenität sowohl intern als auch extern harmonisieren und zusammenführen lässt und damit einen fruchtbaren Umgang mit Wissen in der digitalen Welt überhaupt erst möglich macht.
Das DFG-Projekt „Personendaten-Repositorium“ baut auf Kooperationen mit nationalen und internationalen Forschungseinrichtungen und Forschungsvorhaben auf: Es werden keine eigenen Inhalte erschlossen, sondern die bereits vorhandenen Datenbestände auf technischer sowie semantischer Ebene miteinander verbunden. Der Kurzvortrag behandelt die möglichen Vernetzungsmodelle und Vorteile für die Forschung und demonstriert diese anhand bereits bestehender Kooperationen.
Nach Beendigung der Neubearbeitung des Deutschen Wörterbuchs werden die lexikographischen Arbeiten im Rahmen eines digitalen lexikalischen Systems fortgeführt. Welche Perspektiven sich insbesondere für die historische Lexikographie durch die neuen Arbeitsbedingungen eröffnen, ist Thema eines Workshops, den die Arbeitsstelle „Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm - Neubearbeitung” veranstaltet. Die Vorträge beleuchten das Thema unter verschiedenen Aspekten. So soll der spezifische Informationsgehalt von Artikeln in historischen Wörterbüchern illustriert und mit Angaben in gegenwartssprachlichen Wörterbüchern verglichen werden. Darüber hinaus werden Überlegungen zur Erschließung und Nutzung von Quellen sowie zur Erarbeitung und Präsentation lexikographischer Informationen im digitalen Zeitalter vorgestellt. Dazu gehört auch ein Überblick über bereits vorhandene elektronische Redaktionssysteme. Ein Vortrag, in dem es um Desiderata nach dem Ende der DWB-Neubearbeitung gehen soll, beschließt die Veranstaltung.
Überlappungen zwischen Grammatik und Wörterbuch sind kaum vermeidbar und gelten im Allgemeinen auch als wünschenswert und für den Nutzer als praktisch sinnvoll. Wörterbücher enthalten in der Regel grammatische Zusatzinformationen (z.B. zur Wortart und Flexion) in unterschiedlichem Umfang und auch in unterschiedlicher Darstellungsweise bzw. unter Verwendung unterschiedlicher Terminologien. Digitale Wörterbücher müssen hier im Gegensatz zu ‚klassischen‘ gedruckten Werken nicht auf kondensierte und mit Abkürzungen verknappte Informationen setzen, sondern können im Prinzip zu jedem Lemma eine umfassende Darstellung bieten. Es soll anhand von Beispielen der Frage nachgegangen werden, wie existierende digitale Wörterbücher mit der Integration grammatischer Informationen verfahren und welche Darstellungsmöglichkeiten sie dabei nutzen. Zudem wird gefragt, wie diese Inhalte für verschiedene Nutzertypen innerhalb eines Online-Wörterbuches dargeboten werden könnten.
Der Beitrag geht von einer kritischen Bestandaufnahme digitalisierter Lexikografie der Gegenwart aus. Daran anknüpfend sollen pointierte Thesen bzw. Ideen formuliert werden, die auf Erkenntnisse über das Netzwerk europäischer Nachschlagewerke vergangener Jahrhunderte zurückgreifen. Die Thesen werden in zwei Richtungen entfaltet: In eine europäisch-globale Perspektive und in die Perspektive des Wunsches, Nutzerfreundlichkeit und wissenschaftliche Qualität mit einander zu verbinden.
The FEW is a huge dictionary when we consider the sheer mass of data (25 volumes, 16000 pages) and its exhaustive aims. It has indeed the purpose of registering and etymologizing the whole lexicon, not only of French, but also of earlier stages of the language and of Occitan; of every Gallo-romance dialect; of every technical or professional genre; of every language register, including slang. Summing up, the FEW aims to include and describe every single lexical unit which exists or has existed in the territory of ancient Gaul. The sheer size of this undertaking means two things, which directly influence the digitalisation of the dictionary: Firstly, there is a a huge amount of data; secondly, the presentation and organization of the data is exceedingly complex. The reasons for digitalising the FEW are the easy searches for units, and the carrying out of searches using criteria that are not possible to use with the printed version. However, the fulfillment of these purposes includes some risks, and potentially the cutting of some corners, especially the temptation of renouncing reading.
Das Wörterbuch der ägyptischen Sprache (belegt vom 3. JT. v. Chr. bis 3. JH. n. Chr.), das von 1926-1931 publiziert wurde, baut auf einem großen Belegarchiv mit über 1,2 Millionen Belegzetteln auf. Nur ein kleiner Bruchteil der Belegstellen konnte zwischen 1935 und 1953 publiziert werden. Mit dem Aufbau eines neuen und nunmehr elektronischen Textcorpus kann in dem lexikographischen Nachfolgeprojekt an der BBAW diesem Ansatz folgend ein nun ebenfalls elektronisches und vollständig corpusbasiertes Lexikon geschaffen werden. In dem Corpus sind neben den facettenreichen Gebrauchsweisen von Wörtern auch semantische und lexikalische Strukturen des Wortschatzes neu recherchier- und analysierbar. Die Polysemie von einzelnen Lemmata kann durch selektive Belegszuweisungen aus den vollständig erfassten Quellentexten nachvollziehbar gemacht werden. Daneben können Kollokationsanalysen und andere lexikalisch-statistische Verfahren im Gesamtcorpus das komplexe Zusammenspiel von Wort- und Textstrukturen verdeutlichen. Durch die Publikationsplattform „Thesaurus Linguae Aegyptiae“ stehen das elektronische Wörterbuch und das Corpus der ägyptischen Texte im Internet für komplexe Abfragen zur Verfügung (http://www.bba.de/tla/).
Das Schweizerische Idiotikon dokumentiert die deutsche Sprache in der Schweiz vom Jahr 1300 bis heute. Es ist mit bisher 16 Bänden (Wortstrecke A – W) das grösste Regionalwörterbuch des Deutschen. An ihm wird seit genau 150 Jahren kontinuierlich gearbeitet, in ca. 12 Jahren soll der 17. und letzte Band abgeschlossen sein. Zur einfacheren Benutzung und zur grösseren Verbreitung des gedruckten Werkes sowohl in der wissenschaftlichen Gemeinschaft wie auch in der interessierten weiteren Öffentlichkeit wurde vor 3 Jahren mit der Digitalisierung begonnen. Die komplexe Mikrostruktur der Wörterbuchartikel sowie die beschränkten personellen Ressourcen, die in erster Linie für die Weiterarbeit am letzten Band eingesetzt werden müssen, liess eine Volltextdigitalisierung mit ausgebautem TEI-Tagging als zu langwierig und zu ambitiös erscheinen. Daher wurde die Digitalisierung schrittweise angegangen, indem zuerst die Zugriffstrukturen über mit vielen Schreib- und Aussprachevarianten versehene digitale Register ausgebaut wurden. In einem zweiten Schritt wurden die Register mit den digitalisierten Abbildern der gedruckten Buchseiten verbunden, und in einem dritten, gegenwärtig realisierten Schritt wird die Suche über einen mittels OCR erstellten Volltext implementiert.
Das Großwörterbuch des Ungarischen (GWU) ist grundsätzlich ein Bedeutungswörterbuch, das auch eine historische Dimension hat. Einerseits sind im Wörterbuch auch zahlreiche Stichwörter zu finden, die im Sprachgebrauch der früheren Jahrzehnte der bearbeiteten Periode (von 1772 bis zunächst 2000) wichtig gewesen sind. Andererseits kann die Bedeutungsstruktur vieler auch heute gebrauchter Wörter um Bedeutungen ergänzt werden, die nur aufgrund älterer Textstellen des Corpus erschlossen werden können. Diese Veränderungen im lexikalischen Bestand und in der Wortsemantik weisen natürlich auch auf aussersprachliche Umstände hin, aber auch auf das Verhältnis zwischen Innovation und Entlehnung als Möglichkeiten zur Erweiterung des Wortschatzes. Die lexikologische Markierung, d. h. die Bezeichnung der sprachlichen Verwendungsmöglichkeiten (Stile) und Fachbezogenheit der einzelnen Wörter (Bedeutungen) in einem historisch geprägten Bedeutungswörterbuch ist oft recht problematisch. Dem Lexikographen fehlt nämlich die persönliche Erfahrung des Sprachgebrauches einer früheren Synchronie, so ist er gezwungen, mit einer „zusätzlichen, erweiterten“ Kompetenz diese wichtigen Züge der behandelten Lexeme zu beschreiben. Anführungen zu unterschiedlichen grammatischen Merkmalen der Stichwörter können einem Wörterbuch nicht fehlen. Die Art und der Umfang dieser Verweise können die richtige Einschätzung der Verwendungsmöglichkeiten eines Wortes auch für ältere Perioden ziemlich gut fördern. Darüber hinaus können mit Hilfe der Wörterbuchgrammatik ggf. auch Veränderungen im grammatischen System dargestellt werden.
Vor allem in älteren Wörterbüchern mit philologischer Ausrichtung ist die Mikrostruktur der Artikel häufig diskursiv und unsystematisch. Eine automatisierte Digitalisierung solcher Wörterbücher mit dem Ziel, ihre logische Struktur zu kodieren, ist nicht möglich; in vielen Fällen ist schon ein Parser für ein manuell nachzubearbeitendes Rohdigitalisat kein realistisches Ziel, weil die Angabetypen des Wörterbuchs nicht klar voneinander abgrenzbar und in den Einzelartikeln nicht eindeutig identifizierbar sind. In solchen Fällen wirft auch eine nachträgliche manuelle Formalisierung der Mikrostruktur große lexikografische Probleme auf. Für komplexere Anwendungsszenarien wie etwa Abfragen in Webanwendungen kann es dennoch unumgänglich sein, wenigstens sämtliche relevanten in den Artikeln diskutierten Wortformen mit grundsätzlichen diasystematischen und morphologischen Informationen sowie ihren Relationen zueinander in einem maschinell lesbaren Format strukturiert zu repräsentieren, etwa durch datenzentrierte XML-Dokumente. Der Vortrag versucht, die lexikografischen und technischen Möglichkeiten und Grenzen einer solchen teilweisen und manuellen Retrodigitalisierung am Beispiel von Erfahrungen mit einem älteren Wörterbuch deutscher Lehnwörter im Slovenischen (Striedter-Temps 1963) auszuloten. Das Wörterbuch soll in ein Portal von Lehnwörterbüchern mit Deutsch als gemeinsamer Gebersprache eingebunden werden. Die Einzelartikel werden dem Benutzer als Bilddigitalisate zur Verfügung gestellt; die zusätzliche textuelle Retrodigitalisierung ist jedoch für komplexere, insbesondere auch für wörterbuchübergreifende und portalweite, Suchabfragen erforderlich.
The Swedish Academy Dictionary (SAOB) is one of the big national dictionary projects started in the 19th century. SAOB is still in production – there are another two volumes out of 38 to printed before 2018. The structure inside the volumes is (of course) varied/varying. There are ten chief editors and five generations of editors involved in the project. In the 1980s the SAOB was OCR-scanned. The result was used for a webversion in the internet from 1997. The webversion is very frequently used but has a lot of shortcomings due to, among other things, a great typographic complexity and a scanning technology of the time. Now the editorial board is discussing the future: redigitalization (in China), updating of the webversion with new search tools, updating of the dictionary itself and some form of editing tool.
Norsk Ordbok is a 12 volume academic dictionary covering Norwegian Nynorsk literature and all Norwegian dialects from 1600 to the present. The dictionary is to be completed in 2014, the year of the bicentenary of the Norwegian constitution. The collection of data started in 1930 and the editing of the dictionary started in 1946. In the 1990s the Norwegian language collections were digitized, and from 2002 onwards Norsk Ordbok has been edited on a digital platform which communicates with a system of relational databases for manuscript storage. These databases include digitized slip archives, a draft manuscript from 1940, glossaries from the period between 1600 and 1850, canonical dictionaries from the period 1870-1910, bibliography, local dictionaries, text corpus (90 mill. words) etc. The source material is linked together in a Meta dictionary (MD). The MD is an electronic index with headwords in standard spelling, and it represents the hub of the language collections, where the source material from the databases is linked to headword nodes. This MD in turn communicates with the editing system and the dictionary database. The electronic linking up of the source material with the dictionary entries secures that the interpretation of data and product of scientific research can be reproducible in a very easy way. This is important to a scholarly dictionary. Further, the MD index system enables us to set a relative dimension for each dictionary entry and to make a master plan for setting alphabet dimensions for the whole dictionary. This is important to all modern dictionary projects with limited resources. The digitized source material, the digital editing platform and the digital dictionary product also point forward to new ways of presenting the data, and they point forward to future lexicographical research. The paper will present the digital resources of the Norsk Ordbok 2014 project, developed in close cooperation with the scientific programmers at the Unit of Digital Documentation at the University of Oslo. It will focus on the Norsk Ordbok 2014 experience with working on a fully digitized editing platform for the last 10 years, and it will also comment briefly on how the developed tools and resources point forward into Norwegian lexicography in the future.
In the last decade, interaction between scholarly lexicography and the public has grown enormously. While in the old days, the lexicographer and in particular, the scholarly lexicographer, had a tendency to describe the lexicon from an ivory tower, in a way that was for the general public rather unaccessible, a change has been evident for some time now. Interaction with the general public is now more and more appreciated and is even being stimulated within the lexicographic community. This holds too for the Algemeen Nederlands Woordenboek (ANW), a project of the Institute for Dutch Lexicology in Leiden. The ANW is an online scholarly dictionary of contemporary Dutch. In its periodization it is the successor of the Woordenboek der Nederlandsche Taal (WNT), which was completed in 2001 and covers the vocabulary of the Netherlands and Flanders up to around 1976. The editorial staff of the ANW would like to create a dictionary that is suitable for different audiences, ranging from language professionals and other academics to pupils, students and language enthusiasts in general. Consequently, interaction with the public is very important to the ANW editorial staff. It is realised in various ways. First, each dictionary article offers users the option to give feedback. Second, the editorial staff uses questions and comments gathered on internet forums, such as Meldpunt Taal (launched in June 2010) and Neo-term. The ANW staff also approaches the public directly through Twitter, with items such as ‘neologism of the week’, facts about spelling and answers to questions about language that have been received. A relatively new initiative is to call upon the public in the search for information for the dictionary, such as synonyms, pictures and the earliest use of words. Language games and word polls are other ways to increase the interest and involvement of the general public in the ANW.
Wie jedes Wörterbuch steht auch die Neubearbeitung des Grimm vor der Schwierigkeit dem Lexikonparameter der Akkuratheit der Information Genüge zu tun und gleichzeitig die Informationsdarstellung und Textorganisation aus ökonomischen Gründen so knapp wie möglich zu halten. Die sich daraus ergebenden Darstellungs- und Ausdrucksformen (unterschiedliche Schrifttypen und Schriftneigungen, Kapitälchen, Abkürzungen, runde, eckige oder spitze Klammern, Absätze, Gliederungsmarken und vieles andere mehr) helfen, die Artikelkonstituenten zu definieren und Informationstypen zu unterscheiden. Aus persönlicher Erfahrung weiß ich, daß selbst erfahrene Nutzer des Deutschen Wörterbuchs nicht alle angebotenen Informationen erkennen oder die verschiedenen Ausdrucksformen richtig zu deuten wissen. An ausgewählten Beispielen aus der Neubearbeitung soll das z. T. diffizile und komplexe System der Darstellungs- und Ausdrucksformen, das auch als Reaktion auf den etwas sorglosen Umgang der Brüder Grimm in den ersten Bänden der Erstauflage entstanden ist, vorgestellt werden, das sich zwar um äußerste Genauigkeit bemüht, für den Nutzer aber auch manchmal schwer zu durchschauen ist. Der Ausblick auf die Möglichkeiten, die ein elektronisch-lexikographisches System in dieser Hinsicht bieten könnte, schließt den Vortrag ab.