400 Sprache
Refine
Year of publication
Document Type
- Part of a Book (25)
- Lecture (16)
- Article (6)
- Conference Proceeding (4)
- Working Paper (3)
- Preprint (2)
- Review (1)
Language
- German (34)
- English (22)
- Multiple languages (1)
Keywords
Has Fulltext
- yes (57)
Institute
- Berlin-Brandenburgische Akademie der Wissenschaften (25)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (15)
- Interdisziplinäre Arbeitsgruppe Die Herausforderung durch das Fremde (12)
- Akademienvorhaben Strukturen und Transformationen des Wortschatzes der ägyptischen Sprache. Text- und Wissenskultur im alten Ägypten (3)
- Akademienvorhaben Turfanforschung (3)
- Veröffentlichungen von Akademiemitarbeitern (3)
- Akademienvorhaben Schleiermacher in Berlin 1808-1834, Briefwechsel, Tageskalender, Vorlesungen (2)
- Veröffentlichungen der Vorgängerakademien (2)
- Akademienvorhaben Alexander von Humboldt auf Reisen - Wissenschaft aus der Bewegung (1)
- Akademienvorhaben Digitales Wörterbuch der Deutschen Sprache (1)
Das Wörterbuch der ägyptischen Sprache (belegt vom 3. JT. v. Chr. bis 3. JH. n. Chr.), das von 1926-1931 publiziert wurde, baut auf einem großen Belegarchiv mit über 1,2 Millionen Belegzetteln auf. Nur ein kleiner Bruchteil der Belegstellen konnte zwischen 1935 und 1953 publiziert werden. Mit dem Aufbau eines neuen und nunmehr elektronischen Textcorpus kann in dem lexikographischen Nachfolgeprojekt an der BBAW diesem Ansatz folgend ein nun ebenfalls elektronisches und vollständig corpusbasiertes Lexikon geschaffen werden. In dem Corpus sind neben den facettenreichen Gebrauchsweisen von Wörtern auch semantische und lexikalische Strukturen des Wortschatzes neu recherchier- und analysierbar. Die Polysemie von einzelnen Lemmata kann durch selektive Belegszuweisungen aus den vollständig erfassten Quellentexten nachvollziehbar gemacht werden. Daneben können Kollokationsanalysen und andere lexikalisch-statistische Verfahren im Gesamtcorpus das komplexe Zusammenspiel von Wort- und Textstrukturen verdeutlichen. Durch die Publikationsplattform „Thesaurus Linguae Aegyptiae“ stehen das elektronische Wörterbuch und das Corpus der ägyptischen Texte im Internet für komplexe Abfragen zur Verfügung (http://www.bba.de/tla/).
Überlappungen zwischen Grammatik und Wörterbuch sind kaum vermeidbar und gelten im Allgemeinen auch als wünschenswert und für den Nutzer als praktisch sinnvoll. Wörterbücher enthalten in der Regel grammatische Zusatzinformationen (z.B. zur Wortart und Flexion) in unterschiedlichem Umfang und auch in unterschiedlicher Darstellungsweise bzw. unter Verwendung unterschiedlicher Terminologien. Digitale Wörterbücher müssen hier im Gegensatz zu ‚klassischen‘ gedruckten Werken nicht auf kondensierte und mit Abkürzungen verknappte Informationen setzen, sondern können im Prinzip zu jedem Lemma eine umfassende Darstellung bieten. Es soll anhand von Beispielen der Frage nachgegangen werden, wie existierende digitale Wörterbücher mit der Integration grammatischer Informationen verfahren und welche Darstellungsmöglichkeiten sie dabei nutzen. Zudem wird gefragt, wie diese Inhalte für verschiedene Nutzertypen innerhalb eines Online-Wörterbuches dargeboten werden könnten.
Der Beitrag geht von einer kritischen Bestandaufnahme digitalisierter Lexikografie der Gegenwart aus. Daran anknüpfend sollen pointierte Thesen bzw. Ideen formuliert werden, die auf Erkenntnisse über das Netzwerk europäischer Nachschlagewerke vergangener Jahrhunderte zurückgreifen. Die Thesen werden in zwei Richtungen entfaltet: In eine europäisch-globale Perspektive und in die Perspektive des Wunsches, Nutzerfreundlichkeit und wissenschaftliche Qualität mit einander zu verbinden.
Among mass digitization methods, double-keying is considered to be the one with the lowest error rate. This method requires two independent transcriptions of a text by two different operators. It is particularly well suited to historical texts, which often exhibit deficiencies like poor master copies or other difficulties such as spelling variation or complex text structures. Providers of data entry services using the double-keying method generally advertise very high accuracy rates (around 99.95% to 99.98%). These advertised percentages are generally estimated on the basis of small samples, and little if anything is said about either the actual amount of text or the text genres which have been proofread, about error types, proofreaders, etc. In order to obtain significant data on this problem it is necessary to analyze a large amount of text representing a balanced sample of different text types, to distinguish the structural XML/TEI level from the typographical level, and to differentiate between various types of errors which may originate from different sources and may not be equally severe. This paper presents an extensive and complex approach to the analysis and correction of double-keying errors which has been applied by the DFG-funded project “Deutsches Textarchiv” (German Text Archive, hereafter DTA) in order to evaluate and preferably to increase the transcription and annotation accuracy of double-keyed DTA texts. Statistical analyses of the results gained from proofreading a large quantity of text are presented, which verify the common accuracy rates for the double-keying method.
Numerous high-quality primary text sources—in the context of the curation project described here, this means full-text transcriptions (and corresponding image scans) of German works originating from the 15th to the 19th centuries—are scattered among the web or stored remotely. E.g., transcriptions of historical sources are stored locally on degrading recording media and cannot be found, let alone accessed by third parties. Additionally, idiosyncratic, project-specific markup conventions and uncommon, out-of-date or inflexible storage formats often hinder further usage and analysis of the data. Often, textual resources are accompanied by scarce, insufficient or inaccurate bibliographic information, which is only one further reason why valuable resources, even if available on the web, remain undiscovered by and are of little use to the wider research community. The integration of these dispersed primary text sources into the sustainable, web and centres-based research infrastructure of CLARIN-D will be an important step to solve this problem. The Full Paper illustrates an exemplary approach taken by the »Deutsches Textarchiv« (DTA; www.deutschestextarchiv.de) at the Berlin-Brandenburg Academy of Sciences and Humanities (BBAW) to integrate dispersed textual resources and corresponding image scans from various sources into a large historical text corpus of its own and to insert these into the infrastructure of CLARIN-D.
Trubeckoj, Nikolaj Sergeevič
(2005)
Ausdrucksformen des Futurs sind für die historische Linguistik seit langem von Interesse. Jedoch liegt bisher für keine frühere Sprachstufe des Deutschen diesbezüglich eine umfassende Darstellung vor. Mit dem Bochumer Mittelhochdeutschkorpus steht ein strukturiertes und digital aufbereitetes Handschriften-Korpus zur Verfügung, das für eine umfassende Darstellung futurisch gebrauchter Formen ideale Voraussetzungen bietet. Die vorgestellte Untersuchung zukunftsbezogener Äußerungen im Mittelhochdeutschen stellt gegenüber den bisherigen semasiologisch-formorientierten Darstellungen einen Neuansatz dar: Ausgehend von der funktionalen Bestimmung von Äußerungen als ‚zukunftsbezogen‘ werden die entsprechenden ausdrucksseitigen sprachlichen Mittel erfasst. Auf diese Weise können die futurischen Ausdrucksmöglichkeiten des Mhd. in ihrer Komplexität analysiert und beschrieben werden. Im Folgenden wird ein Teil der Ergebnisse der Arbeit vorgestellt. Im Vordergrund steht dabei ein allgemeiner Überblick über den Gebrauch der wichtigsten Formen innerhalb des Untersuchungszeitraums. (Anmerkung: Eine gekürzte und bearbeitete Fassung dieses Papers ist für eine Veröffentlichung im Druck vorgesehen.)
Nach Beendigung der Neubearbeitung des Deutschen Wörterbuchs werden die lexikographischen Arbeiten im Rahmen eines digitalen lexikalischen Systems fortgeführt. Welche Perspektiven sich insbesondere für die historische Lexikographie durch die neuen Arbeitsbedingungen eröffnen, ist Thema eines Workshops, den die Arbeitsstelle „Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm - Neubearbeitung” veranstaltet. Die Vorträge beleuchten das Thema unter verschiedenen Aspekten. So soll der spezifische Informationsgehalt von Artikeln in historischen Wörterbüchern illustriert und mit Angaben in gegenwartssprachlichen Wörterbüchern verglichen werden. Darüber hinaus werden Überlegungen zur Erschließung und Nutzung von Quellen sowie zur Erarbeitung und Präsentation lexikographischer Informationen im digitalen Zeitalter vorgestellt. Dazu gehört auch ein Überblick über bereits vorhandene elektronische Redaktionssysteme. Ein Vortrag, in dem es um Desiderata nach dem Ende der DWB-Neubearbeitung gehen soll, beschließt die Veranstaltung.