400 Sprache
Refine
Year of publication
Document Type
- Part of a Book (25)
- Lecture (16)
- Article (6)
- Conference Proceeding (4)
- Working Paper (3)
- Preprint (2)
- Review (1)
Language
- German (34)
- English (22)
- Multiple languages (1)
Keywords
Has Fulltext
- yes (57)
Institute
- Berlin-Brandenburgische Akademie der Wissenschaften (25)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (15)
- Interdisziplinäre Arbeitsgruppe Die Herausforderung durch das Fremde (12)
- Akademienvorhaben Strukturen und Transformationen des Wortschatzes der ägyptischen Sprache. Text- und Wissenskultur im alten Ägypten (3)
- Akademienvorhaben Turfanforschung (3)
- Veröffentlichungen von Akademiemitarbeitern (3)
- Akademienvorhaben Schleiermacher in Berlin 1808-1834, Briefwechsel, Tageskalender, Vorlesungen (2)
- Veröffentlichungen der Vorgängerakademien (2)
- Akademienvorhaben Alexander von Humboldt auf Reisen - Wissenschaft aus der Bewegung (1)
- Akademienvorhaben Digitales Wörterbuch der Deutschen Sprache (1)
Vor allem in älteren Wörterbüchern mit philologischer Ausrichtung ist die Mikrostruktur der Artikel häufig diskursiv und unsystematisch. Eine automatisierte Digitalisierung solcher Wörterbücher mit dem Ziel, ihre logische Struktur zu kodieren, ist nicht möglich; in vielen Fällen ist schon ein Parser für ein manuell nachzubearbeitendes Rohdigitalisat kein realistisches Ziel, weil die Angabetypen des Wörterbuchs nicht klar voneinander abgrenzbar und in den Einzelartikeln nicht eindeutig identifizierbar sind. In solchen Fällen wirft auch eine nachträgliche manuelle Formalisierung der Mikrostruktur große lexikografische Probleme auf. Für komplexere Anwendungsszenarien wie etwa Abfragen in Webanwendungen kann es dennoch unumgänglich sein, wenigstens sämtliche relevanten in den Artikeln diskutierten Wortformen mit grundsätzlichen diasystematischen und morphologischen Informationen sowie ihren Relationen zueinander in einem maschinell lesbaren Format strukturiert zu repräsentieren, etwa durch datenzentrierte XML-Dokumente. Der Vortrag versucht, die lexikografischen und technischen Möglichkeiten und Grenzen einer solchen teilweisen und manuellen Retrodigitalisierung am Beispiel von Erfahrungen mit einem älteren Wörterbuch deutscher Lehnwörter im Slovenischen (Striedter-Temps 1963) auszuloten. Das Wörterbuch soll in ein Portal von Lehnwörterbüchern mit Deutsch als gemeinsamer Gebersprache eingebunden werden. Die Einzelartikel werden dem Benutzer als Bilddigitalisate zur Verfügung gestellt; die zusätzliche textuelle Retrodigitalisierung ist jedoch für komplexere, insbesondere auch für wörterbuchübergreifende und portalweite, Suchabfragen erforderlich.
Nach Beendigung der Neubearbeitung des Deutschen Wörterbuchs werden die lexikographischen Arbeiten im Rahmen eines digitalen lexikalischen Systems fortgeführt. Welche Perspektiven sich insbesondere für die historische Lexikographie durch die neuen Arbeitsbedingungen eröffnen, ist Thema eines Workshops, den die Arbeitsstelle „Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm - Neubearbeitung” veranstaltet. Die Vorträge beleuchten das Thema unter verschiedenen Aspekten. So soll der spezifische Informationsgehalt von Artikeln in historischen Wörterbüchern illustriert und mit Angaben in gegenwartssprachlichen Wörterbüchern verglichen werden. Darüber hinaus werden Überlegungen zur Erschließung und Nutzung von Quellen sowie zur Erarbeitung und Präsentation lexikographischer Informationen im digitalen Zeitalter vorgestellt. Dazu gehört auch ein Überblick über bereits vorhandene elektronische Redaktionssysteme. Ein Vortrag, in dem es um Desiderata nach dem Ende der DWB-Neubearbeitung gehen soll, beschließt die Veranstaltung.
Die internationale Tagung „Perspektiven einer corpusbasierten historischen Linguistik und Philologie“ vom 12. – 13. Dezember 2011 am Akademienvorhaben „Altägyptisches Wörterbuch“ der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) war dem Thema des Aufbaus und der Nutzungsperspektiven elektronischer Textcorpora und Wörterbücher in den historischen Sprachen gewidmet. Die Teilnehmer, Vertreter der Ägyptologie, der Hethitologie, Indogermanistik sowie Referenten aus der historischen Lexikographie des Mittel- und Frühneuhochdeutschen und des Altfranzösischen diskutierten vor allem über die Veränderungen, die mit dem Einsatz elektronischer Erfassungs- und Verarbeitungsprozeduren einhergehen.
In aktuellen Internetwörterbüchern werden die Wörterbuchnutzer mithilfe eines breiten Spektrums an Möglichkeiten in die lexikographische Arbeit einbezogen (z. B. Fehlermeldungen, eigene Einträge) bzw. mithilfe verschiedener Mittel an das Wörterbuch gebunden (z. B. Newsletter, Blogs). Zwischen wirklicher Bottom-up-Lexikographie und Methoden der Nutzerbindung bei kommerziellen Onlinewörterbüchern bewegen sich also die vielfältigen Möglichkeiten des Nutzerfeedbacks, das in vielen Fällen auf den Entstehungsprozess des jeweiligen Wörterbuchs Einfluss nimmt. In diesem Vortrag wird vorgestellt, an welchen Stellen des lexikographischen Prozesses von Internetwörterbüchern sich „die Öffentlichkeit“ einbringen kann und wie sich dieses Feedback auf den Prozess der Erarbeitung solcher Wörterbücher auswirkt. Dabei werden zugleich die verschiedenen Phasen des lexikographischen Prozesses von Internwörterbüchern vorgestellt und die für Wörterbücher in diesem Medium spezifischen Herstellungsbedingungen diskutiert.
Among mass digitization methods, double-keying is considered to be the one with the lowest error rate. This method requires two independent transcriptions of a text by two different operators. It is particularly well suited to historical texts, which often exhibit deficiencies like poor master copies or other difficulties such as spelling variation or complex text structures. Providers of data entry services using the double-keying method generally advertise very high accuracy rates (around 99.95% to 99.98%). These advertised percentages are generally estimated on the basis of small samples, and little if anything is said about either the actual amount of text or the text genres which have been proofread, about error types, proofreaders, etc. In order to obtain significant data on this problem it is necessary to analyze a large amount of text representing a balanced sample of different text types, to distinguish the structural XML/TEI level from the typographical level, and to differentiate between various types of errors which may originate from different sources and may not be equally severe. This paper presents an extensive and complex approach to the analysis and correction of double-keying errors which has been applied by the DFG-funded project “Deutsches Textarchiv” (German Text Archive, hereafter DTA) in order to evaluate and preferably to increase the transcription and annotation accuracy of double-keyed DTA texts. Statistical analyses of the results gained from proofreading a large quantity of text are presented, which verify the common accuracy rates for the double-keying method.
Numerous high-quality primary text sources—in the context of the curation project described here, this means full-text transcriptions (and corresponding image scans) of German works originating from the 15th to the 19th centuries—are scattered among the web or stored remotely. E.g., transcriptions of historical sources are stored locally on degrading recording media and cannot be found, let alone accessed by third parties. Additionally, idiosyncratic, project-specific markup conventions and uncommon, out-of-date or inflexible storage formats often hinder further usage and analysis of the data. Often, textual resources are accompanied by scarce, insufficient or inaccurate bibliographic information, which is only one further reason why valuable resources, even if available on the web, remain undiscovered by and are of little use to the wider research community. The integration of these dispersed primary text sources into the sustainable, web and centres-based research infrastructure of CLARIN-D will be an important step to solve this problem. The Full Paper illustrates an exemplary approach taken by the »Deutsches Textarchiv« (DTA; www.deutschestextarchiv.de) at the Berlin-Brandenburg Academy of Sciences and Humanities (BBAW) to integrate dispersed textual resources and corresponding image scans from various sources into a large historical text corpus of its own and to insert these into the infrastructure of CLARIN-D.
Khwarezmische Lexikographie
(2003)
In the last decade, interaction between scholarly lexicography and the public has grown enormously. While in the old days, the lexicographer and in particular, the scholarly lexicographer, had a tendency to describe the lexicon from an ivory tower, in a way that was for the general public rather unaccessible, a change has been evident for some time now. Interaction with the general public is now more and more appreciated and is even being stimulated within the lexicographic community. This holds too for the Algemeen Nederlands Woordenboek (ANW), a project of the Institute for Dutch Lexicology in Leiden. The ANW is an online scholarly dictionary of contemporary Dutch. In its periodization it is the successor of the Woordenboek der Nederlandsche Taal (WNT), which was completed in 2001 and covers the vocabulary of the Netherlands and Flanders up to around 1976. The editorial staff of the ANW would like to create a dictionary that is suitable for different audiences, ranging from language professionals and other academics to pupils, students and language enthusiasts in general. Consequently, interaction with the public is very important to the ANW editorial staff. It is realised in various ways. First, each dictionary article offers users the option to give feedback. Second, the editorial staff uses questions and comments gathered on internet forums, such as Meldpunt Taal (launched in June 2010) and Neo-term. The ANW staff also approaches the public directly through Twitter, with items such as ‘neologism of the week’, facts about spelling and answers to questions about language that have been received. A relatively new initiative is to call upon the public in the search for information for the dictionary, such as synonyms, pictures and the earliest use of words. Language games and word polls are other ways to increase the interest and involvement of the general public in the ANW.
Das Großwörterbuch des Ungarischen (GWU) ist grundsätzlich ein Bedeutungswörterbuch, das auch eine historische Dimension hat. Einerseits sind im Wörterbuch auch zahlreiche Stichwörter zu finden, die im Sprachgebrauch der früheren Jahrzehnte der bearbeiteten Periode (von 1772 bis zunächst 2000) wichtig gewesen sind. Andererseits kann die Bedeutungsstruktur vieler auch heute gebrauchter Wörter um Bedeutungen ergänzt werden, die nur aufgrund älterer Textstellen des Corpus erschlossen werden können. Diese Veränderungen im lexikalischen Bestand und in der Wortsemantik weisen natürlich auch auf aussersprachliche Umstände hin, aber auch auf das Verhältnis zwischen Innovation und Entlehnung als Möglichkeiten zur Erweiterung des Wortschatzes. Die lexikologische Markierung, d. h. die Bezeichnung der sprachlichen Verwendungsmöglichkeiten (Stile) und Fachbezogenheit der einzelnen Wörter (Bedeutungen) in einem historisch geprägten Bedeutungswörterbuch ist oft recht problematisch. Dem Lexikographen fehlt nämlich die persönliche Erfahrung des Sprachgebrauches einer früheren Synchronie, so ist er gezwungen, mit einer „zusätzlichen, erweiterten“ Kompetenz diese wichtigen Züge der behandelten Lexeme zu beschreiben. Anführungen zu unterschiedlichen grammatischen Merkmalen der Stichwörter können einem Wörterbuch nicht fehlen. Die Art und der Umfang dieser Verweise können die richtige Einschätzung der Verwendungsmöglichkeiten eines Wortes auch für ältere Perioden ziemlich gut fördern. Darüber hinaus können mit Hilfe der Wörterbuchgrammatik ggf. auch Veränderungen im grammatischen System dargestellt werden.
Fremdheit in einer scheinbar vertrauten Sprache - Sprachliche Folgen der Teilung Deutschlands
(1997)
Fremdheit der Sprache
(1997)
For a fistful of blogs: Discovery and comparative benchmarking of republishable German content
(2014)
We introduce two corpora gathered on the web and related to computer-mediated communication: blog posts and blog comments. In order to build such corpora, we addressed following issues: website discovery and crawling, content extraction constraints, and text quality assessment. The blogs were manually classified as to their license and content type. Our results show that it is possible to find blogs in German under Creative Commons license, and that it is possible to perform text extraction and linguistic annotation efficiently enough to allow for a comparison with more traditional text types such as newspaper corpora and subtitles. The comparison gives insights on distributional properties of the processed web texts on token and type level. For example, quantitative analysis reveals that blog posts are close to written language, while comments are slightly closer to spoken language.
Even a reductionist attempt to define scholarship is clearly fraught with difficulty, but an idealised historical lexicographer-cum-scholar must obviously have – inter alia and at the very least – a profound linguistic and textual knowledge of the language being documented, an ability to understand texts in their historical context and to analyse the meaning or function of lexical items as used in context, an ability to synthesise the results through generalisation and abstraction and to formulate them in a way that is both accurate, i.e. reflects actual usage, and user- or reader-friendly, i.e. is comprehensible to the user/reader. S/he must have encyclopedic or world knowledge and literary skills in order to understand general content words and explain their meaning and their semantic shifts perhaps over many centuries, and technical expertise to understand specialist terms and define their use in specific contexts, again perhaps over time. In respect of etymology s/he must not only have knowledge of older stages of the language and an ability to reconstruct unattested forms, but also knowledge of the other languages that have impacted on the language being documented, or at least familiarity with the scholarly historical dictionaries of those languages. That is a tall order indeed, impossibly tall for any one person today given today‘s demands on and expectations of lexicographers. Teams which include specialists in different areas or at least have access to consultants in such areas alongside generalists are needed if scholarly standards are to be met. The standard of scholarship is primarily a factor of the number and range as well as the knowledge and experience of the lexicographers, as is in large measure the pace of production. In this regard, it cannot be emphasised enough that scholarly historical lexicography of high quality is and will remain very time consuming.
Even a reductionist attempt to define scholarship is clearly fraught with difficulty, but an idealised historical lexicographer-cum-scholar must obviously have – inter alia and at the very least – a profound linguistic and textual knowledge of the language being documented, an ability to understand texts in their historical context and to analyse the meaning or function of lexical items as used in context, an ability to synthesise the results through generalisation and abstraction and to formulate them in a way that is both accurate, i.e. reflects actual usage, and user- or reader-friendly, i.e. is comprehensible to the user/reader. S/he must have encyclopedic or world knowledge and literary skills in order to understand general content words and explain their meaning and their semantic shifts perhaps over many centuries, and technical expertise to understand specialist terms and define their use in specific contexts, again perhaps over time. In respect of etymology s/he must not only have knowledge of older stages of the language and an ability to reconstruct unattested forms, but also knowledge of the other languages that have impacted on the language being documented, or at least familiarity with the scholarly historical dictionaries of those languages. That is a tall order indeed, impossibly tall for any one person today given today‘s demands on and expectations of lexicographers. Teams which include specialists in different areas or at least have access to consultants in such areas alongside generalists are needed if scholarly standards are to be met. The standard of scholarship is primarily a factor of the number and range as well as the knowledge and experience of the lexicographers, as is in large measure the pace of production. In this regard, it cannot be emphasised enough that scholarly historical lexicography of high quality is and will remain very time consuming.
Der Beitrag geht von einer kritischen Bestandaufnahme digitalisierter Lexikografie der Gegenwart aus. Daran anknüpfend sollen pointierte Thesen bzw. Ideen formuliert werden, die auf Erkenntnisse über das Netzwerk europäischer Nachschlagewerke vergangener Jahrhunderte zurückgreifen. Die Thesen werden in zwei Richtungen entfaltet: In eine europäisch-globale Perspektive und in die Perspektive des Wunsches, Nutzerfreundlichkeit und wissenschaftliche Qualität mit einander zu verbinden.
Das Wörterbuch der ägyptischen Sprache (belegt vom 3. JT. v. Chr. bis 3. JH. n. Chr.), das von 1926-1931 publiziert wurde, baut auf einem großen Belegarchiv mit über 1,2 Millionen Belegzetteln auf. Nur ein kleiner Bruchteil der Belegstellen konnte zwischen 1935 und 1953 publiziert werden. Mit dem Aufbau eines neuen und nunmehr elektronischen Textcorpus kann in dem lexikographischen Nachfolgeprojekt an der BBAW diesem Ansatz folgend ein nun ebenfalls elektronisches und vollständig corpusbasiertes Lexikon geschaffen werden. In dem Corpus sind neben den facettenreichen Gebrauchsweisen von Wörtern auch semantische und lexikalische Strukturen des Wortschatzes neu recherchier- und analysierbar. Die Polysemie von einzelnen Lemmata kann durch selektive Belegszuweisungen aus den vollständig erfassten Quellentexten nachvollziehbar gemacht werden. Daneben können Kollokationsanalysen und andere lexikalisch-statistische Verfahren im Gesamtcorpus das komplexe Zusammenspiel von Wort- und Textstrukturen verdeutlichen. Durch die Publikationsplattform „Thesaurus Linguae Aegyptiae“ stehen das elektronische Wörterbuch und das Corpus der ägyptischen Texte im Internet für komplexe Abfragen zur Verfügung (http://www.bba.de/tla/).
Der Artikel stellt zunächst die Grundlagen und Ziele des an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) beheimateten, DFG-geförderten Projekts Deutsches Textarchiv (DTA) vor, im Rahmen dessen die Grundlage für ein Referenzkorpus des historischen Neuhochdeutschen (ca. 1600 bis ca. 1900) erarbeitet und als frei zugängliches Textkorpus über das Internet bereitgestellt wird. Die Methoden der Texterstellung, XML-basierten Aufbereitung und Annotation sowie die computerlinguistische Erschließung der DTA-Texte werden erläutert. Zudem werden Maßnahmen zur (kollaborativen) Qualitätssicherung sowie zur Erweiterung des Gesamtkorpus durch externe Textressourcen vorgestellt. Anhand von Beispielen werden die vielfältigen Möglichkeiten der Arbeit mit der DTA-Infrastruktur sowie der Nutzung der DTA-Korpora in verschiedenen Kontexten beispielhaft gezeigt. Die DTA-Korpora können dabei nicht allein für sprachhistorische Forschungen, sondern auch zur Vermittlung sprach- und kultur¬geschichtlicher Inhalte im universitären und schulischen Unterricht genutzt werden.
Das Schweizerische Idiotikon dokumentiert die deutsche Sprache in der Schweiz vom Jahr 1300 bis heute. Es ist mit bisher 16 Bänden (Wortstrecke A – W) das grösste Regionalwörterbuch des Deutschen. An ihm wird seit genau 150 Jahren kontinuierlich gearbeitet, in ca. 12 Jahren soll der 17. und letzte Band abgeschlossen sein. Zur einfacheren Benutzung und zur grösseren Verbreitung des gedruckten Werkes sowohl in der wissenschaftlichen Gemeinschaft wie auch in der interessierten weiteren Öffentlichkeit wurde vor 3 Jahren mit der Digitalisierung begonnen. Die komplexe Mikrostruktur der Wörterbuchartikel sowie die beschränkten personellen Ressourcen, die in erster Linie für die Weiterarbeit am letzten Band eingesetzt werden müssen, liess eine Volltextdigitalisierung mit ausgebautem TEI-Tagging als zu langwierig und zu ambitiös erscheinen. Daher wurde die Digitalisierung schrittweise angegangen, indem zuerst die Zugriffstrukturen über mit vielen Schreib- und Aussprachevarianten versehene digitale Register ausgebaut wurden. In einem zweiten Schritt wurden die Register mit den digitalisierten Abbildern der gedruckten Buchseiten verbunden, und in einem dritten, gegenwärtig realisierten Schritt wird die Suche über einen mittels OCR erstellten Volltext implementiert.
Das Akademienvorhaben „Alexander von Humboldt auf Reisen – Wissenschaft aus der Bewegung“ (AvH-R) verfolgt das Ziel einer Open Science und strebt durch die Veröffentlichung des Datenmanagementplans (DMP) eine nachhaltige Transparenz während und nach Abschluss des Forschungsprozesses an. Der Datenmanagementplan in dieser ersten publizierten Version beschreibt den Umgang mit den erzeugten sowie gesammelten Forschungsdaten im laufenden Akademienvorhaben (Stand: März 2022).
In 1850, Jacob Frerichs produced the first and until now the only edition of Friedrich Schleiermacher’s important lectures on Practical Theology. It is a mix and compilation of students’ transcripts from six different semesters, redundant and at times contradictory, which doesn’t correspond to Schleiermacher’s actual lectures. Most of the transcripts used by Frerichs are still preserved and have now been evaluated for a new edition of Schleiermacher’s Practical Theology. This article disassembles Frerichs’ edition into its components giving evidence for every text passage from which source Frerichs took it.