Refine
Document Type
- Conference Proceeding (13)
- Preprint (3)
- Article (2)
- Working Paper (2)
- Lecture (1)
- Part of Periodical (1)
Language
- German (14)
- English (7)
- Multiple languages (1)
Keywords
- Korpus <Linguistik> (22) (remove)
Has Fulltext
- yes (22)
Institute
- Akademienvorhaben Strukturen und Transformationen des Wortschatzes der ägyptischen Sprache. Text- und Wissenskultur im alten Ägypten (11)
- Akademienvorhaben Altägyptisches Wörterbuch (6)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (1)
- Akademienvorhaben Digitales Wörterbuch der Deutschen Sprache (1)
- Drittmittelprojekt Deutsches Textarchiv (1)
Numerous high-quality primary text sources—in the context of the curation project described here, this means full-text transcriptions (and corresponding image scans) of German works originating from the 15th to the 19th centuries—are scattered among the web or stored remotely. E.g., transcriptions of historical sources are stored locally on degrading recording media and cannot be found, let alone accessed by third parties. Additionally, idiosyncratic, project-specific markup conventions and uncommon, out-of-date or inflexible storage formats often hinder further usage and analysis of the data. Often, textual resources are accompanied by scarce, insufficient or inaccurate bibliographic information, which is only one further reason why valuable resources, even if available on the web, remain undiscovered by and are of little use to the wider research community. The integration of these dispersed primary text sources into the sustainable, web and centres-based research infrastructure of CLARIN-D will be an important step to solve this problem. The Full Paper illustrates an exemplary approach taken by the »Deutsches Textarchiv« (DTA; www.deutschestextarchiv.de) at the Berlin-Brandenburg Academy of Sciences and Humanities (BBAW) to integrate dispersed textual resources and corresponding image scans from various sources into a large historical text corpus of its own and to insert these into the infrastructure of CLARIN-D.
Es werden die Begriffe Textsorte / Textgattung und Diskurstradition erläutert und ihr Nutzen für die Lexikographie diskutiert. Anhand zweier ausgewählter Beispiel werden die lexikalischen Probleme erläutert, die die eindeutige Zuweisung dieser Texte zu Textsorten erschweren. Ebenso ist die Differenzierung nach Diskurstraditionen auf Grund der in der Textlinguistik üblichen Beschreibungssysteme für verschieden Diskursvarietäten am konkreten Text nicht immer eindeutig. Beispiele für Intertextualität und Textsorteninseln werden diskutiert, und es wird für eine verfeinerte Beschreibung der Texte in elektronischer Form plädiert.
Die Schaffung des Bonner Frühneuhhochdeutsch-Referenzcorpus "Frühneuhochdeutsch", das seit 2011 an der Ruhr Universität Bochum in Zusammenarbeit mit der Universitäten Halle und Potsdam geschaffen wird, kann auf zwei zwischen 1972-1985 geschaffenen Bonner Corpora aufbauen: das große Gesamtcorpus, bestehend aus 1500 Texten vom 14.-17. Jahrhundert (aufgebaut 1972-74) und einem elektronischen Teilcorpus, bestehend aus 40 annotierten Texten (aufgebaut 1972-1985). Das elektronische Teilcorpus diente bisher mit seiner Annotation von Flexionsformen in Forschung und Lehre. Datenbestand und Struktur dieses Teilcorpus werden für die Schaffung des neuen Referenzcorpus genutzt, korrigiert, um bisher nicht digitalisierte Texte aus dem Gesamtcorpus erweitert und nach neuen Standards annotiert. Dieses Referenzcorpus des Frühneuhochdeutschen wird als Teil in ein umfassendes Historisches Referenzcorpus des Deutschen einfließen (von den Anfängen der deutschen Überlieferung bis 1800). Es soll für die Forschung zum Frühneuhochdeutschen zur Verfügung stehen. Abgelöst davon soll das alte Bonner Teilcorpus weiterhin zur Nutzung bereit stehen.
This paper is an updated presentation of the Ramses project being currently developed at the University of Liège. The first section stresses the main objectives and gives a technical description of the general architecture of Ramses software. The second part describes the encoding procedures and reviews the current state of the annotation. In the third section, some changes brought about by the use of large-scale corpora are discussed from an epistemological viewpoint. The paper ends with the presentation of some new avenues for research that will ensue from the use of a complex multilevel corpus.
Virtually all conventional text-based natural language processing techniques - from traditional information retrieval systems to full-fledged parsers - require reference to a fixed lexicon accessed by surface form, typically trained from or constructed for synchronic input text adhering strictly to contemporary orthographic conventions. Unconventional input such as historical text which violates these conventions therefore presents difficulties for any such system due to lexical variants present in the input but missing from the application lexicon. To facilitate the extension of synchronically-oriented natural language processing techniques to historical text while minimizing the need for specialized lexical resources, one may first attempt an automatic canonicalization of the input text. This paper provides an informal overview of the various canonicalization techniques currently employed by the Deutsches Textarchiv project at the Berlin-Brandenburg Academy of Sciences and Humanities to prepare a corpus of historical German text for part-of-speech tagging, lemmatization, and integration into a robust online information retrieval system.